31 يناير 2021

الذكاء الاصطناعي والأمن العالمي: الاتجاهات والتهديدات والاعتبارات المستقبلية

تحرير: إيفون آر. ماساكوسكي

مراجعة وتلخيص: طارق راشد

 

يستمر سباق التسلح فيما بات الذكاء الاصطناعي هو المسار السريع لتحقيق الهيمنة العالمية في القرن الحادي والعشرين؛ إذ تنظر الدول إلى تقنية الذكاء الاصطناعي كداعم للقوة ومفتاح لتحقيق الهيمنة، فخلال القرن الحادي والعشرين، ستتحكم هذه التقنية في المعلومات والأشخاص والتجارة والحرب المستقبلية؛ وتقع، من هنا، على عاتقنا مسؤولية الإمساك بالدفة وبلورة مستقبلنا فيما يَنضَم الذكاء الاصطناعي إلى المعركة.

ويطرح كتاب “الذكاء الاصطناعي والأمن العالمي: الاتجاهات والتهديدات والاعتبارات المستقبلية” Artificial Intelligence and Global Security: Future Trends, Threats and Considerations لمحررته إيفون آر. ماساكوسكي، والذي صدر عن دار نشر “إميرالد ببليشنج ليمتد” في الـ 15 من يوليو 2020، في 224 صفحة، رؤية لمستقبل مفعم بشبكات متكاملة للذكاء الاصطناعي مصممة للدفاع عن الدول ومهاجمتها على حد سواء.

شارك في إعداده هذا الكتاب موضوع هذه المراجعة باحثون متخصصون في مجالات عدة؛ كالذكاء الاصطناعي، والأنظمة المستقلة غير المأهولة، والفضاء، بالإضافة إلى الأزمات الإنسانية بما فيها الصراعات الحربية والدينية والأخلاقية. وقد دعتهم المحررة إلى الإسهام بخبراتهم، ومعارفهم، ونظرياتهم التأملية للحرب المستقبلية في ضوء التطورات التي تشهدها تقنية الذكاء الاصطناعي.

الذكاء الإصطناعي والأمن العالمي

ويقدم الكتاب، في هذا الإطار، منظوراً قَلَّ تناوله والمتعلق بتأثير دمج تقنية الذكاء الاصطناعي في الشؤون العسكرية، حيث يتوقع الخبراء أن يُشكّل الذكاء الاصطناعي العمليات العسكرية المستقبلية بطرق ستُحدث ثورة في الحرب.  وثمة اتجاهين رئيسيين إزاء هذا الموضوع، الأول يرى أن الذكاء الاصطناعي هو “حلَّالُ المشَاكل الأَكبر”، بينما يراه أصحاب الاتجاه الثاني تهديداً للبشرية.

ويبدو أن هناك شيئاً من الحقيقة في كلا المنظورين؛ فنحن أمام تقنية غير معروفة من نواحٍ كثيرة، أهمها ما إذا كانت هذه التقنية ستحقق الوعي الذاتي الكامل وتصبح تهديداً للبشرية أم لا؟ وجواباً على هذا التساؤل يُمكننا أن نَطمَئن في الوقت الراهن إلى أنه سيكون هناك توجيه إنساني للآلة (human-in-the-loop)، وإشراف إنساني على الآلة (human-on-the-loop) لضمان ألَّا تشكل أنظمة الذكاء الاصطناعي أخطاراً على الإنسان.

وهناك اعتبارات خطيرة أخرى متعلقة بما هو أخلاقي وديني وأدبي ينطوي عليها استخدام هذه التقنيات وقت الحرب، سيما وأنها ما زالت محل نقاش في سياق نظريات الحرب العادلة. وتبرز لهذا الغرض مجموعة من التساؤلات التي يثيرها الكتاب أهمها: كيف ستؤثر هذه التقنيات على قواعد الاشتباك والحرب العادلة مستقبلاً؟ وهل ينبغي تصميم أنظمة الذكاء الاصطناعي بخوارزميات أخلاقية تقيد أفعالها وتكون منها بمنزلة الضمير في الصراعات المستقبلية؟

ويسعى الكتاب أيضاً إلى الإجابة على تساؤلات أخرى تهم تداعيات الذكاء الاصطناعي على حرية الفرد وهويته وحقه في الخصوصية؟ وعواقب تطورات هذه التقنية على الأمن القومي والعالمي؟ والتأثيرات المحتملة لحرب أنظمة ذكاء اصطناعي ضد أخرى؟  والحدود والمسؤوليات الأدبية والأخلاقية لحياة كل شخص فيما تأخذ هذه التقنية مكانها في المجتمع؟ وهل تفقد البشرية هويتها في هذه العملية؟ وأين تُرسم الخطوط الفاصلة بين أنظمة الذكاء الاصطناعي والبشر؟

بيئة الأمن العالمي المستقبلية

ستشكّل التطورات في تقنية الذكاء الاصطناعي والأنظمة المستقلة غير المأهولة حياتنا اليومية ومجتمعنا وحربنا المستقبلية، وسيكون لها تأثير كبير على الفرد والمجتمع والحرب في بيئة القرن الحادي والعشرين الأمنية؛ فمن جهة، هناك العديد من المنافع التي يحققها تطبيق الذكاء الاصطناعي على تصميمات الأنظمة التي ستدعم الجيوش والمقاتلين المستقبليين، فمع تطور تلك التقنيات والأنظمة سيزداد الاعتماد عليها نظراً لقدرتها على تحليل كميات هائلة من البيانات وإدارتها.

كما سيكون الذكاء الاصطناعي بمنزلة عامل مضاعِف لقوة الجيوش، وسيكون له تأثير مباشر على الأمن العالمي المستقبلي. وستسعى الجيوش إلى استغلال التقدم المحقق فيه وفي الأنظمة المستقلة كوسيلة لتحقيق التفوق التقني. ويرى خبراء أنظمة الذكاء الاصطناعي الدفاعية أنها أنظمة يمكن أن تجعل الحرب أكثر إنسانية في حال طُوِّرت بشكل جيد حيث أنها ستكون أكثر دقة وكفاءة، وستساعد في التقليل من عدد الضحايا الأبرياء.

لكن من جهة أخرى، هناك العديد من المخاطر التي يمكن أن تنشأ عن استخدام تقنيات الذكاء الاصطناعي في الحروب، إذ يحذر عدد من النشطاء من أن الزعماء العالميين قد يفشلون في منع ظهور “الروبوتات القاتلة” والأسلحة المستقلة التي يدعمها الذكاء الاصطناعي، ويشعرون بالقلق من أن الجيوش في جميع أنحاء العالم قد تقوم بتطوير أسلحة متطورة تقنياً بشكل أسرع لا تستطيع معه اللوائح الدولية مجاراتها لمنع وقوع الكارثة.

ففي حين أن العديد من المعدات العسكرية تتمتع اليوم بشبه تحكم ذاتي، هناك توجه إلى تطوير أنظمة مستقلة كتلك التي تسعى الولايات المتحدة وروسيا إلى إنتاجها والمعروفة باسم أنظمة الأسلحة الفتاكة المستقلة التي يمكنها استهداف شخص بعينه وإنهاء حياته. وقد أثار احتمال قتل هذه الأنظمة البشر بشكل مستقل مخاوف أخلاقية عبرت عنها مجموعات حقوق الإنسان وبعض الخبراء الذين قالوا أن منح الآلات هذه القدرة يشكل انتهاكاً لمبادئ كرامة الإنسان.

تبني الابتكار ونشره

يُعدُّ تبني الابتكار ونشره بمنزلة القوة الدافعة للمشهد التكنولوجي في يومنا هذا؛ فأوضاع الأزمات، سواء الحقيقية أم المتصورة، تدفع البشرية إلى هذا المسار. وبوسع الذكاء الاصطناعي دعم هذه الجهود والمساعدة في تحقيق هذا الهدف؛ حيث بإمكانه أن يبحث في فضاء الحلول المحتملة، ويقلل المخاطر، ويخفف حدة العواقب غير المقصودة، فضلاً عن قدرته على رسم مسارات العمل من خلال مشهد التطورات الناشئة. لكن الأمر الأهم هو أن الذكاء الاصطناعي بإمكانه مساعدة البشر، لكن لا يمكنه الاضطلاع بالدور المنوط بهم في هذه العملية؛ وهذا الهدف يتطلب تحقيق فهم أدق للتفاعل بين البشر والآلة.

حرب الفضاء

ساعدت التقنيات الحديثة البشر في اتخاذ أولى الخطوات بعيداً عن الأرض والانطلاق إلى الفضاء؛ هذا المجال الذي ستنشأ عنه حتماً صراعات ربما تُحَل، في غياب الحوكمة، بالحروب. لكن افتراضات الحرب على الأرض وأخلاقياتها ستحتاج إلى إعادة النظر بتغير سياقها في حال حدثت بالفضاء. ولا ريب أن التقنيات المستقلة الجديدة، وخاصة منها ذات الاستخدام المزدوج، والتحديات التي تواجه الوجود البشري في الفضاء، ستجبرنا على إعادة النظر في أخلاقيات الحرب في الفضاء.

وسيكون لتقنيات الذكاء الاصطناعي دور كبير في إدارة حروب الفضاء عبر ثلاثة أوجه:

  • أولها الدراية بما يحدث في الفضاء، وتحديداً، أية أجسام تُجري مناورات في الفضاء، وما إذا كانت مناوراتها متعمدة، وما إذا كانت تعود لخصم؛
  • وثانيها التشخيص والتقييم، ويُراد به تقييم الخسائر المتوقعة، مثلاً، جراء إطلاق صاروخ يستهدف الأقمار الاصطناعية التي تعمل في الفضاء مسبقاً. فقد يستغرق الأمر من هذا الصاروخ 10 دقائق للوصول إلى هدفه، وفي تلك الأثناء يُناط بالقوة المحاربة التعامل مع كم هائل من البيانات لتحديد الأصول المعرضة للخطر؛
  • وثالثها – اتخاذ القرار، وهنا يأتي دور الذكاء الاصطناعي والتعلم الآلي لصنع قرار سريع جداً لضمان أمان أصول القوة المحاربة. ولا شك أن هذه القدرات ستساعد أي قوة عظمى على بسط سيطرتها في الفضاء؛ إذ تضمن لها حماية أصولها، وتهديد أصول الخصوم إن شاءت.

الحرب العادلة.. وقضية المسؤولية الأخلاقية في الحروب

ثمة علاقة بين تقليد الحرب القديم السائد منذ قرون في الغرب وابتكارات الذكاء الاصطناعي وتحدياته المتعلقة بتقاليد الحرب وأعرافها الناشئة؛ وفي هذا الصدد تبرز نظرية “الحرب العادلة” ومدى تأثرها بتقنيات الذكاء الاصطناعي المستخدمة في الحروب. وتقضي هذه النظرية بوجود مُسوِّغات، على الأقل من وجهة نظر الطرف الذي يشن الحرب، لشنها، وقوانين يفرضها هذا الطرف على المحاربين من البشر، مما يستتبع محاسبة كل من ينتهك هذه القوانين أثناء الحرب، ويجعله مسؤولاً أمام القانون عن أفعاله أو زلاته أو انتهاكاته، وهذا هو لب نظرية “الحرب العادلة”.

ومع دخول الذكاء الاصطناعي ميدان المعركة، يطرح نشطاء مناهضة الحروب وعلماء الأخلاق والفلاسفة أسئلة تتعلق بقضايا من قبيل، مدى تقيد الآلة بقوانين الحرب، وما إذا كان في الإمكان غرس وازع أخلاقي فيها كذلك الذي يتحلى به الإنسان المقاتل، وكيفية محاسبة الآلة على أي انتهاكات تُقترف أثناء الحرب.

وهنا يثار تساؤل مفاده – هل يترتب على استخدام الذكاء الاصطناعي في الحرب تحميله عبء المسؤولية الأخلاقية عنها؟ لا شك أنه لم يعد درباً من الخيال الاعتقاد بأن الروبوتات ستخوض الحروب بدلاً من البشر. لكن ورغم أن الذكاء الاصطناعي قد قطع خطوات مهمة على صعيد شخصنة الآلات وقدرتها على “اتخاذ القرارات” و”اختيار الأهداف”، إلا أن التحليل الأكثر دقة يكشف أنه حتى الذكاء الاصطناعي الأكثر تعقيداً لا يمكنه إلا أن يكون مجرد أداة وليس عاملاً من عوامل الحرب، الأمر الذي يعيد إلى الواجهة النقاش حول المدى الذي يمكن أن نذهب إليه عند الحديث عن مسؤوليته الأخلاقية في الحرب.

لقد كانت المسؤولية الأخلاقية عن الحروب وما يقع فيها من تجاوزات وانتهاكات وأخطاء تنسب إلى المقاتلين البشر، ومنها إلى قادتهم ومنها إلى رؤساء قادتهم ومنها إلى حكومة الدولة التي تشن الحرب في سلسلة واضحة لجميع حلقاتها من البشر، أما الآن، ومع دخول عامل جديد يتمثل في الروبوتات، تجلت معضلة جديدة؛ فلا يُعرف ما إذا كان سيتم التعامل مع الروبوتات على أنها أداة من أدوات الحرب كالبندقية والقنبلة وما إلى ذلك، أم بوصفها مقاتل له ما له من الصفات الأقرب إلى البشر، وخاصةً القدرة على صناعة القرار بشكلٍ مُستقل.

وعليه، فلا يُعرف على مَن سيقع العبء الأخلاقي طالما دخلت السلسلة حلقة تحل محل البشر وتتخذ شكل الآلة. فهناك المبرمج الذي برمج الخوارزميات، وهناك الشركة المُصنعة لرقائق العقل الآلي، وهناك الكيان التابع له الروبوت من قيادة وجيش، وهناك الحكومة التي يتبع لها ذاك الجيش.

معضلات أخلاقية أخرى

تشكّل الأساليب القائمة على البيانات كالذكاء الاصطناعي مصدراً لمخاوف حقيقية بشأن الخصوصية الفردية. ويتعزز النموذج الحالي لجمع البيانات ممن يستخدمون التطبيقات والخدمات عبر الإنترنت من خلال الأرباح المحتملة الكبيرة التي يتوقع تحقيقها عبر تقديم طائفة واسعة من الخدمات للمستخدمين بشكل أسرع وأكثر راحة. وتُعدُّ شروط الاستخدام واتفاقيات الخصوصية مصدراً شائعاً للارتباك، حيث تُكتب بطريقة تخفف من تأثيرها وتغري الناس بقبول مستوى معين من المخاطر تلقائياً مقابل الحصول على الراحة والوصول “المجاني”.

وهناك أطراف ثالثة، بما في ذلك الحكومات، تتمتع بإمكانية الوصول إلى هذه البيانات بعدة طرق. وإذا لم يكن تقويض سبل حماية خصوصية الفرد والأخطار المحتملة التي ينطوي عليها ذلك بالنسبة لاستقلاليتنا ومُثُلنا الديمقراطية مثيراً للقلق بما يكفي، فإن المنتج الرقمي البديل من “ذَاتك” الذي سيتم إنشاؤه من النموذج القائم لجمع البيانات، قد يتشارك يوماً ما، وبكل حرية، الأفكار وعادات الشراء ونمط حياتك مع أي شخص يمتلك هذه البيانات. وهنا يبرز تساؤل مفاده – هل سيحتاج بديلنا الرقمي يوماً ما إلى الحماية هو الآخر؟

بناء الضمير الاصطناعي

تدور المناقشات عادةً حول الآثار الأخلاقية لاستخدام الذكاء الاصطناعي في مجالات متعددة، بدءاً مما إذا كان يمكن للخوارزميات المدربة تشفير معايير تمييزية للتعرف على الوجوه، وانتهاءً بالمناقشات حول الآثار المترتبة على استخدام الذكاء الاصطناعي باعتباره بديلاً للذكاء البشري في الحروب. ويركز الكتاب، في هذا الصدد، على فرع معين من فروع الأخلاق والذكاء الاصطناعي، غالباً ما يتم تجاهله، ويتعلق الأمر بإمكانية استخدام أساليب الذكاء الاصطناعي لبناء أو تدريب نظام يمكنه إدراك القضايا الأخلاقية؛ بمعنى آخر أن يكون لتقنيات الذكاء الاصطناعي ضمير يؤثر على قراراتها لا سيما في ساحة الحرب.

وثمة مجموعة من التساؤلات التي يمكن إثارتها في هذا الجانب من قبيل: مما يتألف “الضمير الاصطناعي” وماذا سيفعل؟ ولماذا ينبغي علينا أن نسارع بشكل جماعي إلى بناء ضمير اصطناعي؟ وكيف يمكننا بناء ضمير اصطناعي من حيث الهيكلية والمحتوى على حد سواء؟ وما هي المخاوف بشأن بناء الضمير الاصطناعي؟ ونظراً للأهمية المتزايدة للأنظمة والمنصات الذكية شبه المستقلة أو المستقلة بالكامل خاصة بالنسبة للحرب المعاصرة، يخلص الكتاب إلى أن بناء ضمير اصطناعي ليس أمراً ممكناً فحسب، بل إنه مَطلَب أخلاقي إذا أردنا من زملائنا الجنود المستقلين أن يتعاونوا بشكل كامل مع الجنود البشريين في ساحة القتال.

قيود لأنظمة الذكاء الاصطناعي

تنبع أهمية أنظمة الذكاء الاصطناعي من مزاياها المحتملة وقيمتها في طائفة متنوعة من سياقات الحرب والاستخبارات والأمن القومي؛ ومن ثم أصبح من الأهمية بمكان أن نتعرف على القدرات والقيود والتأثيرات والحاجة إلى الإرشاد والتوجيه وحوكمة أنواع مختلفة من أنظمة الذكاء الاصطناعي واستخداماته في مبادرات الحرب والاستخبارات والأمن القومي.

ويمكن النظر، بشكل عام، إلى أنظمة الذكاء الاصطناعي باعتبارها “ناعمة” أو “خشنة”، على الرغم من أنها في الواقع ليست ثنائية تماماً، بل موجودة على امتداد سلسلة متصلة من التعقيد البنيوي والوظيفي من حيث التصميم والعمليات. ويحتفظ “الذكاء الاصطناعي الناعم” ببصمة المسؤولية التي يتحملها الباني والمشغّل البشري ويكشفها؛ فهو يبرمَج ويخضع للتحكم، وفي أحسن الأحوال يكون شبه مستقل.

وهنا يمكن نسبة سلسلة التصميم و/أو بيان الفعل/الحدث (الأحداث) إلى العوامل البشرية. لكن “الذكاء الاصطناعي الخشن” (مثلاً: الأنظمة المستقلة) يمكنه كسر تلك السلسلة، إذا تجاوز النظام حدوده الأولية من حيث ملامح المدخلات – المخرجات المبرمجة بشرياً إلى الخصائص والسمات “المطورة/المتأصلة” لا مجرد المشتقة اشتقاقاً مباشراً.

لكن قد نواجه صعوبة في معرفة ما إذا كانت أنظمة الذكاء الاصطناعي ستصبح مستقلة أم لا، ومتى تصبح كذلك؟ فقد تستطيع هذه الأنظمة تطوير خصائص جديدة كالسمات التكيفية، وفي بعض الحالات سيكون ذلك استجابةً وكرد فعل رافض تجاه بعض المحاولات الخارجية (أي البشرية) في التقييد والفرض والسيطرة. وتثير هذه النتيجة إشكاليات عديدة تتعلق بالمسؤولية واعتبارات المسارات التنموية والتأثيرات المحتملة والتنظيم والإمكانات والجدوى وقيود الاستخدام القابلة للتحديد ومنها:

  • تأثير استخدام الذكاء الاصطناعي على الحدود النسبية والحدود المسموح بها في الحرب؛
  • والنُّهج المقترحة في تحليل المخاطر والتخفيف من حدتها؛
  • والتوجيه التشغيلي لأنظمة الذكاء الاصطناعي في سياقات الحرب والاستخبارات والأمن القومي.

الـ “ناتو” والذكاء الاصطناعي

يبدو أن القوات المسلحة في الدول الغربية وكذلك التحالفات العسكرية الدولية كحلف الـ “ناتو” تعجز بشكل متزايد عن التعامل مع المشاكل الجديدة باستخدام منهجيات التخطيط والتنظيم التقليدية وحدها؛ فما نجح بشكل جيد سابقاً لم يعد يتسم بالدقة والسيطرة نفسها الآن، إذ إن عملية التخطيط العسكري الرسمية على المستوى العملياتي التي طُوّرت أولياً للتعامل مع الأنشطة العسكرية واسعة النطاق في عصر الحرب الباردة في “سياق الدولة الصناعية مقابل الدولة الصناعية” تبدو الآن غير قادرة على توفير الوسائل الكافية لإقالة الحلف من عثرته في ظل ظهور تقنيات الذكاء الاصطناعي ودخولها المقرر إلى المجال العسكري.

في هذا السياق الجديد متزايد التعقيد، إلى جانب الإيقاع المتزايد للثورة الصناعية الرابعة، يتعين على الـ “ناتو” الوفاء بمهمته الأساسية المتمثلة في ضمان أن يظل التحالف مجتمعاً دولياً يتمتع بالحرية والسلام والأمن والقيم المشتركة، وأن يمر على نحو ما بتحول رقمي كامل. ويتطلب هذا نُهُجاً جديدة ونبيلة من صانعي السياسات والعسكريين على حد سواء.  ويلعب الذكاء الاصطناعي دوراً حاسماً خلال هذا التحول الرقمي.

وسيضطلع الذكاء الاصطناعي في هذا بأدوار مثل تحليل المستقبل واستشرافه، وجعل الحلف منظمة تتعلم باستمرار، وتحليل البيانات الضخمة لتقييم الفجوات في القدرات، وتحسين نظام قدرات التخطيط الدفاعي، وإجراء البحوث المشتركة بين مجموعة من المراكز البحثية المهتمة مثل مركز الذكاء الاصطناعي المشترك التابع لوزارة الدفاع الأمريكية، ومبادرة الذكاء الاصطناعي والأمن العالمي التابعة لـ مركز الأمن الأمريكي الجديد، ومراكز بحوث الذكاء الاصطناعي التابعة للـ “ناتو”.

 نحو مستقبل آمن عالمياً

يواصل تسخير قوة وإمكانات الذكاء الاصطناعي مساراً عمره قرون في تطبيق العلم والمعرفة لصالح البشرية. ويبشّر مثل هذا المسعى بثمار عظيمة، لكنه يمكنه أيضاً أن يخلق الصراع والفوضى؛ ولهذا هناك مجموعة من الاعتبارات الرئيسية التي ينبغي الاهتمام بها عند الحديث عن مستقبل آمن في ظل استخدام قدرات الذكاء الاصطناعي، من بينها:

  • ضرورة مواكبة التطور الكبير في هذا المجال بقوانين سريعة ونافذة لتقنين كل خطوة من خطوات الذكاء الاصطناعي.
  • وضع أُطر عامة لمجموعة من القيم التي يتعين على أي جهة مصنعة لأدوات الذكاء الاصطناعي الالتزام بها.
  • دراسة التبعات المتوقعة لأي تطور في هذا الميدان دراسة مستفيضة سلفاً للاستخدام والتطبيق العملييْن.
  • تشكيل كيانات أو لجان لمتابعة الجوانب القانونية والقيميَّة لجميع الهيئات العاملة في ميدان الذكاء الاصطناعي.
  • الضرب بيد من حديد على كل مَن تسول له نفسه استخدام أدوات الذكاء الاصطناعي في أغراض غير التي صُنعت لأجلها.

مستقبل الذكاء الاصطناعي

يقدم د. جيمس كانتون James Canton، الرئيس التنفيذي رئيس مجلس إدارة معهد المستقبل العالمي، نظرة مستقبلية للذكاء الاصطناعي، ويرى أن الحوسبة السحابية والبيانات الضخمة تؤثِّر على مرونة ممارسة الأعمال؛ أي القدرة على إنجاز الأمور بوتيرة أسرع وتمكين بيئة العمل والعملاء من بيانات أذكى وأكثر دقة وحلول تُحْدِث ثورة في المؤسسات. ويؤكد كانتون أننا قادرون على أن نتنبأ بشكل أفضل بالمستقبل، والتصرف بناءً على تلك التوقعات، فنصنع قيمة أفضل في سلاسل التوريد والنظم الإيكولوجية والأسواق ومع العملاء.

كما ستستفيد، فضلاً عن هذا، خدمات مثل الرعاية الصحية والأمن والترفيه والإعلام من هذه المرونة في سياق تقديم خدمة أذكى وأفضل منخفضة التكلفة.  وعليه، فإن الاهتمام الأسرع والأكثر ديمومة بالتغير، ودمج التنبؤات في مجال الأعمال والحكومات بغية تقليص زمن الاستجابة، وترسيخ وعي تنبؤي بما هو آت، هي السبل التي تحتاج إليها أي مؤسسة كي تتطور؛ فلم يعد الوضع القائم يُختزل في ممارسة الأعمال كالمعتاد، وإنما إما تتكيف أو إما تندثر.

وفي الختام يمكن القول إنه من المتوقع أن يستمر الذكاء الاصطناعي في التطور وتوسيع مداه على نطاق عالمي. ومهما كان المسار الذي سيمضي فيه، فإن التقدم المحرز سينطوي على تحديات ومخاطر لتطبيقه سواء في الحياة اليومية، أو في أزمنة الحرب. والأمر متروك للإنسان أن يرسم مساراً يساعد البشرية على اجتياز المجهول وبلورة العالم المستقبلي الذي نريد أن نعيش فيه.

 

المحررة في سطور:

إيفون آر ماساكاوسكي، حاصلة على الماجستير والدكتوراه في الفلسفة، وعلى درجة الماجستير في علم النفس، وهي صاحبة سجل مهني متميز في علم النفس والعوامل البشرية امتد لأكثر من 25 عاماً. وقد عينتها كلية الحرب البحرية الأمريكية مؤخراً زميلة باحثة بعد تقاعدها كأستاذ مشارك للقيادة الاستراتيجية وتطوير القادة في كلية القيادة والأخلاقيات التابعة للكلية. انصبّ تركيز الدكتورة ماساكاوسكي، أثناء عملها في كلية الحرب البحرية، على النهوض بتطوير القادة للبحرية الأمريكية وتأثير تقنيات الذكاء الاصطناعي المتقدمة على الشؤون العسكرية. وتشغل حالياً منصب الرئيس الأمريكي لفريق العمل المعني بتطوير القادة للعمليات العسكرية متعددة الجنسيات التابعة لحلف الناتو.

How useful was this post?

Click on a star to rate it!

Average rating 4 / 5. Vote count: 5

No votes so far! Be the first to rate this post.

التعليقات

البريد الالكتروني الخاص بك لن يتم كشفه.