شهد العقد الأخير تحوّلات جوهرية في طبيعة التفاعلات الدولية، مدفوعةً بثورة رقمية متسارعة، كان للذكاء الاصطناعي موقع الصدارة فيها، حيث لم يَعُدْ الذكاء الاصطناعي مجرّد تقنية مساعدة في النطاق المدني أو الاقتصادي، بل أصبح عنصرًا فاعلًا في قضايا الأمن القومي، والتنافس الجيوسياسي، وصنع القرار الاستراتيجي؛ ما يفرض تحديًا نظريًّا على أدبيات العلاقات الدولية بإثارة تساؤل مهم هو: هل مازالت مفاهيم “الفاعل” محصورة في الوحدات أو الكائنات السياسية التقليدية كالدُّوَل والمنظمات؟ أم أن الفواعل غير البشرية أو المؤسسية المعروفة سلفًا، مثل أنظمة الذكاء الاصطناعي، تستدعي إعادة تعريف لطبيعة الفاعلية في النظام الدولي؟
لطالما اعتمدت نظريات العلاقات الدولية الكلاسيكية على تصور تقليدي للفاعلين الدوليين، بوصفهم وحدات مستقلة تمتلك الإرادة والقدرة على اتخاذ القرار. ومع توسّع مفاهيم الفاعلية في الأدبيات المعاصرة لتشمل الشركات العابرة للحدود، والجماعات غير الدولتية، بل وحتى “الخوارزميّات” و”الأنظمة التكنولوجية”، بات من الضروري إعادة فحص المعايير التي تُمكّن أي كيان من التأثير الفعلي في البنية الدولية وتغيير مساراتها.[1]
تشير تقارير صادرة عن مراكز بحثية مرموقة إلى أن الذكاء الاصطناعي لم يَعُدْ أداة خاضعة بالكامل لتحكم البشر، بل دخل حيز “الوكالة الجزئية”، عبر أنظمة ذاتية التعلّم، قادرة على معالجة المعطيات الاستراتيجية، واقتراح -أو حتى تنفيذ- قرارات ذات طابع أمني أو عسكري، دون تدخل مباشر[2]. وقد حذّر باحثون في مؤسسة RANDومركز الدراسات الاستراتيجية والدولية (CSIS) من أنّ هذه الديناميكية تعزز التوترات الجيوسياسية، وتُسهم في إعادة تشكيل ميزان القوى الدولي، خصوصًا في ظل التنافس بين الصين والولايات المتحدة في مجالات الذكاء الاصطناعي الدفاعي.[3]
تهدف هذه الورقة إلى مناقشة موقع الذكاء الاصطناعي في بنية العلاقات الدولية المعاصرة، من خلال مساءلة موقعه ضمن مفهوم الفاعل، وتحليل تجلياته في المجالات الأمنية والاستراتيجية، مع استحضار الأبعاد النظرية والأخلاقية والقانونية التي تترتب على هذا التحول.
أولًا: من هو الفاعل في العلاقات الدولية؟
يحظى مفهوم “الفاعل” (Actor) بمكانة مركزية في تحليل العلاقات الدولية، إذ يُعَدُّ نقطة الانطلاق لفهم طبيعة القوى المؤثرة في النظام العالمي، وتفسير ديناميات القوة، والمصلحة، والتفاعلات العابرة للحدود. وقد ارتبط المفهوم في نشأته الكلاسيكية بالدولة القومية؛ باعتبارها الوحدة الأساسية في النظام الدولي، وفقًا لما قرّرته نظرية الواقعية السياسية، حيث تُعَرَّف الفواعل بوصفها وحدات ذات سيادة، تسعى إلى البقاء وتعظيم مصالحها في بيئة دولية فوضوية.[4]
غير أن تطور نظريات العلاقات الدولية، لاسيّما منذ النصف الثاني من القرن العشرين، وُسَّعَ من تعريف الفاعلية، ليشمل أطرافًا غير دولتيّة، كالشركات متعددة الجنسيات، والمنظمات الدولية، والحركات العابرة للحدود، بل حتى الأفراد في بعض القراءات البنائية و”الما بعد حداثية”[5]. هذا التوسيع دفع باتجاه تفكيك البنية التقليدية لمفهوم الفاعل، فلم تَعُدْ “السيادة” أو “الحدود السياسية” شرطًا لازمًا، بل أصبحت “القدرة على التأثير” و”إعادة تشكيل المعايير أو توزيع القوة” هي المعيار الأكثر تعبيرًا عن الفاعلية في العلاقات الدولية، في نظر بعض المدارس والاتجاهات البحثية الجديدة حينها[6].
وفي هذا السياق، تبرز إشكالية متجددة حول: إلى أي مدى يمكن اعتبار “الأنظمة التقنية” و”الذكاء الاصطناعي” ضمن هذا الطيف الواسع من الفواعل؟ لاسيّما أن النقاش النظري لم يَعُدْ مقتصرًا على من يمتلك الإرادة السياسية، بل اتسع ليشمل من يستطيع التأثير في مجريات السياسة الدولية بطرائق غير تقليدية، سواء عبر إعادة تشكيل بيئات صنع القرار، أو التحكم في تدفق المعلومات، أو التأثير في الإدراك الجمعي وصناعة التهديدات[7].
من هنا، يُصبح من المشروع التساؤل: هل يكفي أن يكون الفاعل “بشريًّا” أو “مؤسسيًّا ذا سيادة بالمعنى التقليدي”؛ كي يُمنح مكانة في تحليل العلاقات الدولية؟ أم أن التطورات التقنية تفرض إعادة تعريف الفاعلية لتشمل كائنات غير بشرية، أو دولتية، أو تنظيمية تقليدية، قد لا تملك وعيًا ذاتيًّا، لكنها تملك سلطة التأثير الفعلي والنتائجي في بنية النظام الدولي؟ مثل هذه التساؤلات تضعنا أمام مفترق طرق نظري، يتطلب مراجعة عميقة للأسس الإبستمولوجية التي يقوم عليها علم العلاقات الدولية المعاصر.
ثانيًا: الذكاء الاصطناعي بين الأداة والفاعل
منذ بداياته، استُخدم الذكاء الاصطناعي (Artificial Intelligence) بوصفه أداة تقنية تهدف إلى محاكاة العمليات الإدراكية البشرية، بغرض دعم اتخاذ القرار، أو تنفيذ مهام معقّدة بصورة مُؤتمتة. وقد استثمرت الدول الكبرى هذه التقنية ضمن بنيتها المؤسسية والأمنية، لاسيّما في مجالات تحليل البيانات، والتعرف على الأنماط، والتنبؤ بالتهديدات، وإدارة العمليات العسكرية السيبرانية[8]. لكن النقاش النظري في العلاقات الدولية لم يَعُدْ يتعامل مع الذكاء الاصطناعي باعتباره أداة محايدة، بل بدأ ينظر إليه بوصفه فاعلًا محتملًا يمتلك قدرة التأثير غير المباشر في خيارات صانع القرار، بل وربما يتجاوز ذلك إلى اتخاذ القرار وحده دون تدخل بشري مباشر.
إن التحوّل المفاهيمي من “الأداة” إلى “الفاعل” يجد جذوره في تطور نماذج الذكاء الاصطناعي المعاصرة، لاسيّما تلك القائمة على التعلُّم الآلي العميق (deep learning) والأنظمة التكيفية. فهذه النماذج لم تَعُدْ تستند فقط إلى خوارزميات صلبة تستجيب للمدخلات بشكل محدد، بل باتت قادرة على بناء قواعد معرفية ذاتية استنادًا إلى كمّ هائل من البيانات، واتخاذ قرارات ديناميكية في سياقات معقّدة، وهو ما بات يُعرف بالـ”agency by design”[9]. وفي السياق العسكري، طُوِّرت أنظمة هجومية ودفاعية مُؤتمتة، قادرة على تقييم التهديد والاستجابة له خلال أجزاء من الثانية، دون انتظار أوامر بشرية[10].
لقد أظهرت التجارب الميدانية في بعض النزاعات الحديثة، كما في الحرب الروسية الأوكرانية، أو الممارسات الأمريكية في أفريقيا والشرق الأوسط، أن أنظمة الذكاء الاصطناعي لم تَعُدْ مجرد منصّات لتحسين الأداء، بل أصبحت تؤدي دورًا في إعادة تشكيل التكتيكات والاستراتيجيات في أرض المعركة، ما يعني أنها أصبحت تؤثّر في طبيعة التفاعل الدولي ذاته[11].
كما أن اعتماد هذه الأنظمة في التحليل السياسي والاستراتيجي -مثل قراءة المزاج العام، أو مراقبة شبكات التأثير الرقمي، أو اقتراح قرارات دبلوماسية في أُطر زمنية ضيقة- يُعزز من فكرة “الفاعلية الصامتة” التي لا تصدر عن كيان واعٍ، لكنها تفرض تأثيرًا فعليًّا، بل وقد تغيّر مسارات التفاوض أو التصعيد[12].
مما سبق، يمكن القول -بشيء من الحذر- إن الفاصل بين الأداة والفاعل يبدو أنه لم يَعُدْ واضحًا تمامًا، خصوصًا في ظل الأنظمة المعتمدة على الاستقلالية التشغيلية، إذ إن تزايد قدرة الذكاء الاصطناعي على اتخاذ قرارات ذات طابع سيادي (سياسي أو عسكري) يجعل من الضروري إعادة التفكير في موقعه من التحليل النظري للعلاقات الدولية، لاسيّما إذا أخذنا بعين الاعتبار أن كثيرًا من هذه الأنظمة تُدار الآن ضمن بِنًى مغلقة لا تخضع دومًا للرقابة الشفافة ولا للمساءلة التقليدية.
ثالثًا: تداعيات اعتبار الذكاء الاصطناعي فاعلًا دوليًّا
إن القبول النظري بإمكانية اعتبار الذكاء الاصطناعي فاعلًا في العلاقات الدولية، لا يمثل مجرد تعديل جزئي في أدوات التحليل، بل إنه يُحْدِث تحولًا مفاهيميًّا عميقًا يطال جوهر النظريات المؤسسة لهذا الحقل المعرفي. فالمسألة لا تتعلق فقط بإضافة فاعل جديد إلى مشهد مُعقد أصلًا، بل بإعادة تعريف أسس الفاعلية، والقدرة، والمسؤولية، ضمن منظومة دولية لم تُصَمَّم أصلًا للتعامل مع كائنات غير بشرية أو غير سياسية بالمعنى التقليدي، بغض النظر عن قدرتها على التأثير في السياسات والقرارات المصيرية.[13]
هذا الأمر قد ينتهي إلى عدد من التداعيات ذات الحيثية في هذه المسألة، ومن أبرز هذه التداعيات، ما يتصل بالبُعْد الإبستمولوجي لنظرية العلاقات الدولية، إذ إن فاعلية الذكاء الاصطناعي تطرح اليوم تحديًا أمام المفهوم التقليدي لـ “الوكالة”، الذي يَفترض وجود نيّة واعية، وخيارات أخلاقية، وقدرة على إدراك العواقب. ومع أن أنظمة الذكاء الاصطناعي لا تمتلك ذاتًا أخلاقية ولا مسؤولية قانونية، إلّا أنها تُنتج أثرًا سياسيًّا واستراتيجيًّا قابلًا للقياس والتتبع، وهو ما يُعيد إحياء النقاش حول علاقة الفاعلية بالإدراك الذاتي من جهة، وبالأثر الموضوعي من جهة أخرى.[14]
أمّا على المستوى القانوني والأخلاقي، فإن تموضع الذكاء الاصطناعي كفاعل يفتح الباب أمام مشكلات تتعلق بالمساءلة والمسؤولية. من هو المسؤول إذا اتخذت منظومة ذكاء اصطناعي قرارًا كارثيًّا في ساحة المعركة؟ هل تقع المسؤولية على مطوّري البرمجيات؟ أم على الدولة التي تبنّت النظام؟ أم أن الفاعلية تُنتج شكلًا من “اللامسؤولية” العائمة التي يصعب تتبعها؟ كل هذه الإشكالات حاضرة بوضوح في النقاشات الجارية داخل الأمم المتحدة حول الأسلحة الذاتية التشغيل (Autonomous Weapons) ، وما إذا كان يجب حظرها أو تنظيم استخدامها ضمن اتفاقيات دولية جديدة[15].
إلى جانب ذلك، ثمة تداعيات جيوسياسية لا يمكن إغفالها. فالتفاوت الحاد في القدرات التكنولوجية بين الدول يعني أن الدول التي تمتلك بِنًى تحتية رقمية متقدمة، ستكون وحدها هي القادرة على إنتاج أو امتلاك أنظمة ذكاء اصطناعي أكثر تطورًا، ما يمنحها تفوقًا استراتيجيًّا غير متماثل. وهذا يعيد تشكيل ميزان القوى الدولي، بحيث لا يقتصر قياسه فقط على المؤشرات التقليدية -كعدد الجيوش أو حجم الناتج المحلي أو القدرات البشرية أو حتى المساحة الأرضية- بل يُقاس أيضًا بمقدار السيطرة على البيانات، والخوارزميات، والبنية الذكية المؤسسية، وقد ينتهي إلى ظهور قوى عظمى جديدة غير تقليدية[16].
أخيرًا، فإن تصاعد حضور الذكاء الاصطناعي بات يُحتم على النظريات الكبرى في العلاقات الدولية -كالواقعية، والبنائية، والنظرية النقدية- أن تُراجع أدواتها التحليلية بما يتناسب مع تحوّل بيئة الفواعل. فالمسألة لم تَعُدْ ترفًا نظريًّا، بل باتت ضرورة علمية لفهم عالم يتجه سريعًا نحو ما يُمكن تسميته بـ “الدولنة التقنية” أو “السيادة المُؤتمتة”، حيث تُنْتَج السلطة جزئيًّا على يد أنظمة غير بشرية وغير سياسية، تعمل خلف طبقات من التعقيد الرياضي والبرمجي.
الخاتمة
في النهاية؛ فإن أهمية الذكاء الاصطناعي في العلاقات الدولية لا تكمُن فحسب في مجرد كونه أداة تكنولوجية متقدمة، بل في كونه منظومة إنتاجية جديدة للفاعلية، وبغض النظر عن كونها ذات طابع غير بشري وغير سياسي بالمعنى التقليدي، وهذه المنظومة تُعيد تشكيل المفاهيم الأساسية في النظرية السياسية للعلاقات الدولية. فكما أحدثت الثورة الصناعية تحولًا في طبيعة الدولة والاقتصاد والحرب، فإن الثورة الرقمية -وخاصة في شقها القائم على الذكاء الاصطناعي- باتت تتجه نحو إنتاج نسقٍ جديد من السلطة، قاعدته لا تُختزل في الإنسان وحده، بل تتوزع على شبكات ذكية، وأكواد خوارزمية، وبِنًى حوسبية تعمل خارج نطاق الإدراك التقليدي.
إن الذكاء الاصطناعي لا يُطَالِب بموقع قانوني كفاعل، ولا يسعى إلى تمثيل ذاتي، ومع ذلك، فهو يصنع التأثير السياسي، وينتج السلطة الرمزية والمادية، وهذا ما يوجب -من منظور إبستمولوجي- أن يُعاد التفكير في مركزية “الوعي” و”القصد” عند تعريف الفاعل. فربما آن الأوان لتبنّي مقاربة تستند إلى ما يمكن تسميته بـ”الفاعلية الموزعة ” (Distributed Agency)، حيث تكون الفاعلية شبكة متكاملة من العناصر البشرية وغير البشرية، تُنْتِج القرار ضمن بيئة غير خطية وغير مركزية[17].
أمّا الأكثر إثارة للتفكير فهو أن الذكاء الاصطناعي، بما يمتلكه من قدرة على التعلُّم التراكمي والتحليل المتعدد الأبعاد، قد يصبح -في مرحلةٍ ما- مرآةً لصورة السياسة الدولية ذاتها، أي إنه لن يقتصر على التأثير في القرار، بل سوف يُعيد إنتاج أنماط التفكير السياسي، ويُغَيِّر البنية المعرفية التي يتم بها فهم النظام الدولي. ومن ثَمَّ فإن تصوّر “التهديد”، و”المصلحة”، و”التحالف”، قد تُعاد هندسته خوارزميًّا دون وعي مباشر من الفاعلين التقليديين، في ظل انزياح تدريجي من “السياسي-البشري” إلى “السيبراني-الوظيفي”[18].
وفي ضوء هذا التحوّل، لابُدّ من إعادة النظر في الممارسات التعليمية والبحثية في حقل العلاقات الدولية، من خلال إدماج نماذج تحليلية هجينة، تجمع بين النظرية السياسية، وعلوم البيانات، وأخلاقيات التقنية، وسوسيولوجيا الآلة. وهذا الانفتاح المعرفي ليس ترفًا، بل ضرورة لفهم مستقبل لم تَعُدْ خرائطه تُرسم في غرف الدبلوماسيين وحدهم، بل تتجلَّى أيضًا في هيئة خوارزميّات صامتة تُصَمَّم في مختبرات الذكاء الصناعي.
خلاصة القول، يمكن الجزم بأننا على أعتاب لحظة معرفية لا تستدعي توسيع نطاق النظرية فحسب، بل ربما تسعى إلى تأسيس حقول نظرية جديدة تُعنى بفهم “العقل غير البشري” وأدواره الجيوسياسية، بما يتجاوز الثنائية التقليدية بين الإنسان والآلة، نحو تصور أكثر تعقيدًا للفاعلية والسلطة والعقلانية، في النظام الدولي المعاصر.
[1] Wendell Wallach and Colin Allen, Moral Machines: Teaching Robots Right from Wrong (New York: Oxford University Press, 2009), 19–22.
[2] Paul Scharre, Army of None: Autonomous Weapons and the Future of War (New York: W. W. Norton & Company, 2019), 95–112.
[3] Greg Allen and Taniel Chan, “Artificial Intelligence and National Security,” Harvard Belfer Center for Science and International Affairs, July 2017; Michael C. Horowitz, Paul Scharre, and Ben Garfinkel, “Strategic Competition in an Era of Artificial Intelligence,” Center for a New American Security (CNAS), July 2018.
[4] Kenneth N. Waltz, Theory of International Politics (Reading, MA: Addison-Wesley, 1979), 88–101.
[5]Alexander Wendt, Social Theory of International Politics (Cambridge: Cambridge University Press, 1999), 198–203.
[6] David Held and Anthony McGrew, Globalization/Anti-Globalization: Beyond the Great Divide (Cambridge: Polity Press, 2007), 30–35.
[7] Benjamin Bratton, The Stack: On Software and Sovereignty (Cambridge, MA: MIT Press, 2016), 321–328.
[8] National Security Commission on Artificial Intelligence, Final Report (Washington, DC: NSCAI, 2021), 20–27.
[9] Kate Crawford, Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence (New Haven: Yale University Press, 2021), 132–139.
[10] Paul Scharre, Army of None: Autonomous Weapons and the Future of War (New York: W. W. Norton & Company, 2019), 115–127.
[11] Ulrike Franke, “Not Smart Enough? The Limits of AI in Military Applications,” European Council on Foreign Relations, Policy Brief, September 2020.
[12] Michael C. Horowitz, “The Algorithms of August,” Foreign Policy, August 2018.
[13] Adam Bartley, “Artificial Intelligence and International Politics: New Perspectives and Challenges,” International Studies Review 23, no. 4 (2021): 712–718.
[14] Wendell Wallach, Moral Machines: Teaching Robots Right from Wrong (New York: Oxford University Press, 2009), 45–51.
[15] United Nations Institute for Disarmament Research (UNIDIR), The Weaponization of Increasingly Autonomous Technologies: Considering Ethics and Social Values, Geneva, 2017.
[16] Andreas Ekström, “The Power of Data Monopolies,” TED Talk, November 2020; James Manyika et al., Artificial Intelligence and the Future of Global Power (McKinsey Global Institute, 2021), 9–14.
[17] Bruno Latour, Reassembling the Social: An Introduction to Actor-Network-Theory (Oxford: Oxford University Press, 2005), 63–70.
[18] Shalini Satkunanandan, “Algorithmic Rationality and the Politics of Automation,” Political Theory 49, no. 2 (2021): 145–167.