Insight Image

الذكاء الاصطناعي.. بين التكتيكات الإرهابية والاستراتيجيات الوطنية

01 مارس 2022

الذكاء الاصطناعي.. بين التكتيكات الإرهابية والاستراتيجيات الوطنية

01 مارس 2022

تمهيد

لا يزال الإرهاب يمثل قضية بحثية مستجدة حول تعريفه وأفضل السبل لمكافحته والمؤثرات التي تزيد من انتشاره، خاصة مع تزايد استخدامات وسائل التواصل الاجتماعي، فلا ينطوي الإرهاب على العنف فحسب، بل يشتمل على الرسائل الأيديولوجية والحرب النفسية التي تهدف إلى ضرب معنويات الجمهور وأجهزة الدولة أيضاً.

وقد أدى التزايد الراهن في الأعمال الإرهابية، توازياً مع جهود الدول لمكافحتها، إلى تخصيص حيز مهم في الأخبار لهذه الظاهرة على مدى العقدين الأخيرين. وفي عالم بات يعتمد بشكل متنامٍ على التكنولوجيا، ارتفعت وتيرة التحديات التي تواجهها الدول في مواجهة الإرهاب.

ويجد المتابع لمجريات الأحداث أن جائحة فيروس “كوفيد – 19″، دفعت الإرهابيين إلى تغيير نمط التجنيد، وتحديد أهداف جديدة ومتطورة، وذلك عبر استخدام وسائل جديدة، فيما اتجهت الدول والحكومات من جانبها إلى وضع العديد من الاستراتيجيات والبحث عن وسائل جديدة لمواجهة مثل هذا النوع من التحديات المستحدثة.

ومن ضمن هذه الوسائل الحديثة التي استخدمها الإرهابيون والحكومات على حد سواء، كانت تقنيات الذكاء الاصطناعي، فقد طورت الجماعات والتنظيمات الإرهابية قدراتها التكنولوجية بما سمح لها باستخدام بيانات ضخمة وتحليلها على الإنترنت بغرض تسهيل عملياتها الإرهابية، ما حدا بالحكومات إلى محاولة إيقاف هذا الطوفان التكنولوجي الذي هدد كيان الدولة ذاته من خلال استراتيجيات قطرية حيناً وتعاونية بين الدول أحياناً أخرى.

وبين تكتيكات الإرهابيين واستراتيجيات الدول ستكون هذه الورقة التي نحاول من خلالها الولوج إلى قضية الذكاء الاصطناعي وكيفية توظيفه من جانب الطرفين، حيث سنتعرض لتلك القضية من خلال معرفة المقصود بالذكاء الاصطناعي، وأهم المفاهيم المرتبطه به وأنواعه وتطوراته، والاستخدامات الإرهابية للفضاء السيبراني والذكاء الاصطناعي، وأبرز الاستراتيجيات الحكومية في مجال استخدام الذكاء الاصطناعي في مواجهة الإرهاب والأهداف التي حققتها من وراء هذه الاستراتيجيات، بالإضافة إلى التحديات التي واجهتها الدول وما زالت تواجهها في استخدامات الذكاء الاصطناعي، وأخيراً نقدم مجموعة من التوصيات للدول والحكومات من أجل تفعيل سياستها في مجال مكافحة الإرهاب باستخدام الذكاء الاصطناعي.

أولاً : تعريف الذكاء الاصطناعي:

الذكاء الاصطناعي مصطلح شائع، لكن ليس له تعريف مشترك حول العالم، فهو يشير إلى المجال الذي يُعنى بدراسة الأنظمة التكنولوجية، ويقوم بالمهام المطلوبة من دون توجيه مستمر، ويستطيع تحسين الأداء بالتعلم من التجارب السابقة[1]. وقد أُطلق لأول مرة في مؤتمـر عُقد فـي دارتمـوث كوليـدج بمدينة هانوفـر في ولاية نيوهامبشـر الأمريكية فـي عـام 1956. وحقـق نجاحاً أوليـاً دفـع الباحثيـن إلى التفـاؤل بأن اسـتخدام الخوارزميـات القائمـة علـى الكمبيوتـر سـوف يحقـق تقدماً سـريعاً، ونجحوا في هذه المراحل المبكرة في كتابة كود “برمجيات” لحل المشكلات، وتضمنت البرامج عناصر معينة لتحسين الأداء في التعلم.

ودخل الذكاء الاصطناعي مرحلة ركود لضعف قدرات الذاكرة والمعالجات، وتوقف الاستثمار في أبحاثه وتراجع الاهتمام بها في سـتينيات القرن الماضي، إلا أنه سرعان ما عاد الاهتمام به مرة أخرى بفضـل التطورات التقنية في القرن الحادي والعشرين التي قادها تحديداً القطاع الخاص، حيث ازدهر هذا المجال مع تزايد البرامج وحلول التخزين الشـاملة الرخيصة، وتعدد الخبراء المتخصصين، وأصبح الوصول إلى البيانات أسهل[2].

وقد اعتُبر الذكاء الاصطناعي بمنزلة نوع جديد من التفكير الآلي يعتمد على إعمال العقل الإلكتروني وتفعيل آلياته بما يحاكي العقل البشري في تحديد الأهداف وترتيب الأولويات ووضع البدائل واتخاذ القرارات وذلك بواسطة الحواسيب الآلية وليس البشر، وتوجد ثلاثة مستويات من الذكاء الاصطناعي هي:

الذكاء المحدود: ويعني برمجة الحاسب الآلي على مهمة مخططة مسبقاً في نطاق محدد فلا يملك الحاسب تجاوزها حيث يفقد القدرة على التفكير والتصرف خارج هذه المهمة، وهذا النمط المبسط هو الذي تعتمده النماذج التقليدية من الحواسيب الآلية في مختلف وظائفها مثل إجراء العمليات الحسابية وإعداد قواعد البيانات وغيرهما من الاستخدامات المبرمجة مسبقاً ومحدودة البدائل ولا يمكن للحاسب الخروج عن تلك البدائل أو الأوامر المبرمجة عليه.

الذكاء العام: وجوهره بناء الخبرات والمعرفة عبر المرور بمواقف مختلفة وبالتالي يمكن للحاسب أو للجهاز المبرمج بهذه الطريقة اتخاذ قرارات مستقلة ومتكيفة مع المواقف الجديدة وذلك بشكل ذاتي دون تدخل بشري ومن الأمثلة الشهيرة على هذا النمط، السيارات ذاتية القيادة وأجهزة الرد الآلي والمساعدة الإلكترونية.

الذكاء المفتوح: وهو المستقبل المتوقع للذكاء الاصطناعي حيث يمكن للحواسيب أو بالأحرى الروبوتات التعامل بشكل يحاكي إلى حدٍّ بعيد التعامل البشري في مواقف مختلفة ومتغيرة، كما يمتد نطاق هذا النوع المتقدم من الذكاء إلى الجوانب المعنوية وما يعتري الإنسان من مشاعر وانفعالات وفقاً للموقف وذلك في اتجاهين، الأول، هو استخدام الذكاء الاصطناعي في برمجة وتخصيص رسائل وحملات توجيه مدروسة بدقة، للتأثير في مدركات وقناعات الأفراد والمجموعات البشرية، والثاني هو اللجوء إلى البرمجيات في رصد وفرز البيانات وتحليل المعلومات واستخلاص دلالاتها لتتبع السلوك البشري والاتجاهات المحتملة فيه والتنبؤ به وتوقع أحداث معينة أو التعرف على القائمين بها وكل ذلك وفقاً لنماذج رياضية تتوالى الحواسيب معالجة البيانات من خلالها[3].

وقد مكّن هذا الأمر وسائل الذكاء الاصطناعي من لعب دور إيجابي مهم من خلال توفير قدر كبير من الوقت والجهد في إجراءات البحث والتتبع أخذاً في الاعتبار ضخامة حجم المعلومات التي تتم معالجتها ومدى التعقيد والتشابك والتشابه فيها بينها[4].

ومن التطبيقات المهمة في هذا السياق تطبيق برمجيات الذكاء الاصطناعي على أجهزة التصوير والمراقبة وعلى قواعد البيانات المصورة للأفراد حيث صارت تقنية التعرف على الوجه باستخدام الذكاء الاصطناعي أداة أساسية في تحديد هوية مرتكبي أعمال العنف والحوادث الإرهابية، وقد استُخدم الذكاء الاصطناعي ونجح بالفعل في تقليص احتمالات الخطأ في مراحل البحث والتحري وتحييد المتورطين وكذلك في مراحل الملاحقة والسعي لإنفاذ القانون حيث يتم تضييق دوائر الاشتباه وتسهيل عمليات الحصر والفرز للمعلومات والأشخاص والمعطيات كلها ذات الصلة. كل ذلك ساعد في رفع مستوى الدقة والكفاءة في الجانب الأمني المباشر لمواجهة الإرهاب[5]، كما وفر مناخاً من الثقة بأجهزة الأمن، وخلق طمأنينة لدى الرأي العام تجاه المؤسسات والآليات المنخرطة في تلك المواجهة وذلك بفضل الأدوار التي لعبها في العمليات التالية:

  • التنبؤ : يساعد الذكاء الاصطناعي بهذا الدور في معرفة وتحديد نوعية الأشخاص القابلين للتأثر بأفكار متطرفة أي المستهدفين المحتملين سواء للجماعات المتطرفة فكرياً أو التنظيمات الإرهابية الحركية وبالتالي يمكن حصر أفراد معينين يمكن تصنيفهم كمتطرفين إرهابيين محتملين[6]. كما تم تطوير نماذج تتنبأ بموقع الهجمات الإرهابية وتوقيتها. ففي عام 2015 على سبيل المثال ادّعت شركة تكنولوجية ناشئة (PredictifyMe) أن نموذجها، الذي يحتوي على أكثر من 170 نقطة بيانات، كان قادراً على التنبؤ بالهجمات الانتحارية بدقة 72%. كذلك اعتمدت بعض النماذج الأخرى على بيانات المصادر المفتوحة للأفراد الذين يستخدمون الوسائط الاجتماعية والتطبيقات على هواتفهم المحمولة، ومن بينها نظام التعرف على الأحداث في وقت مبكر (EMBERS)، الذي يدمج نتائج مختلف النماذج التنبؤية المنفصلة من أجل التنبؤ بأحداث مثل تفشي الأمراض وأحداث الاضطرابات المدنية. ومن التجارب الملهمة في هذا المجال كانت في عام 2013؛ فقد تم تطبيق نماذج التنبؤ السلوكية لجماعة “عسكر طيبة”، التي كانت مسؤولة عن العديد من الهجمات في باكستان والهند، ووصلت إلى شهرة عالمية مع هجمات بومباي في عام 2008. فبناء على المعلومات المتوافرة وتاريخ هذه الجماعة والحقائق الأخرى عنها، طبق الباحثون قواعد تسمى “الاحتمالية الزمنية ” وكان أساس البحث هو النماذج السلوكية، وقد نتج عن البحث بعد ذلك توصيات عدة سياسية للحد من هجمات تلك الجماعة[7].
  • التعرف على الإرهابيين: تُشير بعض التفاصيل المسرّبة عن برنامج لوكالة الأمن القومي الأمريكية (SKYNET) إلى أنه تم استخدام خوارزمية معتمدة على الذكاء الاصطناعي لتحليل البيانات الوصفية من 55 مليون مستخدم محلي للهاتف المحمول الباكستاني في عام 2007، وكانت النتيجة أنه تم تعريف نسبة خطأ 0.008% فقط من الحالات على أنهم إرهابيون محتملون، أي إن هناك نحو 15 ألف فرد من إجمالي سكان باكستان البالغ 200 مليون، حينذاك، من الممكن أن يكونوا إرهابيين محتملين. وبرغم أن النموذج المستخدم لم يكن فعالاً بحد ذاته، لكنه يوضح القيمة التنبؤية للبيانات عند تحديد روابط وثيقة مع الإرهاب[8].
  • الهشاشة والقابلية للتطرف: طوَّرت بعض شركات التكنولوجيا أدوات لتقييم قابلية التعرض للأيديولوجيات المتطرفة العنيفة؛ مثل شركة (Jigsaw) التابعة لشركة (Alphabet Inc) “المعروفة سابقاً باسم Google Ideas” التي أعلنت مشروعها باسم “إعادة التوجيه”، الذي يستهدف مستخدمي مواقع مشاركة الفيديو الذين قد يكونون عُرضة للدعاية من الجماعات الإرهابية مثل تنظيم “داعش”، إذ يُعيد المشروع توجيههم إلى مقاطع الفيديو التي تتبنّى رواية موثوق بها ومضادة لرواية التنظيم[9].
  • التحصين: تطوير مساهمة الذكاء الاصطناعي في هذا الاتجاه باستحداث برامج موجهة تقوم بإعادة توجيه أولئك المستهدفين المحتملين إلى مصادر تأثير ومحتوى معلوماتي معين يعمل على ترشيد الأفكار وتقليل احتمالات انتقال الأفراد إلى مصاف الإرهابيين.
  • الملاحقة: تسهم تطبيقات الذكاء الاصطناعي في تحديد الجماعة أو الطرف أو الشخص المتورط في العمل الإرهابي سواء بالتنفيذ أو التخطيط وذلك بتحليل المعطيات الخاصة بالعمليات محل التحري، مثل: نوع العملية، والمكان، ونوع السلاح، والهدف، ومطابقة المعلومات مع التاريخ السابق للجماعات أو الأفراد المشتبه بهم، وذلك باستخدام معايير محددة للتصفية والترتيب وتوجد نماذج محددة حققت نسب دقة عالية تجاوزت 80% [10].

وإزاء تلك المتغيرات فإنه من الأهمية أن نستكشف التطورات المتعلقة بظواهر الإرهاب من خلال استقراء توظيف الإرهابيين للفضاء السيبراني في تنفيذ الجرائم الإرهابية، في مقابل توظيف الحكومات للذكاء الاصطناعي في مكافحة الإرهاب.

ثانياً : الاستخدام الإرهابي  للفضاء السيبراني والذكاء الاصطناعي

مع بزوغ الثورة الرقمية اعتمدت الجماعات الإرهابية أساليب جديدة لخلق الفوضى على الساحة الدولية، إذ ينطوي عملياً كل هجوم إرهابي على استخدام نوع تكنولوجي جديد، سواء بصورة سطحية أو جوهرية. وقد استفادت الجماعات الإرهابية من عصر التقدم التكنولوجي لشن هجمات سيبرانية مركزة، وكسب مصادر تمويل جديدة، واختراق النظم وقواعد البيانات الآمنة[11].

وقد مكنت وسائل التواصل الاجتماعي الجديدة، مثل المدونات والمنتديات وتطبيقات الاتصال، المنظمات الإرهابية من تبادل المحتوى والتواصل بجماهير عالمية، والتأثير في مجموعات مختارة من الناس يتبنّون الأفكار نفسها، وإعطاء القضايا المحلية بُعداً عالمياً، وخلق إرهابيين افتراضيين.

كما سمحت وسائل التواصل الاجتماعي للمنظمات الإرهابية بتجاوز الضوابط التحريرية التي تعتمدها وسائل الإعلام التقليدية، ومن ثَمّ استطاعت هذه المنظمات أن تنشر رسائلها وتعظم صداها. وقد عززت وسائل التواصل الاجتماعي قدرات الإرهابيين في مجالات عديدة، بما في ذلك التجنيد والتدريب ونشر الدعاية[12]. يضاف إلى ذلك أن طبيعة وسائل التواصل الجديدة وإمكانية تواصل أعداد غفيرة من الناس بواسطتها تجعل من الصعب مراقبة أي منصة منها، ومكافحة التهديدات والمؤامرات الإرهابية التي تحاك من الشبكة[13].

ففي مقال نشرته مجلة “ديفينس وان/ DEFENSE ONE” لأستاذ العلوم الأمنية في جامعة جورج تاون دافيد غارتيستين روس Daveed Gartenstein-Ross، بعنوان “الإرهابيون سيستخدمون الذكاء الاصطناعي” (Terrorists Are Going to Use Artificial Intelligence) أشار إلى أن المجموعات الإرهابية ستستغل الذكاء الاصطناعي، وخاصة مع ازدياد إمكانية وصول الأفراد إلى تكنولوجيا التعلّم الذاتي، واستخدام آليات التشفير الحديثة، مشيراً إلى أن المحللين في السابق قد أخطؤوا في تقدير قدرة عناصر الميليشيات على استخدام تكنولوجيا الطائرات المسيَّرة. فقد اعتقدوا أن سلاح الطيران سيكون قادراً على إسقاطها من السماء، ولكن المنظمات الإرهابية كانت ذكية بما يكفي، فعملت على تكييف طائرات مسيرة صغيرة جداً، تتناسب مع أغراضها الهجومية، دون إمكانية الكشف عنها من قِبل الرادارات.

 ففي عام 2017، أرسل تنظيم “الدولة الإسلامية – داعش” طائرات مسيرة صغيرة ومرنة جداً، ومسلحة بقنابل يدوية، فتمكنت من مناوشة القوات العراقية في أكثر من مكان. وعلى غرار الطائرات المسيرة، فمن المرجح أن تصبح تكنولوجيا الذكاء الاصطناعي متاحة على نطاق واسع في الأسواق التجارية وبتكلفة منخفضة، وربما يبدأ الإرهابيون بتخطيط شبكات اجتماعية ورسم خرائط مفصلة عبر مواقع التواصل الاجتماعي. كما تشير التقديرات إلى أن التنظيمات المسلحة ستبني جيلاً جديداً من الطائرات المعتمدة على الذكاء الاصطناعي، لتصبح أكثر فتكاً وقوة، وربما يصل الأمر بهم إلى استخدام سيارات ذاتية القيادة لإرسالها في عمليات الاغتيالات بعد تفخيخها[14].

وفي هذا الصدد يشير المؤلف الأمريكي “ماكس تيغمارك” في كتابه الأخير، Life 3.0 حول العلوم الحاسوبية الحديثة، إلى أن التوجه نحو إنتاج طائرات الذكاء الاصطناعي القاتلة، بشكل واسع، سيؤدي إلى خفض أسعارها لتصبح مثل أسعار الهواتف الذكية. لافتاً بأن هذه التكنولوجيا القاتلة قادرة على حمل صور المستهدفين وعناوينهم، ويمكنها الطيران دون تدخل بشري نحو الوجهة المطلوبة، وأن تحدد الأشخاص المطلوبين، وأن تقضي عليهم دون ملاحظة الآخرين، كما يمكن لهذه التكنولوجيا أن تدمر نفسها ذاتياً، لضمان عدم انكشاف هوية من يقف وراءها[15].

 ويعتبر تنظيم “داعش” من أكثر الجماعات التي تضم عناصر أوروبية وأمريكية لديها خبرة في عالم الفضاءات الرقمية، الأمر الذي مكّنها من تنظيم العديد من الهجمات الإرهابية باستخدام التكنولوجيا؛ ففي تونس على سبيل المثال استطاعوا رسم صور عبر الكمبيوتر للتضاريس الجغرافية لبلدة بنقردان التي تقع جنوب شرق تونس، وقاموا بعمل محاكاة للواقع قبل شن هجماتهم، سواء للانتقام من رجال الشرطة، أو لتنفيذ عمليات إرهابية جديدة؛ ما يعني أن الذكاء الاصطناعي يخفف الآن على الجماعات المسلحة الإرهابية عبء الحصول على المعلومات الاستخباراتية، ويُعَبِّد الطريق أمام عملياتهم[16].

 وقد نشرت صحيفة “الواشنطن بوست” تقريراً في أكتوبر 2019 بعد أنباء عن مقتل زعيم حركة داعش “أبو بكر البغدادي” قبل الإعلان عن موته رسمياً عن مآلات داعش أفادت فيه بأن البغدادي لم يمت، بل يعمل على إعداد طبعة جديدة من التنظيم، تقوم على التجنيد عن بُعد من خلال استخدام الوسائط الاجتماعية الحديثة لمواصلة القتال وخدمة مشروع خلافته المزعومة حول العالم بأدوات تكنولوجية وبتواصل معلوماتي متميّز. ويذكر التقرير أن البغدادي كان مدرّساً جامعياً قبل أن يصبح إرهابياً، وأنه في وقت مبكر قرر إعطاء الأولوية لتجنيد الأطفال والشباب داخل العراق أو سوريا وخارجهما عبر الإنترنت. وأن البغدادي مقتنع بأنه حتى إذا اختفى تنظيمه الحالي، فإن فكرته ستستمر ما دامت قد استطاعت التأثير في الجيل القادم من خلال التعليم.[17]

 وإذا كان أتباع تنظيم “داعش” قد حازوا الريادة في توظيف تطبيقات الذكاء الاصطناعي في الأعمال الإرهابية، فإن جماعة الحوثيين في اليمن قد استخدموا الطائرات المسيرة، كجزء من استراتيجيتهم للتأثير في أي مفاوضات سلام مستقبلية، كما يحدث حالياً من خلال هجماتهم على كلٍّ من المملكة العربية السعودية ودولة الإمارات العربية المتحدة[18].

وبحسب تقرير صادر عن “مركز الدراسات الاستراتيجية والدولية”، فإن الطائرات المسيَّرة التي يملكها الحوثيون يتم تهريب مكونات تصنيعها عبر الموانئ البحرية الصغيرة على طول البحر الأحمر وبحر العرب وخليج عدن[19]. وهو ما أكده تقرير الأمم المتحدة في عام 2019 أيضاً بأن الحوثيين يملكون إمكانية الوصول إلى المكونات الأساسية؛ مثل المحركات، وأنظمة التوجيه، من الخارج[20].

كما لم تكن العملات المشفرة هي الأخرى بعيدة عن الفعل الإرهابي؛ فهي تشكل أساساً لأصول رقمية للتبادل وتعتمد على تكنولوجيا دفاتر الحسابات الرقمية الموزعة من أجل تأمين المعاملات المالية؛ بما يسمح بتعميمها وجعل تعقُّبها أمراً صعباً، وهذا ما يزيد من جاذبية استخدامها من قبل الجماعات الإرهابية. والمستغلون الأساسيون للعملة المشفرة هم في الواقع الجماعات الإجرامية المنظمة وليس الإرهابيون الفرادى؛ لأن استخدامها معقد فعلياً. ومع ذلك، فإن جمعية الصدقة السنغافورية المرتبطة بتنظيم القاعدة تسعى للحصول على تمويل بالبيتكوين، في حين أن داعش استخدمت في سوريا خلال عامي 2014 – 2015 العملة المشفرة في المعاملات الصغيرة[21].

وهكذا كانت تكتيكات الإرهابيين في استخدام الذكاء الاصطناعي الذي بدأ بوسائل التواصل الاجتماعي وانتهى بطائرات مسيرة هددت العديد من المناطق في العالم ولا نعلم حتى الآن هل تلك التكتيكات هي البداية لبلورة استراتيجيات إرهابية واسعة النطاق تشكل تهديداً للأمن العالمي كله أم إنها لن تزيد على كونها كذلك؟

ثالثاً: استراتيجيات الدول في مواجهة أعمال الإرهاب

الإرهاب بطبيعته فعل اتصالي يرمي إلى نشر أيديولوجيته والتأثير في عمل الحكومات وزرع الخوف في نفوس السكان وزيادة عدد أتباعه، ودائماً ما تستخدم المنظمات الإرهابية في خطاباتها لغة استفزازية؛ لأنها تدرك أن بقاءها يرتبط بتلك الخطابات وترويجها على نطاق واسع، اعتماداً على أداوت اتصال متقدمة؛ لذلك يجب أن تشتمل استراتيجية الاتصال الفعالة لمكافحة الإرهاب على مهارات تقنية قادرة على منع الإرهابيين من استخدام وسائط التواصل[22]، وقد طورت بعض الدول استراتيجيتها في ذلك للحد من قدرة هؤلاء الإرهابيين على القيام بأعمال إرهابية. وفيما يلي نعرض أهم النماذج العالمية التي استطاعت أن تقوم بذلك أو على الأقل وضعت قدمها على بداية طريق استخدام الذكاء الاصطناعي لمواجهة الجماعات الإرهابية.

كندا

طورت الحكومة الكندية استراتيجية قوية لمكافحة الإرهاب، وتمثلت جهودها ومبادراتها لمكافحته عبر الإنترنت في جانب واحد من سياسة أعم وأشمل لمكافحة التطرف العنيف عموماً. وكغيرها من الحكومات كانت استثماراتها واهتماماتها بمكافحة الإرهاب عبر الإنترنت نتيجة لوقوع ضرر فعلي تمثل في بعض العمليات الإرهابية التي وقعت على الساحة الكندية[23] .

وتتعامل كندا مع الإرهاب عبر الإنترنت في استراتيجيتها الوطنية لمكافحة راديكالية العنف بطريقة ثلاثية الأبعاد وهي:

  • صياغة رسائل مضادة وذلك بالتعاون مع منظمات المجتمع المدني ودعم أبحاث مكافحة الإرهاب.
  • المشاركة في المبادرات الدولية وتعزيز شراكتها مع شركات التكنولوجيا.
  • الاستثمار في تطوير العلاقة بين الذكاء الاصطناعي ومكافحة الإرهاب.

بالإضافة إلى ذلك فإن كندا في عام 2019 كلفت مبادرة Tech Against Terrorism الدولية التي ترعاها الأمم المتحدة وتعمل مع صناعة التكنولوجيا العالمية، بتطوير منصة تحليلات المحتوى الإرهابي وذلك من خلال قاعدة بيانات محملة بمواد ومحتوى إرهابي تم التحقق من مصدره من مجموعات بيانات ومصادر مفتوحة. والمأمول أن تعمل المنصة كخدمة تنبيه فوري للمحتوى الإرهابي وخطابات التطرف العنيف على منصات الإنترنت الصغيرة، وسيتم تبادل المحتوى الضار المؤكد على هذه المنصات بسرعة مع فرقها القائمة بإدارة المحتوى والتصرف بناء عليه، وسوف تعمل المنصة أيضاً على المديين المتوسط والبعيد كأرشيف تاريخي للتحليل الأكاديمي الكمي والنوعي المحسن[24].

كما تعمل منصة تحليلات المحتوى الإرهابي  المعلنة في فضاء الذكاء الاصطناعي على وجه التحديد في دعم نظام إيكولوجي (العلاقة بين البيانات والمعلومات) لتصنيفات محتوى البيانات التي تحتاج إلى كميات هائلة من البيانات لطرح تنبؤات مفيدة عن المستقبل، بالإضافة إلى تحليل البيانات الضخمة لتدريب الذكاء الاصطناعي لفهم حقيقة البيانات وتعلم التعرف على عناصر فيديوهات تنظيم داهش الدعائية ( الشعارات والرايات وما إلى ذلك ) لتحديد مقاطع الفيديو المقبلة وتمييزها بالعناصر ذاتها أو ما يماثلها وتعد منصة تحليلات المحتوى الإرهابي ( (TCAP أول منصة موحدة للمحتوى الإرهابي عبر الإنترنت وهي بمنزلة منجم ذهب حقيقي لأنها تزخر ببيانات ومعلومات يحتاجها المطورون في تصميم خوارزميات التعلم الآلي للتعرف على المواد الإرهابية وتصنيفها[25] .

وقد تمثل منصة تحليلات المحتوى الإرهابي قفزة واسعة بتقنية كبيرة إلى الأمام في مكافحة الإرهاب عبر الإنترنت لأنها   تزخر بمحتوى إرهابي مؤكد مما يعد أرشيفاً تاريخياً في مختلف منصات الإنترنت وقد أوضحت الحكومة الكندية بصفتها راعية مشاركة للمنصة مدى قدرة الاستثمارات الموجهة والذكية في المبادرات عبر القطاعات على توفير فرص للتعاون بين الأوساط الأكاديمية والصناعية والمجتمع المدني في دفع الذكاء الاصطناعي قُدُماً في سياق مكافحة التطرف العنيف.

المفوضية الأوروبية

تريد المفوضية الأوروبية اتباع نهج مزدوج لاستخدام الذكاء الاصطناعي عن طريق بناء إطار تنظيمي سليم للمساعدة في حماية المواطنين الأوروبيين وكذلك إنشاء سوق داخلي لتطوير الذكاء الاصطناعي بالإضافة إلى زيادة الاستثمار في الذكاء الاصطناعي إلى ما لا يقل عن 20 مليار يورو سنوياً بحلول عام 2030. وقد عينت المفوضية الأوروبية فريق خبراء رفيع المستوى للذكاء الاصطناعي (AL HLEG) في عام 2019 ووضع هذا الفريق سبعة معايير لضمان موثوقية الذكاء الاصطناعي وهذه المبادئ السبعة هي الرقابة والوكالة البشرية، والسلامة والمتانة التقنية، والخصوصية وحوكمة البيانات، والشفافية، والتنوع وعدم التمييز والإنصاف، والرفاه المجتمعي والبيئي، والمساءلة. وبناءً على هذا يدعو كتاب المفوضية الأبيض إلى نظام إيكلوجي (علاقة بين البيانات والمعلومات) من الثقة يضمن حماية الحقوق الأساسية.

وقد تباينت شركات التكنولوجيا الكبرى في استجابتها للكتاب الأبيض المعني بالذكاء الاصطناعي ودعت جوجل الاتحاد الأوروبي إلى استخدام النظم والأطر التنظيمية الحالية بدلاً من بناء أطر تنظيمية جديدة على شركات التكنولوجيا الالتزام بها وبالتوازي سوف يحتاح جوجل وفيسبوك وغيرهما من المنصات التكنولوجية إلى الاستعداد لقانون الخدمات الرقمية الذي يسعى إلى تنظيم النظام الإيكلوجي (العلاقة بين البيانات والمعلومات) على الإنترنت عبر مجموعة من المجالات منها المحتوى السيء ومن المتوقع أن يتبع الاتحاد الأوروبي كتابه الأبيض للذكاء الاصطناعي بتشريعات تتعلق بالذكاء الاصطناعي والسلامة والمسؤولية والحقوق الأساسية والبيانات أيضاً في وقت لاحق[26].

فرنسا

هناك عدد من أصحاب المصلحة الرئيسيين الذين يقع الذكاء الاصطناعي في دائرة اختصاصاتهم وقد كُلف المنسق الوزاري للذكاء الاصطناعي بتحليل ووضع مقترحات للتغيرات المتعلقة بالابتكار الرقمي المطبق على المجال الأمني، كما توجد في وزارة الدفاع وحدة لتنسيق الذكاء الاصطناعي الدفاعي ضمن وكالة الابتكار الدفاعي، وتعمل فرنسا على تكييف إطارها القانوني للسماح باستخدام آمن وفعال للتقنيات التي تدعم الذكاء الاصطناعي لحماية سكان فرنسا، وفيما يتعلق بالتطورات السياسية نشرت فرنسا استراتيجيتها للذكاء الاصطناعي في مارس 2018 ومن أهدافها الرئيسية تحسين النظام الإيكلوجي (العلاقة بين البيانات والمعلومات) لتعليم الذكاء الاصطناعي والتدريب عليه لتطوير أفضل مواهب الذكاء الاصطناعي وجذبها، وإنشاء سياسة البيانات المفتوحة لتنفيذ تطبيقات الذكاء الاصطناعي وتجميع الأصول معاً ووضع إطار أخلاقي لاستخدام تطبيقات الذكاء الاصطناعي بشفافية وعدل[27].

نيوزيلندا

في أعقاب إطلاق النار على المصلين في مدينة في مسجد كرايستشيرش في مارس 2019 كوّنت حكومة نيوزيلندا وفرنسا تحالفاً من رؤساء الدول مع شركات التواصل الاجتماعي والتكنولوجي في إطار دعوة مدينة كرايستشيرش للقضاء على المحتوى الإرهابي  والعنف والمحتوى المتطرف عبر الإنترنت وتلزم هذه الدعوة الدول الداعمة لها بإنفاذ القوانين التي تحظر نشر المحتوى الإرهابي والمتطرف العنيف عبر الإنترنت مع احترام القانون الدولي لحقوق الإنسان بما في ذلك حرية التعبير وتعمل هذه البلدان أيضاً على دعم الأطر وأنشطة بناء القدرات وتعزيز الوعي لمنع استغلال الخدمات عبر الإنترنت لنشر المحتوى الإرهابي. كما تلزم دعوة مدينة كرايستشيرش الشركات ومنها أمازون وفيسبوك وجوجل وتويتر بمعايير الصناعة الأكبر التي تعزز المساءلة والشفافية ويجب على الشركات فرض معايير المجتمع وشروط الخدمة بإيلاء الأولوية لعمليات إدارة المحتوى وإزالته والتعرف على المحتوى لحظة بلحظة لمراجعته وتقييمه، كما أنه وبعد هجوم مارس 2019 تم إنشاء مفوضية تحقيق ملكية (ROYAL commission of inquiry) لتقييم استجابة الوكالات لحادث إطلاق النار وتحديد التدابير الأخرى التي يمكن اتخاذها لمنع الهجمات في المستقبل. وتلتزم حكومة نيوزيلندا بمعايير صارمة للشفافية والمساءلة في استخدام بيانات الحوكمة كما ورد في آليات الذكاء الاصطناعي لمكافحة الإرهاب. وفي يوليو 2020 نشرت الحكومة ميثاق الخوارزمية لأوتاوا ونيوزيلندا، وذلك بعد مراجعة شاملة لاستخدام الدولة للبيانات في قطاعات تتراوح من النقل إلى العدالة التي دعت من خلاله إلى الالتزام بمزيد من الشفافية ومشاركة أصحاب المصلحة وضمانات للخصوصية والإشراف البشري على استخدام البيانات[28].

المملكة المتحدة

في فبراير 2018 أعلنت المملكة المتحدة تطوير أداة بيانية قائمة على التعلم الآلي لكشف محتوى داعش الإرهابي عبر الإنترنت وتم تدريب البرنامج على تحديد العناصر السمعية والبصرية التي يمكن التعرف عليها في المحتوى الدعائي لتنظيم داعش والإشارة إليه (الرايات والشعارات والأعمال التنسيقية والهياكل والموسيقى التصويرية). وقد قامت وزارة الداخلية بتكليف تلك الأداة البيانية بالتعرف على أشد فيديوهات داعش جرأة وترويعاً وأوضحت شركة تطوير البرمجيات التي صممت الأداة أن الأمر لا يتعلق بالحجم بقدر ما يتعلق بمدة تأثيرها حسب اعتقادهم في معالجة مجموعات معينة من مقاطع الفيديو[29].

الولايات المتحدة

تحدد استراتيجية الولايات المتحدة لمكافحة الإرهاب على الإنترنت مجالاً ذا أولوية حيث تلتزم بالعمل مع قطاع الأعمال والصناعة لمكافحة عمليات تجنيد الإرهابيين وجمع الأموال والخطابات الراديكالية عبر الإنترنت وذلك فيما يتعلق بالمبادرات عبر الوطنية، وتعمل الولايات المتحدة مع مبادرات مثل Tech Against Terrorism أو التكنولوجيا في مواجهة الإرهاب والمنتدى العالمي لمكافحة الإرهاب الذي يعتمد على الشراكة مع الموقعين الآخرين والمجتمع المدني وقطاع التكنولوجيا لصياغة نهج لمكافحة التطرف العنيف والإرهاب عبر الإنترنت على المديين المتوسط والبعيد .

وقد أعلن مكتب التحقيقات الفيدرالي عن مناقصة للقطاع الخاص لتطوير تكنولوجيا تمكّن المكتب من الوصول شبه الفوري إلى مجموعة كاملة من عمليات تبادل المعلومات عبر وسائل التواصل الاجتماعي وذلك لكشف التحقيق وتعطيله في مجموعة كبيرة ومتنوعة من التهديدات المتزايدة للمصالح القومية الأمريكية وطرحت مناقصة مماثلة في يناير 2020، وفي يونيو 2020 حينما اجتاحت احتجاجات BlacklivesMatter جميع أنحاء البلاد، مدد مكتب التحقيقات الفيدرالي عقود مع شركة Dataminr وهي شركة لمراقبة وسائل التواصل الاجتماعي وتحليلها [30].

بالإضافة إلى تلك الاستراتيجيات فقد برزت محاولات أخرى لتوظيف الذكاء الاصطناعي لمكافحة الإرهاب، حيث هناك محاولات بحثية جادة لتوظيف الإنترنت والذكاء الاصطناعي للكشف عن الأفراد الأكثر عرضة لخطر التطرف، ومن ثم تسهيل عملية التدخل والتحقيق المناسبين. وتفيد التحليلات البيانية في التعرّف على أنماط الأفراد الذين يقومون بالبحث عن محتويات ومضامين إرهابية، ومن ثم تسهيل عملية احتواء المراحل الأولى من التطرف بناء على محتوى وسائل التواصل الاجتماعي. ومن أهم الأمثلة على مبادرات الكشف عن المراحل المبكرة من التطرف، إطلاق نظام RED-Alert الممول من الاتحاد الأوروبي (EU)، إذ يقوم على معالجة الأحداث المعقدة لجمع ومعالجة وتصوير وتخزين بيانات الإنترنت المتعلقة بالجماعات الإرهابية، بما في ذلك المراحل الأولى من التطرف بناءً على محتوى وسائل التواصل الاجتماعي[31]. ومن الأمثلة ما أطلقته منظمة العفو الدولية من نظام يسمى Moon Shot وهو نظام يهدف إلى تحديد الأفراد المعرّضين للتطرف عبر الإنترنت. كما أن الذكاء الاصطناعي يساعد في مراقبة التحولات العالمية التي تشكل تربة مثمرة للتطرف عبر الإنترنت أيضاً، وقد موّلت الحكومة الألمانية مشروعاً بحثياً، وهو قيد التنفيذ حالياً، وسمته “نظام الرصد ومنصة التحويل الراديكالية – Motra”[32] .

رابعاً: الفرص التي أتاحها استخدام الذكاء الاصطناعي لمكافحة الإرهاب:

وهكذا فإن استخدام الذكاء الاصطناعي في مجال مكافحة الإرهاب استطاع أن يحقق بعض المميزات التي شكلت نقاط قوة واضحة استطاعت أن تحد من بعض الجرائم الإرهابية وذلك من خلال إيجاد الفرص التالية أو بمعنى أدق النجاحات التي حققتها تلك الاستراتيجيات لمكافحة الإرهاب العنيف تحديداً:

  • أسهمت عملية التحليل الآلي في تقليل انتهاك الخصوصية للمواطنين مقارنةً بالتحليل البشري، كما أنه من الممكن إزالة شرط الاحتفاظ بالبيانات لتحليلها في وقت لاحق والتي ليست لها فائدة استخباراتية، ومن ثم قد يُقلل التحليل الآلي المخاوف بشأن مخالفات الخصوصية، مادامت ضوابط الاستخدام موجودة، وجودة النماذج التنبؤية دقيقة.
  • يتيح استخدام الأساليب الآلية الفرصة لتقييم أداء النماذج بهدف إثبات فعاليتها من الناحية الكمية، ويمكن استخدام مقاييس، مثل: الاستدعاء والدقة، أو عدد الإنذارات الكاذبة، للمساهمة في تقييمات التناسب. ويعد هذا التحقق الكمي شرطاً أساسياً لتحديد مدى فعالية النماذج التنبؤية العملية المستخدمة.
  • العمل من خلال الذكاء الاصطناعي مكّن القائمين عليه من تطوير مصادر منفصلة لجمع المعلومات والتحقق من صحة النتائج، بدلاً من المركزية المعتمدة على نظام واحد يضع الأفراد جميعهم -سواء الإرهابيين أو المعرضين للتطرف – في سلة واحدة، كما مكّن من تطوير النماذج وتطبيقها على مجموعات بيانات خاصة مختلفة أيضاً، واختبار نتائج هذه النماذج ثم دمجها مركزياً في النظام.
  • إصدار مقاييس كمية لأداء النماذج دون تعريض الأمان التشغيلي للخطر، بحيث يمكن إتاحة المعلومات بهدف طمأنة المخاوف، إذ توفر المعايير الكمية مقياساً للشفافية التقنية، كما يمكن أن يؤدي تبادل المعايير الكمية إلى تسهيل الثقة وتهيئة الظروف لتبادل المعلومات بشكل أفضل بين الجهات الفاعلة والوكالات الدولية. بالإضافة إلى ذلك من المهم تعزيز شفافية الإطار القانوني أيضاً الذي يتم من خلال إجراء التحليل التنبؤي لتحسين أداء النماذج، وتحقيق فهم واضح ومتسق لماهية التحليل وسببه[33].
  • قدم الذكاء الاصطناعي فرصاً جديدة لتحليل البيانات الضخمـة والتنبـؤ بالمسـتقبل. ومن أهم الأدوات الواعدة القائمة على الذكاء الاصطناعي محركات البحث وأنظمة التوصية والمعالجة اللغوية الطبيعية NLP، التي توفر إمكانية إدارة المحتوى عبر الإنترنت، خاصة فيما يتعلـق باللغـات التـي تتواصل بها مجموعـات صغيرة من الأشخاص فقـط. والعوائد المالية التي يُفترض أن تحققهـا المنصـات الكبيـرة لتسـتثمر فـي إدارة محتـوى لغـات الأقليات، ولاسيما المشرفين على المحتوى البشري. وهذه العوائد هي ليست كبيرة بما يكفي في الغالب بالنسبة إلى المنصات الصغيرة التي لا تتمتع أحياناً بالخبـرة الفنية أو الموارد اللازمة لأنظمة إدارة المحتوى، بـل يتطلـب اسـتخدام النمـاذج الحاليـة وقتاً وجهـداً كبيريـن. وهنـاك منصـات أخـرى تدعم مـا يعـد تطرفـاً بدعوى إتاحة حريـة التعبيـر، بزعـم أنهـا لا تريـد تقييـد المسـتخدمين. وهنا فقد أتاحت المعالجة اللغويـة الطبيعيـة NLP المحسـَّنة ترجمـة المحتـوى إلى لغـات يجيدها المشرفون. ويمكنها اكتشاف أنماط دلالية غير عادية على المواقع الإلكترونية أيضاً[34].

وعليه، فإن تكنولوجيا الذكاء الاصطناعي مفيدة في دعم المحللين لتحديد نقاط القوة ونقاط الضعف للتطرف على شبكة الإنترنت، لكن ينبغي التأكيد بشدة على أن التكنولوجيا ما زالت بعيدة من أن تكون في موقع يمكنها من خلاله أن تحل محل القوى البشرية المتخصصة في مجال الأمن وذوي الخبرة، ويرجع ذلك للأسباب التالية:

  • البدائية: من أهم التحديات وأبرزها التي تواجه استخدام الذكاء الاصطناعي في مواجهة الإرهاب، أن قطاعاً عريضاً من “مصانع الإرهاب” لا يزال بعيداً عن تلك الأشكال من التقنيات الحديثة، خصوصاً في دول تعاني مشكلات جوهرية اقتصادياً وسياسياً، وبالتالي تتبنَّى أنماطاً بدائية في الحياة ومقومات المعيشة اليومية. بالإضافة إلى عدم تأثر البلدان المصدرة للإرهاب بالأدوات التكنولوجية ووسائل الاتصال الحديثة التي صارت هي الباب الواسع لتشكيل شخصية الإرهابي وتكوينها، إلا أن صعوبات التعاطي مع الطرق البدائية والتقليدية التي يتم من خلالها بلورة الأفكار المتطرفة وغرسها بين أجيال الشباب في تلك المجتمعات أكبر وأشد تعقيداً من تلك التي يمكن مواجهتها في المجتمعات المتقدمة، التي تتسم بالانفتاح على وسائل التواصل والتأثير، ما يمنحها قابلية أعلى للتفاعل والحوار واستقبال آراء وطروحات مخالفة. أضف إلى ذلك أن تكنولوجيـا الـذكاء الاصطناعي تحتـاج إلى كميـات هائلة مـن البيانات لطرح تنبؤات مفيدة عن المستقبل، وهو ما لا يتوافر في الخطابات الراديكالية والإرهابية بالقدر الكافي لإنتاج بيانات كافية لذكاء اصطناعي عام يتنبأ بسلوك الإرهابيين[35].
  • ازدواجية الاستخدام: أصـبـــح الـذكـــاء الاصـطـنـاعـــي أداة محايدة تتحدد تأثيراتها وفقاً لطبيعة استخدامها والطرف المستفيد منه، وبالتالي فهي قابلة للاستخدام السلبي بشكل مكافئ تماماً للاستخدامات الإيجابية، أي إنه مجرد “أداة” يمكن تطويعها وتوظيفها لصالح إنفاذ القانون أو انتهاكه، ولتحقيق الصالح العام أو الإضرار به. وقد انتقلت هذه القابلية من مرحلة التنظير والاحتمالات إلى التجسد الفعلي على أرض الواقع؛ حيث بدأ بالفعل استخدام بعض أشكال وتجليات الذكاء الاصطناعي بواسطة جماعات إرهابية وتنظيمات مسلحة.
  • القابلية للاختراق: تعاني الأنظمة الأمنية والدفاعية القائمة كلها على التكنولوجيا الحديثة والحواسيب الآلية، من إشكالية تقليدية ملازمة للتقنيات الإلكترونية، وهي القابلية للاختراق، فكل المنظومات الإلكترونية التي تعمل على نطاق شبكي أو تتفاعل مع بيئات إلكترونية مناظرة، تحتوي على أبواب تمثِّل مخارج ومداخل للبيانات المتبادلة، وهو ما يعني أنها معرضة دائماً للاختراق من خلال هذه الأبواب، فضلاً عن وجود قابلية دائماً لدس برمجيات خبيثة، سواء للتجسس أو للتخريب، فتقوم بتعديل البرمجيات الأصلية سواء لنسخ البيانات أو التحكم في المخرجات بما يتوافق مع أغراض الطرف المخترِق.
  • سباق تسلح ذكي: مع التقدم التكنولوجي في علوم الحواسيب والإلكترونيات، حظي “الذكاء الاصطناعي” بقدر كبير من الاهتمام وتخصيص الموارد في موازنات القوى الكبرى في العالم. ورغم أن مكافحة الإرهاب والتطرف تعد قضية عالمية، فإن ثمّة اختلافات كثيرة وتباينات واسعة حول الأساليب الفعالة في تلك المواجهة، وثمَّة تفاوتات في مواقف كثير من دول العالم حول تعريف الإرهاب، ومعايير تصنيف الحركات والتنظيمات كإرهابية. ومن شأن تلك الحزمة المعقدة من الاختلافات أن تنعكس على التعاون الدولي والتنسيق بين الحكومات في مواجهة التنظيمات الإرهابية. وهو ما يعني أن التسابق الذي بدأ بالفعل بين القوى الكبرى نحو الاستفادة من تطبيقات الذكاء الاصطناعي وتطوير أدواته، قد لا يكون في صالح مكافحة الإرهاب على طول الخط. خاصة إذا انتقلت تلك التقنيات إلى دول تعد سياساتها الخارجية مثيرة للجدل، ولا تحظى تحركاتها وأدوارها بقبول عالمي وليس أدل على ذلك من امتلاك دول، مثل إيران، بعض تطبيقات الذكاء الاصطناعي، من أبرزها الطائرات المسيرة وأجهزة المحاكاة الإلكترونية التي تستخدمها في أبحاث البرنامج النووي وتجاربه. وهو ما يجعل فرصة استخدام تلك التقنيات في إدارة علاقاتها البينية قائمة بقوة، وبدلاً من أن يكون الذكاء الاصطناعي فتحاً جديداً يلتف حوله العالم كله في الاستخدامات السلمية والآمنة ضد أخطار الإرهاب يتحول إلى أداة صراع ووسيلة إبادة متبادلة بين الأطراف التي تمتلكها، خاصة مع امتلاك الجماعات الإرهابية القدرة على الاستفادة من تطبيقات وأدوات وأسلحة يلعب الذكاء الاصطناعي فيها دوراً جوهرياً في تركيبها وخصائصها ومزاياها.
  • انتهاك معايير حقوق الإنسان: وذلك يرجع إلى التقاطع بين استخدام تطبيقات الذكاء الاصطناعي وغيرها من التقنيات الحديثة لأغراض أمنية، والمقومات الأساسية لحقوق الإنسان والخصوصيات الفردية والجماعية، إضافة إلى ما قد تتعرض له بعض المجتمعات والتجمعات البشرية ذات الطبيعة المحافظة من اختراق يفرضه استخدام تلك الإجراءات والوسائل التقنية[36].

خامساً: التوصيات

إزاء تلك العلاقة المركبة بين تكتيكات الإرهابيين واستراتيجيات الحكومات ينبغي التأكيد على ضرورة البحث المستدام عن تطوير البنى التقنية للذكاء الاصطناعي وفي ذلك يقترح التالي:

  • إنشاء هيئة تنظيمية مستقلة على المستوى الدولي للإشراف على الجهود الوطنية لمكافحة التطرف العنيف عبر الإنترنت باستخدام الذكاء الاصطناعي.
  • وجود تشريعات حكومية تفرض عقوبات على شركات التواصل الاجتماعي التي تخفق في تعديل المحتوى الضار، حيث يمكن أن تكون تلك التشريعات فعالة جداً بشرط ألا تشكل قيداً كبيراً على حق المواطنين في حرية التعبير لأن الخوف من فرض العقوبات قد يؤدي إلى الإفراط في إزالة المحتوى وبالتالي انتهاك حرية الرأي والتعبير باعتبارها حق أصيل من حقوق الإنسان، وكما أوضحنا أعلاه في حالات المملكة المتحدة واليابان والولايات المتحدة فإن جهود إدارة المحتوى وتشريعاتها يمكنها أن تصطدم بقضايا قانونية وأخلاقية تتعلق بالخصوصية والثقة والمساءلة[37].
  • إدراج تدابير مكافحة التحيز الخوارزمي في عمليات تطوير البرمجيات عند التصميم حيث نادراً ما تتضمن سياسات وممارسات إدارة المحتوى وتنظيمه بواسطة المنصات عبر الإنترنت مساءلة الجمهور أو مساهمات من الجمهور، ما يجعل من عملية تطوير تلك الخوارزميات تتم خلف الأبواب المغلقة ومن خلال مطورين لهم تحيزاتهم الأولية الأمر الذي ينعكس على تجارب مليارات المستخدمين عبر الإنترنت، وقد أفضى هذا التحيز إلى مشكلات كبيرة على أرض الواقع. وتستطيع منصات التكنولوجيا مواجهة هذا التحيز إذا استفادت من الخبرات الموجودة في المجتمع المدني والأوساط والأكاديمية واستعانت بها في مرحلة تطوير البرمجيات كما ينبغي أن تجري الشركات عمليات تدقيق شاملة ومنتظمة لاستخدام الخوارزميات وينبغي إتاحة نتائج عمليات التدقيق هذه للجمهور لتعزيز المساءلة والشفافية وثقة الجمهور.
  • قيام أصحاب المصلحة على الصعيدين الوطني والدولي بتمويل مبادرات تتناول مزايا استخدام هذا النوع من التكنولوجيا والتحديات والفرص التي يقدمها الذكاء الاصطناعي بلغة واضحة ومفهومة، حيث ينبغي أن تركز المبادرات الوطنية والدولية على إنتاج توجيهات منتظمة ونشرها عن ماهية الذكاء الاصطناعي فضلاً عن التحديات والفرص التي يقدمها لعالم السياسة وينبغي أن يتولى المجتمع المدني والخبراء الأكاديميون المعنيون تقييم الأضرار الناجمة عن استخدام الذكاء الاصطناعي عبر الإنترنت وعلى أرض الواقع في سياقات معينة عبر إنتاج كتيبات تفاعلية حول التهديدات الناشئة والمستقبلية من نشر المحتوى الإرهابي[38].
  • وضع معايير واضحة لتطبيق التقنيات القائمة على الذكاء الاصطناعي على المدى البعيد، وأن تحمي هذه المعايير المستخدمين من افتقار أدوات صنع القرار إلى العـدل والإنصاف، مـن خلال مجموعـات البيانـات المتحيـزة أو المعالجـة التمييزية للمحتوى على أساس النوع أو الجنس أو الدين أو أي خصائص أخرى يكفل حمايتهـا قانـونُ حقـوق الإنسان. كما يجـب أن تُعـرَض نتائـج الخوارزميـات بشـفافية تسـمح بالمسـاءلة عـن القـرارات المبنيـة علـى حسـابات خوارزميـة، وأن تسـلك التكنولوجيـا طريـق المسـتقبل بتطويـر ذكاء اصطناعـي يحتـرم حقـوق الخصوصية، ويخلـو من التمييز[39].

وهكذا فإنه ورغم التقدم الهائل الذي حققته البشرية من استخدامات الذكاء الاصطناعي، فإن هذا النجاح قد قابلته مخاطر عدة تمثلت في تسرب تلك الإنجازات للتنظيمات الإرهابية ما شكل تهديداً حقيقياً لكيان الدولة واستقرارها، ورغم تلك المبادرات الخلاقة التي تبنّتها الدول أحياناً أو أشرفت على جهود الشركات متعددة الجنسيات ومنظمات المجتمع المدني ورغم كون استخدامات الإرهابيين لهذا النوع من التكنولوجيا يفتقد وجود رؤية استراتيجية واضحة واقتصاره على أفعال وسلوكيات لا ترقى لمستوى التأثير الواسع الانتشار، فيبقى المستقبل وآلية تعامل الدولة معه هو المحدد الفعلي إما لنجاح استراتيجيات الدول والحكومات في تطوير الذكاء الاصطناعي بالشكل الذي يقضي على أي تكتيكات إرهابية في المستقبل وإما لأن الإرهابيين يلجؤون إلى تحويل تكتيكاتهم تلك إلى استراتيجيات متكاملة تؤثر في المنظومة الدولية بشكل عام.

 

المراجع

[1]. https://course.elementsofai.com/1/1 : Reaktor & University of Helsinki ) 2018(, ‘How should we define AI?’ 2. Page 10…

[2]. Kathleen Mckendrick , International security Department ,CHATHAM HOUSE ,August 2019. P.6

[3]. سامح راشد، الذكاء الاصطناعي في مواجهة الإرهاب .. فرص وتحديات ، مجلة آفاق استراتيجية، العدد (4)-اكتوبر 2021.

[4]. أوسوندي أوسوبا، ويليام ويلسر الرابع، مخاطر الذكاء الاصطناعي على الأمن ومستقبل العمل ( مؤسسة RAND ، 2017).

[5]. المنهج المرجعي لمكافحة الإرهاب، تقرير صادر عن الناتو، مايو 2020، ص ص 9 – 13.

[6]. سامح راشد، الذكاء الاصطناعي في مواجهة الإرهاب .. فرص وتحديات، مجلة درع الوطن، بتاريخ 1-2-2022.

[7]. المعهد الدولي، ترجمة: عادل رفيق، التكيف مع الواقع الجديد في افغانستان (القاهرة، المعهد المصري للدراسات، 1 اكتوبر 2021) ص 7.

[8]. ماري شروتر، الذكاء الاصطناعي ومكافحة التطرف العنيف: كتاب تمهيدي، (تقرير صادر من الشبكة العالمية للتطرف والتكنولوجيا GNET المملكة المتحدة، لندن دون تاريخ ) ص 19.

[9]. Kathleen Mckendrick , International security Department ,CHATHAM HOUSE ,August 2019. P.9

[10]. سامح راشد، الذكاء الاصطناعي في مواجهة الإرهاب .. فرص وتحديات، مجلة درع الوطن، مرجع سابق ذكره.

[11]. سري غضبان غيدان، محمد منذر، الأمن السيبراني وسياسات المواجهة الدولية في مجلة الدراسات الاستراتيجية والعسكرية (برلين : المركز الديمقراطي العربي، ديسمبر 2020 ) ص 18.

[12]. المنهج المرجعي لمكافحة الإرهاب، تقريرصادر عن الناتو، مايو 2020، ص ص 83 – 85.

[13]. Ambel,J.C. (2012).Combating Terrorism in the New Media Environment.Studies in Conflict &Terrorism ,pp 13

[14] https://www.defenseone.com/ideas/2018/05/terrorists-are-going-use-artificial-intelligence/147944/

[15]. https://www.defenseone.com

[16] .https://www.defenseone.com

[17]. https://bit.ly/3Gw9sU1 ،https://www.washingtonpost.com/world/2019/11/18/iraqs-military-is-spreading-fake-news-about-protests-iraqis-are-laughing-back/

[18]. أحمد ناجي، أبوظبي ومعضلة خياراتها الجديدة في اليمن، (مركز مالكوم كير – كارنيغي للشرق الأوسط ، 19 يناير 2022) https://carnegie-mec.org/

[19] 78 هجمة حوثية على السعودية شهرياً في .https://24.ae/article/678191 وأيضاً https://www.csis.org/analysis/iranian-and-houthi-war-against-saudi-arabia

[20]. https://bit.ly/3gtD1v1

[21] .David Lee Kuo Chuen, Digital Currency, Handbook, A Facilitative Model for Cryptocurrency Regulation in Singapore,( Elsevier Inc, 2015) P 368.

[22].سليم دحماني،أثر التهديدات السيبرانية على الأمن القومي ( جامعة محمد بوضياف )2017/2018 .ص – ص 18- 20.

[23] ماري شروتر، الذكاء الاصطناعي ومكافحة التطرف العنيف: كتاب تمهيدي، (لندن، تقرير صادر من الشبكة العالمية للتطرف والتكنولوجيا GNET المملكة المتحدة ، دون تاريخ ) ص – ص 23- 34.

[24]. ماري شروتر، الذكاء الاصطناعي ومكافحة التطرف العنيف، مرجع سابق ذكره ص – ص 35 – 41.

[25]. ماري شروتر، الذكاء الاصطناعي ومكافحة التطرف العنيف، مرجع سابق ذكره، ص – ص 25 – 28.

[26]. ماري شروتر، الذكاء الاصطناعي ومكافحة التطرف العنيف، مرجع سابق ذكره، ص – ص 42 – 51.

[27]. ماري شروتر، الذكاء الاصطناعي ومكافحة التطرف العنيف، مرجع سابق ذكره، ص 39.

[28]. ماري شروتر، الذكاء الاصطناعي ومكافحة التطرف العنيف، مرجع سابق ذكره، ص 13.

[29]. ماري شروتر، الذكاء الاصطناعي ومكافحة التطرف العنيف، مرجع سابق ذكره، ص 15.

[30]. ماري شروتر، الذكاء الاصطناعي ومكافحة التطرف العنيف، مصدر سابق ذكره، ص 35.

[31]. https://cordis.europa.eu/project/id/740688

[32]. ماركو جيركي، فهم الجريمة السيبرانية: الظاهر والتحديات والاستجابة القانونية (جنيف، منشورات الاتحاد الدولي للاتصالات، نوفمبر 2014) ص ص 114 – 116.

[33]. سامح راشد، الذكاء الاصطناعي في مواجهة الإرهاب .. فرص وتحديات، مرجع سابق ذكره.

[34]. ماري شروتر، الذكاء الاصطناعي ومكافحة التطرف العنيف، مرجع سابق ذكره. ص 40.

[35]. https://www.pewresearch.org/internet/2018/12/10/improvements-ahead-how-humans-and-ai-might-evolve-together-in-the-next-decade/

[36]. سامح راشد، الذكاء الاصطناعي في مواجهة الإرهاب.. فرص وتحديات، في مجلة درع الوطن، مرجع سابق ذكره.

[37]. ماركو جيركي، فهم الجريمة السيبرانية: الظاهر والتحديات والاستجابة القانونية، مرجع سابق ذكره. ص 56.

[38]. المنهج المرجعي لمكافحة الإرهاب، مرجع سابق ذكره ص 23.

[39]. ماركو جيركي، فهم الجريمة السيبرانية، مرجع سابق ذكره. ص 75.

المواضيع ذات الصلة