تعتمد الجماعات الإرهابية، منذ زمن، على استخدام الأدوات التقليدية في تنفيذ عملياتها، ولكن مع التطور السريع الذي شهده العالم في مجالَي التكنولوجيا ووسائل التواصل الاجتماعي والذكاء الاصطناعي طمحت الجماعات الإرهابية إلى استخدام تلك الأدوات الجديدة، وعلى رأسها الذكاء الاصطناعي، بغرض تنفيذ هجماتها بسهولة، وتأثير أكبر.
وفي هذا السياق، يزداد التخوف من استخدام التكنولوجيا من قِبل الجماعات الإرهابية والمتطرفة يومًا بعد يوم، خاصةً مع التطور في مجال “الذكاء الاصطناعي”، والذي يمكن تعريفه بأنه نظام حاسوبي يستطيع القيام بمهام في الأصل هي مهام لم يكن يستطيع القيام بها سوى الإنسان، مثل الإدراكَين البصري والصوتي، وحل المشكلات، واتخاذ القرارات، وغيرها من المهام التي ليس من الضروري أن تُستخدم في جهاز حاسوب فقط، ولكن يمكن أن تكون متمثلة في شكل أجهزة؛ مثل الطائرات المسيّرة والروبوتات على سبيل المثال[1].
ومن ثم، يمكن للجماعات الإرهابية استخدام الذكاء الاصطناعي في جُلّ مراحل الهجوم الإرهابي، سواء في مرحلة ما قبل الهجوم والتجسس والتجنيد وتحديد الطريقة المثلى للهجوم بناءً على طبيعة المكان أو الشخص المستهدفَين، أو في مرحلة تنفيذ الهجوم ذاته عن طريق تسيير مسيّرات، واستهداف أشخاص بعينهم على سبيل المثال[2].
لذا؛ تهدف تلك الدراسة إلى التعرف على آليات استخدام الذكاء الاصطناعي من قِبل الجماعات الإرهابية، وكيفية الحد من ذلك الاستخدام باستخدام الذكاء الصناعي أيضًا، وذلك في ثلاثة محاور رئيسية، وهي:
- كيف يمكن أن تستخدم الجماعات الإرهابية الذكاء الاصطناعي؟
- أمثلة على الجماعات التي استخدمت الذكاء الاصطناعي.
- كيف يمكن استخدام الذكاء الاصطناعي في مكافحة الإرهاب؟
أولًا: كيف يمكن أن تَستخدم الجماعات الإرهابية الذكاء الاصطناعي
قام مركز مكافحة الإرهاب التابع للأمم المتحدة بتقسيم التهديدات التي يمكن أن تقوم بها الجماعات الإرهابية باستخدام الذكاء الاصطناعي إلى عدد من الأنواع؛ بناءً على الغرض من استخدام الذكاء الاصطناعي، وهي كالآتي[3]:
- هجمات حجب الخدمة:
وتُعرف هذه الهجمات بـ”Denial-of-Service” أو اختصارًا “DoS”، وتعتمد هذه الهجمات على إرسال الجماعات الإرهابية كمًّا هائلًا من البيانات أو طلبات الاتصال، فيما يُعرف بـ”ازدحام المرور” للمواقع المراد الهجوم عليها؛ ما يجعل هذه المواقع غير قابلة للدخول عليها من قِبل المستخدمين العاديين، وهذا النوع من الهجمات يُعدّ الأشهَر والأكثر استخدامًا منذ عقود بسبب أنه الأكثر سهولة، ولا يحتاج إلى مجهود كثير.
- البرمجيات الضارّة:
البرمجيات الخبيثة أو الضارّة التي تُعرف بـ”Malware”، هي برامج يتم إطلاقها من قِبل الجماعات الإرهابية، وتكون محمّلة بفيروسات قد تمكّن الجماعات الإرهابية من تعطيل أو السيطرة أو التجسس على حاسوب الشخص أو الجهة المستهدفة، كما يمكِن للجماعات الإرهابية استخدام تلك الخاصية لتدمير البنية السيبرانية للجهات المستهدفة، سواء كانت عامة أو خاصة.
وجدير بالذكر أن ذلك النوع من الهجمات السيبرانية كان يُستخدم حتى قبل الذكاء الاصطناعي، ولكن وجود الذكاء الاصطناعي زاد من كفاءته، وأدى إلى اختراع أنواع جديدة من تلك البرمجيات الضارّة. فعلى سبيل المثال، أُجريَت تجربة لمقارنة سرعة وكفاءة توصيل روابط تحتوي على برمجيات ضارّة إلى المستخدمين من قِبل العامل البشري ومن قِبل الذكاء الاصطناعي، وانتهت تلك الدراسة إلى أن الذكاء الاصطناعي نجح في توصيل ذلك الرابط إلى 819 مستخدمًا، في حين قام العامل البشري بتوصيل الرابط إلى 129 مستخدمًا فقط.
- استخدام برامج الفدية:
وتعدّ تلك البرامج جزءًا من البرامج الضارّة، حيث تقوم بالسيطرة على حاسوب الشخص أو الجهة المستهدفة، أو تقوم بالسيطرة على ملفّ معين في ذلك الحاسوب وتشفيره ثم تقوم بالتواصل مع الشخص أو الجهة المستهدفة لابتزازهم وقبول فدية منهم مقابل فكّ شفرة الملف أو الحاسوب، ولا يشترط في تلك الهجمات أن يكون المقابل ماديًّا فقط ولكن تقوم الجماعات الإرهابية بتلك الهجمات بهدف التخريب فقط، ومثالًا على ذلك هجمات “بيتا” الشهيرة على عدد من المؤسسات الحكومية والبنوك والشركات الأوكرانية عام 2017 والتي تم الإبلاغ عن مثيل لها في فرنسا وألمانيا، وغيرهما من الدول[4].
- تخمين كلمة المرور:
تقوم الجماعات الإرهابية أو المخترقين عامة بهذا النوع من الهجمات منذ عقود، ولكن مع صعود الذكاء الاصطناعي فإن الجماعات الإرهابية زادت من كفاءتها فيما يتعلق بتخمين كلمات المرور الخاصة بالمواقع التابعة للمستهدفين.
والطريقة التي كان يتم بها تخمين كلمات المرور، قبل الذكاء الاصطناعي، تتمثّل في قيام العامل البشري بتخمين عدد من كلمات المرور لموقع أو جهاز حاسوب معين حتى يتم التوصل لكلمة المرور الصحيحة ومن ثم سرقة البيانات المرادة أو تخريب جهاز الحاسوب، ولكن بعد الذكاء الاصطناعي أصبح ذلك الأمر أكثر سهولة، حيث يمكن للذكاء الاصطناعي أن يولّد الملايين، بل المليارات من كلمات المرور وتجريبها حتى يصل إلى كلمة المرور الصحيحة.
وهناك دراسة أُجريَت على نسبة دقّة الذكاء الاصطناعي في تخمين كلمات المرور، حيث وجدت أن الذكاء الاصطناعي قادر على تخمين كلمات المرور من خلال حركة الكتف للشخص المستخدم عند كتابته على لوحة المفاتيح عن طريق إجراء مكالمة فيديو واحدة معه، وانتهت الدراسة إلى أن نسبة دقة الذكاء الاصطناعي في ذلك الأمر قد تتراوح بين 75% إلى 93%.
- التشفير وفكّ التشفير:
يَستخدم العديد من الجماعات الإرهابية والمتطرفة خاصية التشفير لبياناتهم ورسائلهم عبر البريد الإلكتروني بين بعضهم بعضًا؛ لإخفاء بياناتهم وجعلها أكثر سرّية، وعلى النقيض يستخدمون عمليات فكّ التشفير لأي حاسوب، أو معلومات يريدون الوصول إليها.
ومن ضمن أمثلة استخدام الذكاء الاصطناعي في عملية التشفير أنه، وفي عام 2012، تم العثور على مجموعة إرهابية في فرنسا استَخدمت برنامج التشفير المسمّى “أسرار المجاهدين” لتشفير رسائلهم الإلكترونية، وتم تقديم هذه الجماعة الإرهابية للمثول أمام القضاء.
- استخدام المركبات ذاتية القيادة أو غير المأهولة:
تعتمد الجماعات الإرهابية والمتطرفة على المركبات بشكل عام في العديد من عملياتها، والتي تتضمّن نقل المعدات الخاصة بهم، أو إحداث تفجيرات مثل التفجير الذي حدث في كابول عام 2018 وأسفر عن مقتل 103 ضحايا، أو تحديد مواقع معينة لاستهدافها فيما بعد.
ومنذ وجود الذكاء الاصطناعي تطور استخدام المركبات بدون سائق لتنفيذ العمليات المرجوة من قِبل الجماعات الإرهابية من دون تعريض حياة أي من هذه الجماعات للخطر، بل يتم استخدام الذكاء الاصطناعي فيما يعرف بـ”الدرونز”، والتي تشبه الطائرة من دون طيار، وتقوم بتحديد أهداف معينة واستكشاف مواقع تعود للأهداف المستهدفة من قِبل الجماعات الإرهابية.
وجدير بالذكر أن استخدام الذكاء الاصطناعي يلعب دورًا جوهريًّا في تحديد الأشخاص المستهدفين من قِبل الجماعات الإرهابية، وذلك بفعل خاصية “التعرف على الوجه” التي يقدّمها الذكاء الاصطناعي لهذه المركبات بدون سائق.
- نشر الدعايات الكاذبة:
تقوم الكثير من الجماعات الإرهابية والمتطرفة باستخدام الذكاء الاصطناعي لتحضير وتكوين دعاية كاذبة ثم الترويج لها. فعلى سبيل المثال، من الممكن أن تقوم جماعة إرهابية بالاستعانة بالذكاء الاصطناعي في كتابة النص الدعائي الكاذب الذي تريد الترويج له، ثم تقوم بترجمته إلى العديد من اللغات، ثم تصوير ذلك المحتوى في هيئة شخص من الممكن ألا يكون له وجود في الحياة، وبعد ذلك تقوم باستخدام الخوارزميات لنشر ذلك المحتوى على وسائل التواصل الاجتماعي بطريقة تجعله يصل إلى أكبر عدد ممكن من الناس؛ إن أرادت[5].
- استقطاب الأفراد والتجييش:
تعمل الجماعات الإرهابية على استخدام الذكاء الاصطناعي في معرفة تفضيلات الأشخاص وما يبحثون عنه باستمرار، وذلك للتوصل إلى الأفراد الضعفاء والذين تتجه ميولهم نحو الإرهاب ويتبادلون أفكارًا تتماشى مع أفكار الجماعات الإرهابية؛ وبالتالي يقومون باستدراج هؤلاء الأفراد وتجنيدهم داخل الجماعة[6].
- اختراق الأنظمة الأمنية والدفاعية للدول والمؤسسات الأمنية:
من المؤكد أن الأنظمة الأمنية والدفاعية للدول القائمة على التكنولوجيا الحديثة والحواسيب الآلية تعاني إشكالية ملازمة لاستخدام الدول للتقنيات الإلكترونية، وهي القابلية للاختراق، من هنا تأتي خطورة اختراق الجماعات المتطرفة لتلك الأنظمة والتحكم في المخرجات بما يتوافق مع أغراضها.[7]
ثانيًا: أمثلة على تلك الجماعات التي تستخدم الذكاء الاصطناعي
هناك أمثلة عدة تم فيها استخدام الذكاء الاصطناعي لأغراض إرهابية وتحريضية على جماعة، أو دين أو عرق أو جنس معين، ومن ضمن هذه الأمثلة ما يأتي:
- قناة تلغرام:
قامت مجموعة من العنصريين تجاه السامية “اليمين المتطرف” بإنشاء قنوات عديدة على تلغرام ونشر صور وفيديوهات مفبركة باستخدام الذكاء الاصطناعي للترويج لأفكارهم المعادية للسامية والمستندة إلى النازية الجديدة، حيث قاموا بإنشاء صور لتمجيد رموز النازية مثل “أدولف هتلر”19.
- ترجمة البيانات:
في أغسطس 2023، قام أحد عناصر داعش برفع خطاب لأحد القادة على برنامج خاص بالذكاء الاصطناعي لترجمته إلى لغات عدة بهدف نشره إلى أكبر عدد ممكن من الأفراد حول العالم، وبالتحديد قام ذلك الشخص بترجمة نصّ بيان لمنظمة الفرقان، والتي تُعرف بأنها الذراع الإعلامية لداعش؛ ما يساعد على انتشار الأفكار الإرهابية بشكل أسرع وأشمل5.
- تصميم صور:
في يونيو 2023 تم اكتشاف منشورات على عدد من وسائل التواصل الاجتماعي لعدد من الصور التي تم تركيبها بواسطة القاعدة، والتي تحوي عبارات تشير إلى أفكار القاعدة، وصورًا لأسلحتهم، ولكن بالتدقيق في هذه الصور تبين أنها ليست حقيقية، حيث تبيّن عدم وجود تناسق بين الأسلحة المعروضة على سبيل المثال[8].
- الطائرات المسيّرة:
هناك العديد من الأمثلة على استخدام الجماعات الإرهابية للطائرات ذاتية القيادة في العديد من الأهداف، منها تدمير مناطق معينة، أو استهداف أشخاص بعينهم، أو عمل مسح جغرافي لمناطق محددة، ومن أمثلة هذه الجماعات الإرهابية التي تستخدم الطائرات المسيّرة:
- ميليشيا الحوثي، عندما قامت بتسيير طائرة مسيّرة في يناير 2022 لاستهداف شركة نفطية في دولة الإمارات؛ ما أسفر عن مقتل ثلاثة أفراد، كما قامت في عام 2019 باستهداف عدد من المنشآت السعودية؛ وهي مخزن للأسلحة، ومنطقة الطائرات بمطار نجران الحربي17.
- أعرب الاتحاد الأفريقي في يوليو 2021 عن قلقه إزاء مواصلة تنظيم “بوكو حرام” التي تنشَط في شمال شرقي نيجيريا وفي العديد من الدول المجاورة باستخدامها طائرات من طيار في عملياتها الاستطلاعية بمنطقة عمليات القوة المشترك18.
- داعش، والتي لها باع طويل في استخدام الطائرات المسيّرة، واستخدام الذكاء الاصطناعي، من خلال الموجّه، حيث قامت بهجمات باستخدام الطائرات المسيّرة على سوريا والعراق بمعدل تراوح بين 60 إلى 100 هجوم كل شهر. ولم تكتفِ داعش بهجماتها المتمركزة في سوريا والعراق فقط، بل اتسعت رقعة الطائرات المسيّرة الداعشية، حيث وصلت إلى موزمبيق ودول الساحل الأفريقي في مارس 2022، ولكن تصدّت لها القوات النيجيرية[9].
ثالثًا: كيف يمكن استخدام الذكاء الاصطناعي في مكافحة الإرهاب؟
قدرات الذكاء الاصطناعي ليست قاصرة على استخدام الجماعات الإرهابية لها فقط، ولكن من الممكن أن تقوم الدول والحكومات وأجهزة المخابرات باستخدام الذكاء الاصطناعي في التنبّؤ والتعرف على الجماعات الإرهابية والقدرة على منعهم من القيام بعملياتهم الإرهابية من الأساس، وفي هذا السياق سنستعرض أربع طرق لكيفية استخدام الذكاء الاصطناعي في مكافحة العمليات الإرهابية:
- المساعدة في تقويض الأفكار المتطرفة
من المعروف أن الجماعات الإرهابية تستخدم الذكاء الاصطناعي لعمل فيديوهات وصور تروِّج لأفكارها الإرهابية لجذب تعاطف المستخدمين العاديين؛ لذا من الممكن أن تقوم الدول باستخدام الذكاء الاصطناعي في التعرف على ذلك المحتوى الذي يحمل أفكارًا إرهابية وتقوم بحجبه، بل تقوم بتصدير محتوى مضاد يحمل حقائق مخالفة للأفكار الإرهابية المرَوَّجة.
فعلى سبيل المثال، هناك تجربة في عام 2016 قامت بها غوغل باستخدام الذكاء الاصطناعي وهي “Jigsaw”، والتي من خلالها قام غوغل بتحديد مؤشرات معينة مرتبطة بتنظيم داعش، إذا ظهرت في محرك البحث لدى المستخدم تقوم بتوجيهه تلقائيًّا إلى فيديوهات ومواقع أخرى تعرِض له محتوى مضادًّا لما بُحث عنه وله علاقة بتنظيم داعش[10].
- المساعدة في تحديد توقيت وموقع الهجمات الإرهابية المحتملة
تم عمل عدد من النماذج التي تعتمد على استخدام الذكاء الاصطناعي لتحديد مكان وتوقيت الهجمات الإرهابية من خلال تتبع استخدام أفراد الجماعات الإرهابية للإنترنت، والمعاملات البنكية، وحجوزات الطيران الخاصة بهم، وما إلى ذلك.
وفي عام 2015 تم استخدام أحد تلك النماذج التنبؤية، والتي نجحت بالفعل في التنبّؤ بهجمة إرهابية انتحارية بنسبة دقّة وصلت إلى 72%.
- المساعدة في تحديد احتمالية أن يكون الشخص إرهابيًّا
من الممكن للحكومات أن تَستخدم الذكاء الاصطناعي في التعرف على احتمالية أن يكون المستخدم إرهابيًّا، أو أنه سيكون إرهابيًّا في المستقبل. ومن الأمثلة على ذلك، قامت وكالة الأمن القومي الأمريكية في عام 2007 باستخدام خاصية تشبه الذكاء الاصطناعي بشكله الحالي المتعارف عليه، وخلصت إلى أنه هناك 15 ألف مواطن باكستاني من أصل 200 مليون باكستاني، آنذاك، من الممكن أن يكونوا إرهابيين في ذلك الوقت، أو لديهم فكر متطرف.
وعلى الرغم من عدم إثبات نسبة دقّة ذلك النموذج فإنه وارد الاستخدام، ومن الممكن أن يتم تطويره الآن مع تقدم التكنولوجيا عامةً، والذكاء الاصطناعي خاصة.
- المساعدة في التعرف على وجه الإرهابيّين
قد يكون الذكاء الاصطناعي عامل أساسي تعتمد عليه الحكومات في التعرف على وجوه الأشخاص المنتمين إلى جماعات إرهابية تودّ الحكومات أن تقوم بتحديد أماكنهم، فعلى سبيل المثال قامت الشرطة الفيدرالية الألمانية في عامَي 2017 و2018 بتركيب كاميرات تتضمن خاصية التعرف على الوجوه، والتي تعتمد على الذكاء الاصطناعي، في محطة قطار ألمانية تعتبر من أكثر المحطات ازدحامًا بهدف التعرف على عناصر الجماعات الإرهابية المرغوبين لدى الحكومة الألمانية[11].
وعلى الرغم من الأهمية الكبرى للذكاء الاصطناعي في مجال مكافحة الإرهاب، فإن لذلك الأمر سلبياته كذلك، فمن ضمن سلبياته: أولًا، أن التجسس على الأفراد مستخدمي الإنترنت، والذين تشك الحكومات والدول في انتمائهم لجماعة إرهابية، هو أمر غير مقبول بشكل كلّي من منظور حقوق الإنسان لأنه من الممكن أن يقيّد حرية الاعتقاد والتعبير للمستخدمين؛ الأمر الذي أكدته جهات عدة رسمية وغير رسمية، مثل مجلس حقوق الإنسان التابع للأمم المتحدة، الذي أكد ضرورة تحلّي مستخدمي الإنترنت بالحرية مثلما يجب أن يتحلَّوا بها في الواقع، وما يزيد تلك المخاوف من تقييد حقوق الإنسان هو تعدد تعريفات “الإرهاب” و”الأعمال الإرهابية” وعدم الاتفاق على معايير موحدة لهذه الأفعال؛ ما قد يدفع بعض الحكومات لاستخدام الذكاء الاصطناعي تحت مسمّى “مكافحة الإرهاب”، ولكن هي بالأصل تنتهك حقوق الإنسان.
ثانيًا، أن هناك أنظمة قانونية تتبعها محاكم بعض الدول ولا تعترف تلك الأنظمة القانونية بمشروعية الأدلة القائمة على الذكاء الاصطناعي؛ وبالتالي فإن استخدام الذكاء الاصطناعي في تلك الحالات لن يُجدي نفعًا، بل فقط سيزيد من احتمالية انتهاك حقوق الإنسان لمستخدمي الإنترنت.
- المساعدة في تعقّب تمويل الإرهاب
هناك تطبيقات وبرامج مثلOSINT (Open Source Intelligence) والتي هي تقنية تتكون من جمع وتحليل المعلومات من مصادر خارجية، مثل الوسائط والشبكات الاجتماعية والمنتديات عبر الإنترنت والمدونات لتعقب تمويل الإرهاب. يمكّن OSINT المحللين الماليين المتخصصين في الإرهاب من استخدام الأدوات الآلية لجمع وتحليل البيانات المستمدة من مصادر متعددة؛ ما يسهل الكشف عن الأنشطة المشتبه بها بسرعة وبدقّة.[12]
- تحسين عملية صنع القرار في مكافحة التطرف والإرهاب، وكذلك في تحليل البيانات الضخمة لأغراض مكافحة الإرهاب
فمن الممكن أن يُقلّص الذكاء الصناعي، إلى حدّ بعيد، من احتمالات الخطأ في مراحل البحث والتحري، وتحديد المتورطين، وكذلك في مراحل الملاحقة، والسعي إلى إنفاذ القانون.[13]
- تحسين التعاون الرقمي بين الأجهزة المعنية بمجابهة ومكافحة الإرهاب[14]
فالذكاء الصناعي أداة يمكن أن تكون ناجعة في نحسين التعاون الرقمي بين الأجهزة المعنية بمجابهة ومكافحة الإرهاب داخل الدول، وبين الدول وبعضها بعضًا.
الخاتمة
في نهاية الدراسة، يمكننا القول إن الـذكـــاء الاصـطـنـاعـــي كما يمكن أن يُستخدم أداة في يد المتطرفين والإرهابيين، يمكن أن يكون في المقابل حـجــــــر زاوية في مستقبل المواجهة الأمنية ضد الإرهاب والتطرف. فهو في النهاية مجرد أداة تتحدد تأثيراتها وفقًا لمن يستخدمها، ولأي هدف يستخدمها.[15]
في هذا السياق، من المتوقع في قابل الأيام أن يتزايد استخدام الجماعات المتطرفة والإرهابية للذكاء الاصطناعي، وفي المقابل ستطور الدول والمؤسسات المعنية المزيد من تطبيقات الذكاء الاصطناعي المتصلة بالتنبؤ والتحصين، والملاحقة لمجابهة، ومكافحة التطرف والإرهاب.
[1] “Algorithms And Terrorism: The Malicious Use Of Artificial Intelligence For Terrorist Purposes.” UNICRI , 2021. https://www.scribd.com/document/567612204/Malicious-Use-of-AI-UNCCT-UNICRI-Report-Web.
[2] Emerging Technologies May Heighten Terrorist Threats, October 2022. https://www.odni.gov/files/NCTC/documents/jcat/firstresponderstoolbox/134s_-_First_Responders_Toolbox_-_Emerging_Technologies_May_Heighten_Terrorist_Threats.pdf.
[3] “Algorithms And Terrorism: The Malicious Use Of Artificial Intelligence For Terrorist Purposes.” UNICRI , 2021. https://www.scribd.com/document/567612204/Malicious-Use-of-AI-UNCCT-UNICRI-Report-Web.
[4] “The Untold Story of Notpetya, the Most Devastating Cyberattack in History.” Wired, August 22, 2018. https://www.wired.com/story/notpetya-cyberattack-ukraine-russia-code-crashed-the-world/.
[5] “Early Terrorist Expermination with Generative AI.” Tech Against Terrorism Briefing, November 2023. https://techagainstterrorism.org/hubfs/Tech%20Against%20Terrorism%20Briefing%20-%20Early%20terrorist%20experimentation%20with%20generative%20artificial%20intelligence%20services.pdf
[6] “Ai and Violent Extremism – Trends in 2024.” Digital Watch Observatory. Accessed February 19, 2024. https://dig.watch/topics/violent-extremism.
[8] “Early Terrorist Expermination with Generative AI.” Tech Against Terrorism Briefing, November 2023. https://techagainstterrorism.org/hubfs/Tech%20Against%20Terrorism%20Briefing%20-%20Early%20terrorist%20experimentation%20with%20generative%20artificial%20intelligence%20services.pdf.
” 17https://arabic.cnn.com/middle-east/article/2022/01/17/uae-abu-dhabi-attack-0
[9] رغدة البهي، “التنظيمات الإرهابية والذكاء الاصطناعي: تهديدات فعلية ومحتملة”، مجلس الوزراء، مركز المعلومات ودعم اتخاذ القرار، أكتوبر 2023، التنظيمات الإرهابية والذكاء الاصطناعي.pdf
[10] “Countering Terrorism Online with Artificial Intelligence – an Overview for Law Enforcement and Counter-Terrorism Agencies in South Asia and South-East Asia.” UNICRI, 2021. https://unicri.it/Publications/Countering-Terrorism-Online-with-Artificial-Intelligence-%20SouthAsia-South-EastAsia.
[11] “Countering Terrorism Online with Artificial Intelligence – an Overview for Law Enforcement and Counter-Terrorism Agencies in South Asia and South-East Asia.” UNICRI, 2021. https://unicri.it/Publications/Countering-Terrorism-Online-with-Artificial-Intelligence-%20SouthAsia-South-EastAsia.
[12] Julien Briot-Hadar, Et si l’IA entravait le financement du terrorisme en Afrique ? Jeune Afrique, 5 octobre 2023,
[13] سامح راشد، الذكاء الاصطناعي في مواجهة الإرهاب.. فرص وتحديات، مركز المعلومات واتخاذ القرار، ٢٧ أكتوبر ٢٠٢١
https://www.idsc.gov.eg/Article/details/6259
[14] OBAID SALEH ALMUKHTAN, EXPLOITATION DES OUTILS DE L’INTELLIGENCE ARTIFICIELLE DANS LA LUTTE CONTRE LE TERRORISME, Islamic Military Counter Terrorism Coalition Dec. 2023
https://imctc.org/fr/eLibrary/TerrorismIssues/Documents/Terrorism%20Issues%20Issu%205%20-Fr.pdf
[15] سامح راشد، الذكاء الاصطناعي في مواجهة الإرهاب.. فرص وتحديات، مركز المعلومات واتخاذ القرار، ٢٧ أكتوبر ٢٠٢١