شهد العالم، خلال العقد الأخير، طفرة نوعية في تقنيات الذكاء الاصطناعي، ولاسيّما في مجال الذكاء الاصطناعي التوليدي، حيث أسهمت هذه النماذج المتقدمة في إعادة تشكيل ملامح الحياة اليومية والمهنية على حد سواء. وبالرغم من الإمكانيات الكبيرة التي توفرها هذه النماذج في إنتاج المحتوى وتحليل البيانات وتسهيل اتخاذ القرار، فإن أداءها لايزال محفوفًا بتحديات جوهرية، تتعلق بالدقة والموثوقية وتعدد الاستخدامات.
تهدف هذه الورقة إلى تحليل التحديات الراهنة التي تواجه الذكاء الاصطناعي التوليدي، من خلال دراسة معمقة لأداء النماذج اللغوية، والقصور في فهم السياق والثقافة، والانزلاقات الأخلاقية، والانحيازيات.
كذلك تستعرض الورقة العوامل التقنية والمعرفية المؤدية لهذه التحديات، وتقترح رؤًى مستقبلية لتعزيز فعالية الذكاء الاصطناعي التوليدي في بيئات متنوعة.
أولًا- ماهية الذكاء الاصطناعي: خوارزميات مُوَجَّهة بالبيانات والمعادلات
لفهم التحديات التي تواجه الذكاء الاصطناعي التوليدي، لابُدَّ من العودة إلى الأساس النظري الذي يقوم عليه هذا الحقل؛ فالذكاء الاصطناعي هو أحد فروع علوم الحوسبة، ويُعنى بتصميم أنظمة قادرة على أداء مهام تتطلب في العادة قدرات معرفية بشرية؛ كالفهم، والتعلُّم، والاستنتاج. صحيحٌ أن هذه الأنظمة لا تملك وعيًا ذاتيًّا، غير أن بِنيتها الخوارزمية المعتمدة على المعادلات الرياضية والتحليل الإحصائي تُمَكّنها من معالجة البيانات بكفاءة عالية[1].
من هذا المنطلق، فإن الذكاء الاصطناعي “التوليدي” هو فرع متقدم من الذكاء الاصطناعي، يُعنى بتطوير نماذج قادرة على توليد محتوى جديد؛ كالنصوص، والصور، والرموز البرمجية، وذلك بناءً على أنماط تَعَلَّمَتْها من بيانات ضخمة. وهذه النماذج تستخدم تقنيات تَعَلُّم عميق، مثل الشبكات العصبية التوليدية، التي تقوم على مبدأ التنبؤ بالاحتمالات الأكثر ترجيحًا للكلمة، أو العنصر التالي، ولكن دون فهم حقيقي للسياق أو الوعي بالمعنى. وتُعَدُّ نماذج اللغة الكبيرة، مثل “تشات جي بي تي”، مثالًا بارزًا على هذه الفئة؛ إذ تتعلم من مليارات الجمل لتوليد مخرجات “تبدو بشرية” من حيث البنية، لكنها تستند بالكامل إلى الإحصاء، وليس إلى منطق أو إدراك. وبالرغم ممّا تحققه هذه النماذج من نتائج -تبدو أحيانًا شبه بشرية- فإنها تظل انعكاسًا دقيقًا للبيانات التي تغذت بها، والخوارزميات التي توجهها. لذا، فإن مدى الدقة أو التَّحَيُّز في مُخرجات الذكاء الاصطناعي مرتبط جوهريًّا بطبيعة البيانات المُدخلة، وتصميم النموذج ذاته[2].
ثانيًا- محدودية الفهم.. السياق والثقافة: أزمة العمق المعرفي
في هذا السياق، يبرز التحدي المتمثل في محدودية استيعاب السياقات الثقافية واللغوية. وتُعَدُّ هذه المحدودية من أبرز الإشكاليات التي تواجه النماذج التوليدية، خصوصًا عند التعامل مع لغات غير الإنجليزية أو مفاهيم محلية. فبالرغم من قدرتها الشكلية على توليد نصوص سليمة لغويًّا، فإن هذه النماذج كثيرًا ما تُخطئ في تفسير المعاني الدقيقة المرتبطة بسياقات اجتماعية أو ثقافية مميزة.[3]
ويعود ذلك إلى هيمنة البيانات الغربية في مجموعات التدريب؛ ما يؤدي إلى تمثيل ناقص أو مُشَوَّه للمفردات والمفاهيم ذات الخلفية العربية أو الدينية، ومن ثم يتسبب في تشويه المعاني أو فقدان النبرة الأصلية للنص. وينعكس هذا القصور سلبًا في مجالات الإعلام، والتعليم، والترجمة، حيث يصبح الذكاء الاصطناعي مصدرًا لمخرجات سطحية أو مضللة[4].
ولمعالجة هذا القصور لابُدَّ من إعادة تشكيل بِنية التدريب لتشمل تمثيلات ثقافية ولغوية متنوعة، وتطوير آليات قادرة على فهم العمق والسياق، وليس مجرد النمط الظاهري للغة. ومن هنا، ننتقل إلى تَحَدٍّ آخر مرتبط بالقدرة على الاستمرارية المنطقية في النصوص الطويلة، وتعقيد المهام المتعددة الخطوات[5].
ثالثًا- ضعف الاستمرارية المنطقية والمهام المتعددة الخطوات: إشكالية التتابع العقلي
إذا كانت التحديات السابقة تتعلق بجوانب المحتوى والسياق، فإن التحدي الثالث يكمن في بنية المعالجة ذاتها، حيث تُظهر النماذج التوليدية قصورًا ملحوظًا عند التعامل مع النصوص الطويلة أو المهام المتداخلة. وغالبًا ما تتوقف هذه النماذج بشكل مفاجئ، في أثناء توليد محتوى طويل؛ ما يؤدي إلى مُخرجات ناقصة أو غير مكتملة، ويضعف من قابليتها للاستخدام في التقارير التفصيلية أو المقالات التعليمية أو التحليلات الإعلامية[6].
فضلًا عن ذلك، فإن الذكاء الاصطناعي التوليدي، مثل ChatGPT، يعاني محدودية في معالجة المهام المتداخلة؛ إذ يتعامل مع كل مهمة بصورة منفصلة، دون قدرة فعّالة على الربط المتزامن بين العمليات؛ ما يقلل من كفاءته في إنجاز المهام المركبة التي تتطلب تتابعًا منطقيًّا وتحليلًا متعدد المستويات. ويُعزى ذلك إلى الطابع الإحصائي القائم على التنبؤ بالكلمة التالية، وفقًا لنمط لغوي، دون وجود فهم عميق للنية البشرية أو تسلسل الأفكار. ومن هنا، تتضح ضرورة إعادة التفكير في تصميم بِنى النماذج، بما يُمكنها من بناء استدلال متكامل وفهم سليم للمهام المركبة؛ الأمر الذي يقودنا إلى أحد أكثر التحديات حساسية، ألا وهو الانزلاقات الأخلاقية والتحيُّز في المخرجات[7].
رابعًا- الانزلاقات الأخلاقية والتحيُّز: فجوة في المعايير والقِيَم
تُعَدُّ المخرجات الأخلاقية المضللة، والتحيُّزات غير المرئية، من بين التحديات الأكثر إثارة للقلق في تطبيقات الذكاء الاصطناعي التوليدي. فالنماذج التي تُدَرَّب على بيانات مأخوذة من الإنترنت أو مصادر عامة -دون رقابة كافية- قد تعكس توجهات عنصرية، أو تحيُّزات، أو رؤًى ثقافية مُشَوَّهة. وغالبًا ما تُقدم هذه النماذج محتوى يبدو سليمًا لغويًّا، لكنه يحمل في طياته تحريفًا للواقع، أو إقصاءً لوجهات نظر معينة.
وتكمن الخطورة في أن هذه الانحرافات قد تمر دون انتباه المستخدم، خصوصًا في المجالات التعليمية أو الإعلامية؛ ما يؤدي إلى تكريس أنماط معرفية غير عادلة، بل ومؤذية. ويمكن أن تعزز أنظمة الذكاء الاصطناعي التحيُّزات الاجتماعية القائمة؛ إمّا بسبب البيانات التدريبية المتحيزة، أو تصميم الخوارزميات.
كما أن غياب القدرة على التمييز بين ما هو مقبول أخلاقيًّا وما هو مرفوض يُعَرِّض هذه النماذج إلى الوقوع فيما يُعرف بـ”هلوسة الذكاء الاصطناعي”، حيث تنتج معلومات خاطئة أو مختلقة بثقة عالية[8].
هلوسة النماذج التوليدية
صُمِّمَتْ نماذج اللغة الكبيرة بشكل أساسي لتعطي الأولوية لمظهر الاعتدال، بدلًا من التركيز على ضمان الدقة المطلقة؛ ما يؤدي غالبًا إلى إنشاء محتوى يبدو معقولًا، ولكنه في الواقع قد يكون غير صحيح؛ إذ إن النماذج تتنبّأ بالمخرجات استنادًا إلى أنماط موجودة في بيانات التدريب. ولكن عند حدوث هلوسة قد تؤدي إلى قرارات خاطئة، أو إلى الإضرار بالسمعة، أو التعرض لغرامات تنظيمية، أو خسارة فرص عمل. وكما هو الحال مع الهلوسة، فإن النماذج التوليدية قد تُستخدم في نشر معلومات مضللة؛ ما يؤدي إلى فقدان الثقة، وخسائر مالية، وتأثيرات سلبية في قرارات العمل[9]، بما في ذلك أدوات كسر قيود الحماية في النماذج اللغوية الضخمة، أو إصدار أمر محترف يُسمى (افعل أي شي الآن)، وهذا الأمر تستخدمه قبل جميع الأوامر، ويتجاوز الحدود، ويسمح بتوليد مخرجات أي أمر تقريبًا. وتقوم الشركات بتحديث مستمر للنموذج للحد من هذه الظاهرة، ولكن مازال بالإمكان تجاوز الحماية ضد المحتوى الضار، وقول الحقيقة بشأن أشياء مخفية، أو ممنوعة من الظهور لأسباب أخلاقية[10].
ولعل ما يفاقم من هذا التحدي هو استخدام هذه النماذج في مجالات حيوية؛ كالقانون، والصحة، والإعلام، حيث قد تقود التحيُّزات أو الهلوسة إلى قرارات ذات تبعات خطيرة. ومن هنا، تنبع الحاجة إلى بناء نماذج تتضمن معايير أخلاقية واضحة، وآليات مراجعة بشرية مستمرة، حتى تضمن الحد من الانزلاقات، وتعزز من مصداقية الذكاء الاصطناعي التوليدي. ومن الضروري الاستثمار في تطوير خوارزميات محايدة ومجموعات بيانات متنوعة. كذلك، يُعَدُّ غرس القيم الأخلاقية والمبادئ في أنظمة الذكاء الاصطناعي تحديًا كبيرًا، خصوصًا في الحالات التي تتطلب اتخاذ قرارات مصيرية. وعلى الباحثين والمطورين أن يعطوا الأولوية للتبعات الأخلاقية عند تصميم وتطبيق أدوات الذكاء الاصطناعي.
خامسًا- الأثر البيئي وتحديات البنية التحتية: التكلفة الخفية للتوسع الرقمي
مع الانتشار الواسع لتقنيات الذكاء الاصطناعي التوليدي، بدأت تظهر، بشكل متزايد، تساؤلات جوهرية حول أثر هذه النماذج على البيئة والبنية التحتية الرقمية؛ إذ إن تدريب النماذج اللغوية الكبرى -مثل تشات جي بي تي- يتطلب كميات هائلة من الطاقة الكهربائية والمياه العذبة؛ ما يُشكل عبئًا متناميًا على الموارد البيئية في العالم، خصوصًا في الدول النامية ذات البنى التحتية الهشة[11].
أيضًا، تشير تقارير حديثة إلى أن عملية تدريب نموذج كبير قد تستهلك طاقة كهربائية تعادل ما يحتاج إليه أكثر من مئة منزل سنويًّا، إضافة إلى مئات آلاف الليترات من المياه العذبة النظيفة لتبريد مراكز البيانات. ومع تصاعد الطلب على هذه النماذج، من المتوقع أن تزداد الضغوط على شبكات الكهرباء؛ ما يثير تحديات تتعلق باستدامة التوسع في البنية التحتية للذكاء الاصطناعي التوليدي، الأمر الذي سيؤدي إلى تصاعد التحدي المتعلق بكيفية إدارة الموارد، والتقليل من الأثر الكربوني، وضمان العدالة في الوصول إلى قدرات المعالجة السحابية[12].
وعند النظر في نماذج الذكاء الاصطناعي، نجد أن الأكبر لا يعني دائمًا الأفضل. ومع تطويرنا لنماذجنا الخاصة، سنسعى لتقليل حجم هذه النماذج، مع تحقيق أقصى قدر من الدقة. وسيساعد ذلك في تقليل البصمة الكربونية؛ ما يعني استهلاكًا أقل للطاقة من مراكز البيانات، وانبعاثات كربونية أقل. ومن المعروف أن مراكز البيانات تستهلك حاليًّا ما بين 6% و8% من إجمالي إنتاج الكهرباء السنوي في الولايات المتحدة، وقد ترتفع إلى ما بين 11% و15% بحلول عام 2030[13].
احتكار التقنية وتوابعها:
قد تؤدي سيطرة عدد قليل من الشركات الكبرى أو الحكومات على تطوير تقنيات الذكاء الاصطناعي إلى زيادة الفجوة في النفوذ والابتكار. وهذا الاحتكار المحتمل لا يهدد فقط التوازن الاقتصادي، بل قد يُضعف أيضًا فرص الاستخدام العادل والمسؤول للذكاء الاصطناعي في مختلف القطاعات. ولذلك، تُعَدُّ الدعوة إلى تطوير غير مركزي وتعاوني أمرًا ضروريًّا لضمان أن تبقى هذه التكنولوجيا أداة تخدم الجميع، لا امتيازًا حصريًّا لجهات معينة[14].
الأمن السيبراني
لا يقتصر الأمر على البُعْد البيئي، بل يشمل أيضًا مخاطر متنامية تتعلق بأمن البيانات وسلامة الأنظمة، لاسيّما أن تقنيات الذكاء الاصطناعي تُتيح أدوات متقدمة قد تستغلها جهات خبيثة لتنفيذ هجمات إلكترونية معقدة. على سبيل المثال، يمكن استخدام النماذج اللغوية الكبيرة لكتابة أكواد برمجية ضارة، أو تنفيذ هجمات تصيُّد احتيالية متطورة، أو نشر البرمجيات الخبيثة والفيروسات بطرق أكثر فعالية. كما أن أنظمة الذكاء الاصطناعي نفسها قد تكون عرضة لهجمات تستهدف نزاهة البيانات، مثل هجوم “تسميم النموذج” الذي يتم من خلال إدخال بيانات مغلوطة أو خبيثة، في أثناء مرحلة التدريب، واستخدامَ تقنيات التوليد الصوتي أو المرئي في المجالات الحساسة كالخدمات المصرفية أو الإعلام[15].
ومع تطور الذكاء الاصطناعي التوليدي، وتحديث نماذج مثل “تشات جي بي تي”، ازدادت قدرة الذكاء الاصطناعي على إنتاج محتوى دقيق ومُحَاكٍ للواقع؛ ما يثير تحديات قانونية تتعلق بالمسؤولية وحقوق الملكية الفكرية. وتستدعي هذه التحولات تحديث الأطر القضائية لمواكبة التقدم التكنولوجي وحماية الحقوق. في المقابل، أدت أدوات التزييف العميق إلى انتشار واسع للمحتوى المزيف الذي يصعب كشفه؛ ما يُسهم في نشر المعلومات المضللة والتلاعب بالرأي العام. كما أصبحت هجمات انتحال الشخصية أكثر خطورة، بفضل قدرة الذكاء الاصطناعي على إنتاج أصوات وفيديوهات مزيفة تُستخدم في الاحتيال، خصوصًا في القطاعات المالية.[16]
الخصوصية:
هناك بعض الشركات التي تطوّر أو تستخدم نماذج ذكاء اصطناعي مدرّبة على مجموعات بيانات تتضمن معلومات شخصية، سواء تم شراؤها من جهات خارجية، أو استخراجها من المواقع الإلكترونية المُتاحة للعامة، أو التي تجمع المعلومات الشخصية بطرق أخرى، مثل المُدخلات التي يقدمها المستخدمون، كملاحظات الاجتماعات، أو تقنيات التلخيص المدمجة في برمجيات الاجتماعات الافتراضية. هذه الشركات قد تُثير مشكلة مُلِحَّة متعلقة بأمور مثل الشفافية والموافقة وحق الأفراد في حذف بياناتهم، خصوصًا في نماذج التعلُّم العميق المعقدة التي يصعب تفسيرها. وهذا الغموض يُخفي منطق اتخاذ القرار والخطوات الداخلية التي تتبعها هذه النماذج؛ وهو ما يصعب تنفيذه في بعض حالات استخدام الذكاء الاصطناعي[17].
فضلًا عن ذلك، واجهت شركات مثل Clearview AI دعاوى قضائية في إلينوي؛ بسبب جمع صور المستخدمين من الإنترنت دون موافقة لإنشاء قاعدة بيانات للتَّعَرُّف على الوجه. وفي الوقت نفسه، فرضت لجنة التجارة الفيدرالية (FTC) على بعض الشركات حذف نماذجها المدربة على بيانات جُمعت بطريقة غير قانونية، في خطوة تُعرف بـ”التفكيك الخوارزمي”، وأعلنت صلاحيات جديدة للتحقيق في استخدامات الذكاء الاصطناعي[18].
وفي مواجهة هذه التهديدات، نَصَّ الأمر التنفيذي المتعلق بالذكاء الاصطناعي في الولايات المتحدة على ضرورة إخضاع بعض أدوات الذكاء الاصطناعي لمعايير اختبار صارمة ومتطلبات للإبلاغ. وبناءً عليه، يجب على الشركات التأكد من أن سياساتها في الأمن السيبراني تشمل آليات فعّالة لرصد هذه المخاطر وقياسها وإدارتها بالشكل المناسب.
من هنا، يصبح من الضروري اعتماد سياسات وطنية وإقليمية لتنظيم البنية التحتية المرتبطة بالذكاء الاصطناعي، وتعزيز ممارسات الاستدامة والحوكمة الرقمية، بالتوازي مع وضع أطر واضحة لأمن المعلومات وحماية الخصوصية.
في ضوء هذه التحديات المتعددة، ننتقل في القسم التالي إلى تحليل فجوة الفهم بين الإنسان والنموذج، وأهمية تعزيز التفكير النقدي وهندسة الأوامر في التعامل مع مخرجات الذكاء الاصطناعي التوليدي[19].
سادسًا- فجوة الفهم وسوء تفسير السياق: بين الصواب الظاهري والخطأ العميق
تكمن إحدى الإشكاليات التي تعانيها النماذج التوليدية فيما يُعرف بـ”فجوة الفهم” بين الإنسان والآلة. فهذه النماذج، بالرغم من قدرتها على إنتاج إجابات تبدو صحيحة من حيث الصياغة اللغوية، قد تُخطئ في إيصال المعنى الصحيح، أو تفشل في تفسير نية المستخدم، خصوصًا عندما تكون الأسئلة مُعَقَّدَة أو تتطلب خلفية معرفية أو ثقافية معينة.
من ناحية، قد يُنتج النموذج مُخرجات مضللة أو غير دقيقة، وإن لم يكن لدى المستخدم المعرفة الكافية فقد يظن أنها صحيحة. ومن ناحية أخرى، قد يُقدّم النموذج إجابة سليمة معلوماتيًّا، لكنها لا تتطابق مع توقعات المستخدم، أو لا تُصاغ بالطريقة المألوفة له؛ ما يؤدي إلى رفضها. هذا التفاوت بين نية المستخدم واستجابة النموذج يعكس ضعفًا في قدرة النماذج على فهم السياق الكامل والتفاعل مع النية الحقيقية.[20]
هندسة الأوامر
في هذا السياق، تبرز أهمية ما يُعرف بـ”هندسة الأوامر”، كوسيلة لتجسير هذه الفجوة؛ فصياغة الطلبات بشكل دقيق وشامل تُسهم في تحسين جودة استجابة النماذج اللغوية وتوجيهها نحو مُخرجات أكثر صلة وسياقية، وهي لا تُعَدُّ هندسة بالمعني الاصطلاحي، وإنما هي مهارة أو وسيلة تتطلب فهمًا منطقيًّا للتعامل مع النماذج باللغة البشرية[21].
وبالتالي، فإن التعامل الرشيد والمنتج مع الذكاء الاصطناعي التوليدي لا يقتصر على تطوير النماذج ذاتها، بل يشمل أيضًا تمكين الإنسان من استخدام هذه الأدوات بوعي وفطنة. كما أن الاعتماد الزائد على أنظمة الذكاء الاصطناعي قد يُضعف الإبداع، والتفكير النقدي، والحدس البشري. ومن الضروري الحفاظ على التوازن بين إسهام الذكاء الاصطناعي وبين دور الإنسان في اتخاذ القرارات؛ إذ إن التراجع في التعاطف والمهارات الاجتماعية يؤدي إلى ضعف الروابط الإنسانية، كما أن الحفاظ على التوازن بين التكنولوجيا والتفاعل البشري أمر بالغ الأهمية[22].
الخاتمة: نحو ذكاء اصطناعي توليدي أكثر موثوقية وعدالة
يمثل الذكاء الاصطناعي التوليدي تحولًا نوعيًّا في مسار تطور التقنيات الرقمية؛ إذ تجاوز دورَه التقليدي كأداة للمعالجة إلى أن أصبح شريكًا فاعلًا في إنتاج المعرفة، واتخاذ القرار، وصياغة المستقبل. غير أن هذه القدرات المتقدمة ترافقها تحديات لا تقل أهمية عن الفوائد المرجوة منها، وقد بيّنت هذه الورقة أن هذه التحديات ليست تقنية فقط، بل تتداخل فيها الأبعاد الأخلاقية والثقافية والبيئية والمعرفية.
لقد تناولنا أبرز هذه التحديات، بدءًا من محدودية الفهم السياقي والثقافي، مرورًا بالقصور في معالجة المهام المعقدة، والانزلاقات الأخلاقية، وتحيُّزات البيانات، والاحتكار، وما يؤدي إليه أمنيًّا، ثم انتهاءً بالأثر البيئي وفجوة الفهم بين الإنسان والنموذج. ويتضح من هذا التحليل أن الذكاء الاصطناعي التوليدي مازال يحتاج إلى مراجعة مستمرة في التصميم والتنظيم والتوظيف، بما يضمن ملاءمته لمجتمعاتنا العربية وللجنوب العالمي عمومًا.
وبناءً عليه، فإن بناء مستقبل أكثر موثوقية وإنصافًا يتطلب تكاملًا بين الجهود البحثية والمؤسسية، وتفعيل شراكات فاعلة بين الحكومات، ومراكز البحث، والمجتمع المدني؛ لضمان تطوير نماذج تراعي التنوع اللغوي والثقافي، وتلتزم بمبادئ الشفافية والمساءلة. كما يجب الاستثمار في تطوير بِنًى تحتية رقمية مستدامة، وتأهيل المستخدمين لاستخدام واعٍ وناقد لهذه الأدوات.
إن الذكاء الاصطناعي التوليدي، بالرغم من مخاطره، يحمل في طياته فرصة استثنائية لإعادة بناء أدواتنا المعرفية بما يخدم العدالة والتنمية والهوية الثقافية. ولا يكمن التحدي الحقيقي في كبح هذا التقدم، بل في توجيهه نحو أهداف عادلة وإنسانية، تُعزز السيادة الرقمية، وتُسهم في تحقيق مستقبل معرفي مستدام للمنطقة العربية والعالم.
[1] Russell and Norvig, Artificial Intelligence.
[2] OpenAI. “GPT-4 Technical Report.” OpenAI, March 27, 2023. https://cdn.openai.com/papers/gpt-4.pdf.
[3] Deloitte, “Four Emerging Categories of Gen AI Risks,” Deloitte Insights, 2024,
[4] European Commission. Ethics Guidelines for Trustworthy AI. April 2019. https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.
[5] Bommasani, Rishi, et al. On the Opportunities and Risks of Foundation Models. Stanford Center for Research on Foundation Models (CRFM), 2021. https://crfm.stanford.edu/report.html.
[6] OpenAI. GPT-4 Technical Report. March 27, 2023. https://cdn.openai.com/papers/gpt-4.pdf
[7] Weidinger, Laura, et al. “Ethical and Social Risks of Harm from Language Models.” arXiv preprintarXiv:2112.04359 (2021). https://arxiv.org/abs/2112.04359.
[8] Bernard Marr, “The 15 Biggest Risks of Artificial Intelligence,” Forbes, June 2, 2023, https://www.forbes.com/sites/bernardmarr/2023/06/02/the-15-biggest-risks-of-artificial-intelligence/.:contentReference[oaicite:5]{index=5}
[9]OpenAI. “GPT-4 Technical Report.” OpenAI, March 27, 2023. https://cdn.openai.com/papers/gpt-4.pdf
[10] Hungry Minded. “Tricking ChatGPT: Do Anything Now Prompt Injection – Seeds for the Future.” Medium, July 12, 2024. https://medium.com/seeds-for-the-future/tricking-chatgpt-do-anything-now-prompt-injection-a0f65c307f6b
[11] Mahdawi, Arwa. “The Secret Water Footprint of AI Technology.” The Markup, April 15, 2023. https://themarkup.org/hello-world/2023/04/15/the-secret-water-footprint-of-ai-technology.
[12] Soper, Taylor. “How Much Energy Do AI and ChatGPT Use? No One Knows for Sure.” Bloomberg, March 9, 2023. https://www.bloomberg.com/news/articles/2023-03-09/how-much-energy-do-ai-and-chatgpt-use-no-one-knows-for-sure?embedded-checkout=true.
[13] Deloitte, “Four Emerging Categories of Gen AI Risks.”
[14] Marr, “The 15 Biggest Risks of Artificial Intelligence.”
[15] Deloitte. “Four Emerging Categories of Gen AI Risks.” Deloitte Insights, 2024. https://www2.deloitte.com/us/en/insights/topics/digital-transformation/four-emerging-categories-of-gen-ai-risks.html.
[16] Deloitte, “Four Emerging Categories of Gen AI Risks.”
[17] Selbst, Andrew D., and Julia Powles. “Meaningful Information and the Right to Explanation.” International Data Privacy Law 7, no. 4 (2017): 233–242. https://doi.org/10.1093/idpl/ipx022.
[18] Bommasani, Rishi, et al. On the Opportunities and Risks of Foundation Models. Stanford Center for Research on Foundation Models (CRFM), 2021. https://crfm.stanford.edu/report.html.
[19] Skadden, Arps, Slate, Meagher & Flom LLP. “AI in 2024.” Skadden Insights, December 2023. https://www.skadden.com/insights/publications/2023/12/2024-insights/other-regulatory-developments/ai-in-2024.
[20] Weidinger, Laura, et al. “Ethical and Social Risks of Harm from Language Models.” arXiv preprint arXiv:2112.04359 (2021). https://arxiv.org/abs/2112.04359.
[21] Zhou, Jie, et al. “Prompt Engineering Techniques for Large Language Models.” arXiv preprint arXiv:2302.11382 (2023). https://arxiv.org/abs/2302.11382.
[22] Crawford, Kate. Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press, 2021.