مع استمرار مسار التحولات الراديكالية التي يشهدها التطور التكنولوجي، والتي تسهم في إعادة تشكيل بنية النظام الدولي وانعكاساته على كافة مناحي الحياة؛ بات ضروريًّا تناول الجدال القائم حاليًّا حول تداعيات ثورة “الذكاء الاصطناعي”.
هذا الجدال ينطلق من محاولة الوصول إلى المثالية أو الطوباوية التي لطالما كانت محورًا لتفكير البشرية، ومحطَّ تركيز الأطر الفلسفية التي سعت لوضع أسس لمجتمع تصبح فيه حياة الإنسان بلا سلبيات.
والسبب في ذلك ما اعتبره “مُنَظِّرُو الذكاء الاصطناعي” -إذا جاز التعبير- بأنه أحد مظاهر هذه المثالية، التي حاول العقل البشري إنتاجها لمساعدته في تحويل الخيال إلى واقع.
فالذكاء الاصطناعي، في كينونته، هو قمة الغاية الفلسفية التي تسعى لتحقيق رفاهية الإنسان وبناء “يوتوبيا” مجتمعية مثالية قائمة على الحكمة، والعدل، والمساواة، والحرية. كما أنه يعد تجسيدًا للجانب الوظيفي، من خلال التطور الذي قاده العقل البشري لترقية وتحسين شروط الحياة كغاية رئيسية من العمل الإنساني.
فالحكمة تتطلب معرفة واسعة وقواعد محددة للتفكير تساعد على اتخاذ القرارات الصحيحة في توقيتاتها المناسبة، وهو ما يجسده الذكاء الاصطناعي بقدراته في مجال جمع البيانات وتحليلها، ولاسيما في عملية الحوكمة وصناعة السياسات العامة، باعتباره نموذجًا محايدًا لصنع القرار السياسي، ويعمل على تحقيق الصالح العام، ما يساعد في الوصول إلى بناء مجتمعي مثالي يحقق الرفاهية للأفراد.
والرفاهية هي الهدف النهائي للمسعى البشري، والتي لن تتحقق إلا عبر تقليل المجهود البدني من خلال أدوات مساعدة، والتي بدأت منذ اختراع “الرافعة” في العصور القديمة، مرورًا بالمحركات البخارية، وأخيرًا أجهزة الحاسوب، التي كانت بداية التحول من عالم “الندرة” في القدرات البشرية، ودورها في إدارة وتطوير النظام العالمي بأبعاده المختلفة، إلى “الوفرة” في الحلول والسيناريوهات والقرارات التي تساعد في تحقيق حياة أفضل.
وبرغم وعود “الوفرة” التي سوف يحققها الذكاء الاصطناعي مستقبلًا، عبر مساعدة صانعي السياسات ومتخذي القرارات في توفير رؤى وتوصيات فاعلة تستند إلى تحليل كميات هائلة من البيانات للكشف عن الأنماط والاتجاهات التي قد لا تكون واضحة على الفور للمحللين أو صُنّاع القرار من البشر، فإن هناك مخاطر أثارتها الرؤى المناوئة، بدأت تظهر نتيجة ما يمكن تسميته بـ”خلل التوازن” في هذا النسق.
من هذه المخاوف مسألة الغياب التدريجي لقيم اللامركزية في الإدارة العامة، عبر تعزيز مركزية صنع القرار في الأنظمة الآلية، وأيضًا غياب الرقابة الشعبية / التمثيلية، وبالتالي إمكانية اتخاذ قرارات لا تحقق الرضا الكامل للأفراد أو رفاهيتهم المنشودة.
اللافت أن هذه المخاوف دعمتها مؤشرات تحدثت عنها مؤسسات ومنظمات دولية، وارتبطت أيضًا بمسألة إحلال الآلة محل البشر في العديد من المجالات، رغم أن الذكاء الاصطناعي من صنع البشر، ويعتمد على برمجته وتوجيهه بالشكل الذي يحقق المصالح العليا للدول والمجتمعات.
وبالتالي، فإن أي خلل في منظومة الذكاء الاصطناعي يرتبط بالجانب البشري بالأساس؛ المتحكم الرئيسي في مخرجاته.
وما بين مُدافع ومُحذّر، تبدو هناك ضرورة لبناء مصطلح “يوتوبيا الذكاء الاصطناعي”، باعتباره مرآة كاشفة لحقيقة هذه الثورة التكنولوجية وحدود مسؤوليتها، ومداخل التطوير المطلوب له للوصول إلى الـ”يوتوبيا المنشودة”.
ولفهم هذا الأمر، تبدو هناك ضرورة للوقوف على مصطلح “اليوتوبيا” كمدخل لبناء مصطلح “يوتوبيا الذكاء الاصطناعي”.
أولًا: اليوتوبيا واليوتوبيا السياسية.. المفهوم والخصائص:
بدأت بذور فكرة الـ”اليوتوبيا” من “المدينة الفاضلة” أو كاليبوليس” (Kallipolis) لدى الفيلسوف اليوناني أفلاطون، والتي وضع تصورًا لها، باعتبارها (مدينة/دولة) قائمة على أربعة أركان رئيسية، تمثل الفضائل الأساسية لأي مجتمع؛ وهي: الحكمة، والشجاعة، والاعتدال أو الطهارة، وأخيرًا العدالة.
هذه الأركان الأربعة، بحسب فكر أفلاطون، تقودها الفضيلة الأولى الرئيسية، وهي “الحكمة”، التي تعبر عن قرارات صائبة تَصدُر عن معرفة قيمية واسعة ورؤى لا تخطئ في التحليل وقراءة المشهد بكافة جوانبه، وتقود في النهاية إلى اتخاذ خطوات أو اعتماد سياسات تعمل لصالح المجتمع وأفراده، بقدر يحقق العدالة ويقضي على الفساد.
على ذات النهج؛ قدم الفيلسوف أبو النصر محمد الفارابي في كتابه “آراء أهل المدنية الفاضلة” الصادر في القرن العاشر الميلادي (الرابع الهجري)، تصورًا لـ”المثالية” تناول فيه رؤيته لمجتمع يسوده السلام والتناغم بين أفراده، ويستند أيضًا إلى ثلاثة مبادئ رئيسية؛ هي: الفضيلة، والحكمة، والسعادة.
اللافت هنا أن الفارابي تحدث عن الأخلاق تحت مسمى الفضيلة، باعتبارها المحرك الرئيسي “المفترض” لسلوك البشر، والتي تكون نواة لـ”الحكمة” التي هي أساس فكر الفارابي أيضًا، باعتباره حجرها الزاوية لبناء مجتمع مثالي خالٍ من الشرور والفساد، ويسوده الوئام.
ولكن شهد الفكر الفلسفي تحولًا في التناول على يد الكاتب البريطاني، السير توماس مور، في روايته يوتوبيا (Utopia) في عام 1516م، عن المثالية، إذ حاول بناء إطار هيكلي للمجتمع المثالي أو المدينة الفاضلة، رغم اعترافه بأنها “عالم مثالي خيالي لا وجود للصراعات والتوترات فيه”.
ومنذ إطلاق هذه الرواية بات مصطلح “يوتوبيا” يستخدم للتعبير عن “المثالية”، وهي كلمة مشتقة من الكلمة اليونانية Eu-Topos، التي تعني “مكانًا جيدًا”.
وقد لاقى هذا المصطلح رواجًا خلال عصر النهضة الإنجليزية حينها، وبدأ تناوله في إطار اجتماعي-سياسي، إذ اعتبره البعض نواة لحصيلة الإنتاج الفكري التالي، التي سعت لإعادة تنظيم الدول والمجتمعات الأوروبية، في ظل تآكل الاهتمام بالمسؤوليات الأخلاقية والسياسية للأفراد، نتيجة فوضى السياسات حينها والتنافس الصناعي على حساب الشعوب.
وعلى الرغم من أن عالَم توماس مور المثالي انحسر في رؤيته لبنية مجتمعه فقط، ولم يكن مثاليًّا بالنسبة لباقي الشعوب؛ بسبب تأكيده -صراحة- على ضرورة استمرار نظام “الرق” (العبودية)، فإنه كان أكثر تفصيلًا في رؤيته لنموذج الدولة أو المجتمع المثالي، بل تضمن اعترافًا بأنه لن يحدث أو يطبق على أرض الواقع، رغم اقترابه من الواقعية.
تلك الفرضيات الخيالية العامة التي طغت على آراء الفلاسفة الأوائل، قابلتها رؤى واقعية في التاريخ الحديث، استندت إلى ما يمكن تسميته بـ”المثالية العقلانية”، وسعت لبناء إطار نقدي للمجتمعات، في ظل التحولات الكبرى التي شهدتها الدول والمجتمعات بفعل التطور التكنولوجي.
ولكن؛ يمكن القول إن هذه الرؤى الواقعية كانت امتدادًا لفكر توماس مور، إذ تناولت تنظيم الدولة وعلاقتها بالمجتمع والأفراد، حتى الوصول إلى “رفاهية الفرد” باعتباره المُستهدَف الأساسي لـ”المدنية الفاضلة”.
ولعل أبرز تلك الأطر ما طرحه توماس هوبز في كتابه “الليفاثان” الصادر عام 1651م، حيث تناول فيه إعادة تنظيم الدولة وفق “عقد اجتماعي جديد”، يضمن السلام والاستقرار، كمدخل آخر لـ”المثالية”.
واستمرارًا لذات النهج، تحدث جورج فريدريش هيجل عن المثالية، ولكن استنادًا إلى مبدأ “التطور” أو “التطوير” في المجتمع، حتى يصل إلى نمط “الدولة” التي اعتبرها رمزًا لـ”العقلانية” التي كانت محورًا أساسيًّا في رؤيته لبناء كيان عادل و”مثالي”.
فقد أكد هيجل أن الدولة شكل تنظيمي يجسد العقل ويحقق الحرية الحقيقية للأفراد، وأن رفاهية المجتمع غاية تسعى مؤسسات الدولة العقلانية لتحقيقها من خلال التوفيق بين المصلحة الفردية والجماعية ضمن إطار تنظيمي تحكمه المبادئ العقلانية، التي اعتبرها أساس “المثالية المطلقة”.
وبرغم أن هيجل يرى أن العقلانية هي نظير الواقعية، إلا أنها استمرت أيضًا كإطار خيالي لا يمكن تحديده بشكل واضح، خصوصًا مع عدم وضوح ما المقصود بـ”العقلانية”.
تلك النزعة المثالية، انتقدها أنطونيو جرامشي، واعتبرها أداة يتم استخدامها للسيطرة على الأفكار وضمان استمرار السياسات والواقع الراهن، من دون محاولة للتغيير.
إن تطور الأفكار في تعريف الـ”يوتوبيا” وتنازعها بين الخيال ومحاولة تطبيقها على أرض الواقع، حمل ثلاث خصائص رئيسية؛ هي:
– أن اليوتوبيا هي مكان وحالة خيالية، مستحيل الوصول إليه. ويعد هذا الأمر متسقًا مع طبيعة البشر التي تحمل بين طياتها صفات السيطرة والاستحواذ بدرجات مختلفة.
– تهدف اليوتوبيا إلى وضع تصور عام عالي المستوى لإعادة تنظيم المجتمعات، بحيث يتم تصفير الصراعات وإنهاء التوترات الاجتماعية، وهي تعتبر تطورًا لفكر الفلاسفة الأوائل الذين حاولوا الإجابة عن سؤال رئيسي: كيف يمكن بناء عالم الفضيلة والأخلاق في الواقع؟
– تطور تناول الـ”يوتوبيا” من الإطار الفلسفي إلى قولبته كمنهج نقدي لواقع فوضوي يجب تغييره، في محاولة تقدمية لتطبيقه في الواقع، وذلك عبر إطار اجتماعي-سياسي.
وفيما يتعلق بمصطلح الـ”يوتوبيا السياسية” (Political Utopia) يمكن القول إنه يمثل الجانب الوظيفي للمصطلح الأم، إذ يصف “مجتمعًا سياسيًّا مثاليًّا، يتميز بالسلام والمساواة بين البشر، في إطار هندسة اجتماعية بنيوية تهدف إلى تحقيق رفاهة الأفراد ومصالحهم، بهدف الوصول إلى أقصى درجات الرضا العام”.
ولكن، تجدر الإشارة إلى أن اليوتوبيا بشكل عام، واليوتوبيا السياسية على وجه الخصوص، بعد قولبتها منهجيًّا، باتت أداة نقدية لـ”البنى الاجتماعية والمجتمعية القائمة بشكل غير مباشر”، كما يتم توظيفها كإطار استرشادي لإحداث تغيير اجتماعي وسياسي إيجابي.
وبنظرة أعمق؛ يمكن القول إن ربط مصطلح الـ”يوتوبيا” بأي مجال ينطوي على العديد من الدلالات والإشارات التي تحتاج إلى إعادة تناول وتدبر.
الدلالة الأولى تشير إلى أن التفكير في مسألة الـ”يوتوبيا” أو “المثالية” دائمًا ما يرتبط بوجود حالة من الفوضى وعدم القدرة على السيطرة عليها، بل بات استمرارها أمرًا يهدد البنية القائمة بالفعل؛ ما يستوجب التدخل العاجل.
هذه الحالة تدفع بالضرورة نحو البحث عن نمط لتغيير هذا الواقع أو إصلاحه على أقل تقدير، كتحرك استباقي يبدأ بطرح الأفكار ثم التركيز على مكامن الخطر، ثم مناقشة هذه الطروحات، وأخيرًا بناءُ نمطٍ واقعي للتغير أو الإصلاح.
الدلالة الثانية ترتبط بسمات حالة الفوضى التي تدفع إلى بناء نمط مثالي، والتي يتمثل أبرزها في ارتفاع منسوب الصراعات داخل هذه البيئة، التي قد تصل إلى مستوى يهدد المجتمعات، ومن ثَمّ الأمن القومي.
أما الدلالة الثالثة فتتمثل في تزايد الانعكاسات والتأثيرات السلبية على الواقع الراهن، وهي تأثيرات ذات سمة فوضوية، على المميزات والإيجابيات المتوقعة؛ ما يعني أن استمرار هذه الحالة يقود إلى نقطة الصدام ثم الانهيار.
مما سبق؛ يبدو أن هناك ضرورة لوضع تعريف لمصطلح “يوتوبيا الذكاء الاصطناعي” لما يتضمنه من أداة نقد تكشف عيوب تزايد الاعتماد عليه في الأمور الحياتية بشكل عام، والسياسية على وجه الخصوص. فضلًا عن محاولة إعادة ضبط الجانب الوظيفي-البنائي، وحدود استخدامه فيما يتعلق بالإدارة والسياسة العامة.
ثانيًا: “يوتوبيا الذكاء الاصطناعي”.. المفهوم والسمات:
يعتمد بناء مصطلح “يوتوبيا الذكاء الاصطناعي” على الهدف الرئيسي من خطط تطويره التي تسعى لتحسين حياة البشرية. ومثل المصطلحات الاجتماعية عمومًا، والسياسية على وجه الخصوص، فإن التعريف يتضمن النسق الوظيفي المأمول لهذا التطور التكنولوجي.
ويمكن تعريف مصطلح “يوتوبيا الذكاء الاصطناعي” بشكل عام بأنه: “تصور يتكامل فيه الذكاء الاصطناعي بسلاسة مع حياة الإنسان؛ ما يعزز الإنتاجية والابتكار، ويحقق الرفاهية العامة للبشر، ويحقق أيضًا حالة رضا عامّة من توزيع للقيم السياسية والاقتصادية والاجتماعية بالمساواة من دون تمييز، ضمن هدف رئيسي، وهو الدمج الكامل بين الإنسان والآلة لتعظيم القدرات البشرية”.
على ضوء التعريف السابق؛ فإن “يوتوبيا الذكاء الاصطناعي” تهدف إلى مساعدة البشر، وذلك عبر تعزيز سيطرتهم بشكل كامل في برمجته ومراجعتها بهدف الحد من نمط التعلّم الذاتي له، وذلك عبر صياغة “عقد اجتماعي جديد” يعمل بموجبه الذكاء الاصطناعي لخدمة الدول والحكومات والشعوب لتحقيق الوفرة المطلوبة. وهذه الرؤية تقترب من أفكار توماس مور وتوماس هوبز وأيضًا جورج هيجل، التي تحدثوا فيها عن تنظيم للعلاقة وليس سيطرة طرف على آخر.
وهناك سمة أخرى يُعنَى بها “يوتوبيا الذكاء الاصطناعي” بشكل واضح، وهي ضرورة التركيز على تعزيز ومضاعفة القدرات العقلية البشرية، وذلك انطلاقًا من قاعدة تؤكد أن “التكنولوجيا عامل مساعد للإنسان مثل الآلات”.
من ناحية أخرى؛ فإن النمط المثالي لـ”الذكاء الاصطناعي” يجب أن يعزز دور القطاع الخاص في السوق ويساعد في تصحيح إخفاقاته.
ويمتد النمط الوظيفي لـ”الذكاء الاصطناعي المثالي” إلى تعزيز وتحسين الإجراءات والسياسات العامة؛ وذلك بهدف مواجهة التغير المناخي، عبر تحسين شبكات الطاقة، وتطوير حلول مستدامة تساعدنا على العيش في تناغم مع البيئة، وأيضًا مواجهة الأوبئة والأمراض من خلال تطوير التكنولوجيا الطبية؛ لدعم قدرتها على تشخيص الأمراض وعلاجها بدقة لا تخطئ؛ ما يؤدي إلى زيادة كبيرة في العمر الافتراضي وصحة السكان.
فضلًا عن القيام بجميع الأعمال ذات القيمة الاقتصادية بتكلفة تقترب من الصفر، وذلك عبر تحويل التركيز المجتمعي من النمو الاقتصادي إلى الرفاهية الإنسانية وتحقيق الذات، وهو ما يساعد في القضاء على الفقر، عبر تخلي البشر عن الوظائف والمهام الشاقة ذات الدخل المنخفض للذكاء الاصطناعي؛ ما يوفر العمالة البشرية لمساعٍ أكثر إبداعًا بشكل يضمن دخلًا شاملًا يلبي الاحتياجات الأساسية لكل شخص.
كل ما سبق؛ يساعد في اختفاء اقتصاد الندرة، وذلك عبر القضاء على القيود المادية؛ ما يسمح بإنتاج السلع بوفرة، وأيضًا تقديم الخدمات بشكل مجاني أو برسوم رمزية.
أما من الناحية السياسية، فيمكن تعريف “يوتوبيا الذكاء الاصطناعي” بأنها: “تصور لمجتمع تساعد فيه برامج الذكاء الاصطناعي حكومات الدول على تحقيق إدارة مثالية لشؤون البلاد، عبر رسم سياسات وخطط متعددة الآجال، تهدف إلى تحقيق المصالح الوطنية العليا، فضلًا عن اتخاذ قرارات محايدة تساعد على إقرار الأمان والحرية المطلقة للأفراد، في ظل بيئة عادلة تمامًا تتسم بالشفافية ويختفي فيها الفساد، حتى الوصول إلى نظام حكم عالمي تديره أنماط تكنولوجية تتبع نسق الرقابة على القرارات السياسية بشكل محايد؛ لتحقيق الأمن العالمي وبدء عصر نهضة للبشرية جميعًا“.
وتتمثل أبرز سمات هذا التعريف في الاعتماد على الذكاء الاصطناعي في صنع السياسات لتعزيز الحوكمة وتحقيق الحكم الرشيد، وهو ما يدفع نحو تغيير جوهري في مناهج الحوكمة المرتبطة ببنية الهياكل السياسية العامة، وفق أطر وقواعد أخلاقية استرشادية، عبر استخدام تحليلات البيانات المتقدمة والتعلم الآلي، لرسم سياسات مجتمعية شاملة تؤدي في النهاية إلى تحقيق رفاهية الشعوب.
ويستند هذا النمط الوظيفي إلى تحليل البيانات الشاملة لتحديد الاتجاهات الاجتماعية والاقتصادية للمجتمع والنظام العالمي؛ ما يساعد على التنبؤ بنتائج التدخلات السياسية المختلفة، ونمذجة السيناريوهات المستقبلية، وبالتالي تعزيز قدرة الحكومات على صياغة سياسات أكثر قابلية للتكيف مع الاحتياجات المتغيرة لسكانها.
وتساعد وظيفة تحليل البيانات الشاملة أيضًا بتعزيز دور “الذكاء الاصطناعي” في تعديل الأطر السياسية في الوقت المناسب، لمواجهة أي تغيرات طارئة أو مفاجئة، في كافة القطاعات الأمنية والصحية والاجتماعية والاقتصادية.
ولا يقتصر دور الذكاء الاصطناعي هنا على دعم وتعزيز سياسيات الحوكمة، بل يقود أيضًا إلى تحقيق التوازن بين الكفاءة المعزَّزة بالذكاء الاصطناعي والعدل والمساواة في توزيع القيم المختلفة، خصوصًا فيما يتعلق بالتوظيف وتقديم الخدمات المختلفة، فضلًا عن تعزيز الأمن والسلم العالمي عبر إنهاء الحروب واختفاء الصراعات، وبدء مسارات النهضة العالمية.
فالذكاء الاصطناعي المثالي يهدف سياسيًّا إلى تعزيز الحوكمة والحكم الرشيد، من خلال الوصول إلى أعلى معدّل من الكفاءة في تحقيق المهام المطلوبة، إلى جانب تحسين عملية اتخاذ القرارات عبر تحليل البيانات، وأيضًا تعزيز سرعة الاستجابة للمتطلبات المختلفة.
فالبيانات تعلب دورًا مهمًّا في أن تكون إجراءات المؤسسات مرئية ومدققة؛ ما يؤدي إلى تعزيز الثقة والشفافية، ويعالج أوجه القصور في مسألة عدم المساواة، عبر بناء تقنيات تقييم عادلة، تضمن الامتثال الأخلاقي والقانوني من قِبَل الجميع.
وهو ما يتطلب تحقيق حوكمة قوية للذكاء الاصطناعي، عبر تأهيله بأطر أخلاقية وقانونية تركز على السلامة والعدل والشفافية والمساءلة؛ لمنع مخاطر مثل التحيز، وإساءة استخدام البيانات.
ثالثا: التحديات التي تواجه “يوتوبيا الذكاء الاصطناعي”
على الرغم من إيجابية مصطلح “يوتوبيا الذكاء الاصطناعي”؛ فإن ثمة تحديات تواجه البشرية من فكرة الذكاء الاصطناعي. ولعل أبرزها المخاوف من التوسع غير المنضبط لهذا الذكاء في المجالات المختلفة، ولاسيما السياسية منها، وانعكاساتها في الواقع، وما يتضمنه ذلك من حالة فوضى قد يؤدي استمرارها إلى عواقب وسلبيات.
أبرز هذه المخاوف ومحورها يرتبط بما يسمى خطر تحيز الخوارزميات (Bias of Algorithm) وانعكاساته على اتخاذ القرارات ورسم السياسات، إذ يمكن أن تتخذ أنظمة الذكاء الاصطناعي قرارات بناء على بيانات متحيزة أو غير مكتملة يتم إدخالها سابقًا، ويمكن أن يؤدي ذلك إلى نتائج غير عادلة على صعيد السياسات؛ ما يعزز أوجه عدم المساواة الاجتماعية القائمة.
اللافت أن هذه الأنظمة تتعلم “التحيز” “دون قصد”، بمعنى أن التحيزات قد تكون موجودة في بيانات التدريب وتظهر في خوارزميات التعلم الآلي (ML) ونماذج التعلم العميق التي تدعم تطوير الذكاء الاصطناعي، كما أن هذه التحيزات “المكتسبة” يمكن أن تستمر أثناء نشر الذكاء الاصطناعي، ما يؤدي إلى نتائج عكسية.
هذه المخاوف حملت بين طياتها الرد عليها؛ إذ إن التحيز الخوارزمي يشير بوضوح إلى “الأخطاء المنهجية” والمتكررة في الذكاء الاصطناعي، التي تؤدي إلى نتائج غير عادلة، حيث إن مخرجات الذكاء الاصطناعي مرتبطة بالبيانات التي تم تغذيته بها بشريًّا، أو نتيجة خلل يستدعي تدخلًا بشريًّا لمعالجته. فالأساس هو إعادة تقييم “بشري” للبرمجة بشكل دوري، وفق معايير أخلاقية وإنسانية.
فالواقع يشير إلى أن “التحيز الخوارزمي” يتحمل مسؤوليته العنصر البشري ذاته؛ إذ يبدأ بـ”تحيز البيانات” الذي يعني إدخال بيانات مَعِيبة تفتقر إلى الحياد، ما يؤدي إلى نتائج غير عادلة، ومع دورة التعليم الآلي والذاتي، تديم الخوارزميات الأنماط المتحيزة نفسها؛ ما يقود في النهاية إلى نتائج غير دقيقة باستمرار.
ويمكن أن ينشأ “التحيز” أيضًا في أثناء “مرحلة تدريب” الذكاء الاصطناعي، إذا تم تصنيف البيانات أو تقييمها بشكل غير صحيح، ويمكن للخوارزميات “التعلُّم” من ارتباط البيانات بدلًا من السببية؛ لأنها لا تمتلك القدرات على فهم الفرق، وبالتالي يكون الناتج متحيزًا.
من ناحية أخرى، قد يؤدي تصميم الخوارزميات نفسها إلى “التحيز”، بمعنى أنه يمكن أن تنتقل أخطاء البرمجة بترجيح عوامل غير عادل في عملية صنع القرار.
وبالتالي تبدو هناك ضرورة لوضع استراتيجية “حوكمة الذكاء الاصطناعي” تشمل الأطر والسياسات والعمليات التي تواجه التطوير والاستخدام المسؤول لهذه التقنيات.
وهو ما يمكن أن يتحقق عبر تضمين بيانات تعزز العدالة ودمج مقاييسها في نمط التعلم الآلي-الذاتي، مع الإشراف البشري لمراجعة أخلاقيات (خوارزميات) الذكاء الاصطناعي؛ ما يفرض أيضًا اختيار نموذج التعلُّم الصحيح.
هناك أيضًا مخاوف من احتكار تكنولوجيا الذكاء الاصطناعي والسيطرة عليها من جانب مجموعة الأشخاص والشركات، والتي تُعدُّ تحديًا واضحًا لفكرة “اليوتوبيا”. فصناعة الذكاء الاصطناعي مُعرّضة بالفعل لخطر الاحتكار من قبل شركات التكنولوجيا التي عززت هيمنتها في هذا المجال؛ ما سيجعل هذا القطاع المهم أقل ابتكارًا ومرونة، وأقل استجابة لسياسات الحكومات والدول.
وقد قفر عمالقة التكنولوجيا إلى طليعة تطوير الذكاء الاصطناعي، باعتبارهم مورّدين أساسيين لأنظمة تكنولوجيا الذكاء الاصطناعي، استنادًا إلى قوتهم السوقية أيضًا.
ومع تسارع اعتماد الذكاء الاصطناعي، ثمة مخاوف من تمكُّن شركات التكنولوجيا الحالية أيضًا من الاستفادة من منصات التوزيع لمنح نفسها والشركات التابعة لها ميزة على المنافسين في الأسواق.
لكن، تمتلك الحكومات أيضًا مجموعة من الأدوات لتعزيز صناعة الذكاء الاصطناعي عبر اتخاذ قرارات وسياسات وإجراءات تحدُّ من الاحتكار وتعزز الانفتاح والتنافسية.
في الواقع، إن فكرة “الذكاء الاصطناعي” أساسها نبيل، وتهدف إلى تحسين حياة البشرية، لكن دينامية السياسة والتنافس في الميادين المختلفة قد تضر بالمصالح العامة، وتزيد من حدة الصراعات؛ ما يتطلب إرادة سياسية عالمية، لضبط الأداء وإعادة توظيفه لتحقيق مهامه الأصيلة.
وخصوصًا أن العامل البشري هو الأساس، سواء في بناء أو تطوير أنظمة وبرامج وتطبيقات هذه التكنولوجيا، أو المسؤولية المرتبطة بالرقابة، أو حتى الاقتراب من تحقيق “يوتوبيا الذكاء الاصطناعي”.