يمثّل الذكاء الاصطناعي التوليدي منذ عام 2022 تحديًّا غير مسبوق لمؤسسات التعليم العالي في فرنسا والعالم، إذ يفرض هذا التحدي إعادةَ التفكير في طرق التعليم، وأنماط البحث، وأشكال التقييم الجامعي. وفي هذا السياق، قدّم تقرير حكومي فرنسي حديث بعنوان “الذكاء الاصطناعي والتعليم العالي: التأهيل، الهيكلة والتملّك المجتمعي”[1] رؤية شاملة حول كيفية دمج هذه التكنولوجيا في الحقل الجامعي الفرنسي، مستندًا إلى استبيان واسع ومشاورات مؤسساتية.
تهدف هذه الدراسة إلى تقديم قراءة نقدية أكاديمية لهذا التقرير، من خلال تحليل مضمونه، وإبراز إشكالاته غير المحسومة، ومناقشة توصياته الست الكبرى. وتطرح الدراسة في النهاية السؤال المحوري: هل ستظل الجامعة مجرد متلقٍّ للتكنولوجيا، أم ستتحول إلى فاعل رئيسي في صوغ علاقتنا الجديدة بالمعرفة في عصر الذكاء الاصطناعي؟
1. ملامح الثورة الرقمية والذكاء الاصطناعي في التعليم العالي
يمثل الذكاء الاصطناعي اليوم، كما جاء في التقرير، ثورة تكنولوجية غير مسبوقة تمسّ البنية العميقة للمعرفة الإنسانية، سواء في طرائق إنتاجها أو في أشكال تداولها داخل المجتمع. ويؤكد معدّو الوثيقة أنّ الانتشار السريع للتطبيقات التوليدية منذ نهاية عام 2022 قد جعل الذكاء الاصطناعي متاحًا للجميع، ففتح بذلك الباب أمام فرص هائلة، لكنه في الوقت نفسه أثار قلقًا عميقًا لدى الفاعلين الأكاديميين والاجتماعيين.
1.1 من العلم الأكاديمي إلى هيمنة القطاع الخاص
يضع التقرير خلفية تاريخية دقيقة لمسار الذكاء الاصطناعي منذ ظهوره كمجال بحث أكاديمي في منتصف القرن العشرين. فقد كان في بدايته مرتبطًا أساسًا بالبحوث الجامعية والأنشطة النظرية في علوم الحاسوب والرياضيات. لكن مع بروز التعلم العميق (Deep Learning) منذ عام 2009، ثم إدخال تقنيات الـ transformers عام 2017، انتقل الذكاء الاصطناعي من دائرة البحث النظري إلى دائرة التطبيق العملي الواسع، فأصبحت الشركات الخاصة هي المحرك الأساسي للتطوير والاستثمار.
ويُظهر التقرير أنّ هذا التحوّل أفضى إلى وضع غير متكافئ: فبينما أسهمت الأوساط الجامعية في وضع الأسس النظرية، باتت الشركات الكبرى (مثل OpenAI وGoogle تسيطر على النماذج التوليدية الأكثر تطورًا؛ نظرًا إلى امتلاكها الموارد المادية والبنى التحتية الحاسوبية الهائلة. والنتيجة هي تراجع القدرة الأكاديمية على المنافسة في مجال “النماذج التأسيسية” التي تتطلب إمكانات مالية وتقنية تتجاوز ما تتيحه الجامعات ومراكز البحث العامة.
2.1 تسارع غير مسبوق منذ عام 2022
يشير التقرير إلى أنّ إطلاق ChatGPT في نوفمبر 2022 مثّل نقطة تحوّل مفصلية. فمنذ ذلك الحين، دخل الذكاء الاصطناعي التوليدي مرحلة من الانتشار الشعبي الهائل؛ ما أدى إلى تسارع الاستثمارات العالمية وسباق محموم بين الشركات. وبرغم هذا الزخم، فإن التقرير يؤكد أن الفوارق بين النسخ المتتالية من النماذج لم تعد دائمًا نوعية، بل كثيرًا ما تُسوَّق التحسينات بشكل مبالغ فيه؛ ما يخلق انطباعًا مضخَّمًا عن قدراتها.
كما يُبرِزُ التقرير مشكلة بنيوية تتعلق بالجدوى الاقتصادية: الكلفة الباهظة للتشغيل والتدريب تجعل معظم الشركات عاجزة عن تحقيق ربح حقيقي؛ ما يهدد استدامة هذا القطاع. فكل استدعاء للنظام التوليدي يستهلك طاقة وموارد حاسوبية على نحو لا يمكن مقارنته بخدمات رقمية أخرى، وهو ما يطرح أسئلة عن إمكان استمرارية هذه الخدمات من دون إعادة نظر في نماذج التمويل والاشتراك.
3.1 الفجوة بين الخطاب والواقع
يلفت التقرير إلى أنّ الخطاب الإعلامي والتجاري حول الذكاء الاصطناعي التوليدي كثيرًا ما يخلط بين مستويات مختلفة، وذلك على النحو الآتي:
- تطوير النماذج التأسيسية (foundation models) الذي يتطلب سنوات من العمل وموارد ضخمة.
- عمليات التخصيص والضبط الدقيق (fine-tuning, LoRA).
- التطبيقات السطحية، مثل بناء واجهات محادثة أو “شات بوت” يعتمد أساسًا على نموذج جاهز.
ويحذر التقرير من وضع كل هذه المستويات على قدم المساواة؛ لأن ذلك قد يؤدي إلى سوء تقدير للجهود العلمية الحقيقية أو إلى إغفال التفاوت الكبير بين الإنجازات التقنية الفعلية والتطبيقات التجارية ذات الطابع الاستهلاكي.
4.1 الاستخدام في الجامعات: واقع غير متوازن
رصد التقرير عبر الاستبيان الميداني أنّ استخدام الذكاء الاصطناعي في مؤسسات التعليم العالي الفرنسية لايزال غير متكافئ، وقد لوحظ الآتي:
- الطلاب هم الأكثر اندفاعًا نحو الاستخدام الأسبوعي (68% منهم يستعملون أدوات الذكاء الاصطناعي بانتظام).
- الأساتذة والباحثون يتبنون هذه الأدوات بشكل أبطأ، وإن كان نصفهم تقريبًا يستخدمها أسبوعيًّا.
- الإداريون في مؤخرة الركب، حيث يظهر تردد ملحوظ ونقص في التأهيل.
ويتضح أنّ هذا الاستخدام يجري بجهود فردية أكثر من كونه مُمأسسًا أو مدعومًا من الجامعات. بل إن أغلب الأدوات المستعملة (خصوصًا ChatGPT) لم توفَّر من طرف المؤسسات التعليمية نفسها، وإنما يلجأ إليها المستخدمون بشكل مستقل؛ ما أدى إلى خلق فراغ مؤسسيّ في الإشراف والتوجيه.
5.1 المخاطر والإشكالات
يتوقف التقرير مطولًا عند المخاطر المرتبطة بتوسع الذكاء الاصطناعي في التعليم العالي، ومنها:
- المخاطر المعرفية: تهديد قدرات التفكير النقدي والاستقلالية الذهنية للطلاب.
- المخاطر الأخلاقية: انتشار الانتحال الأكاديمي وصعوبة التحقق من الأصالة.
- المخاطر الاجتماعية: تعميق الفوارق بين الجامعات القادرة على الاستثمار في هذه التقنيات وتلك التي تفتقر إلى الموارد.
- المخاطر البيئية: تكلفة الطاقة الضخمة في التدريب والاستخدام اليومي للنماذج التوليدية، في ظل غياب بيانات دقيقة وشفافة عن البصمة الكربونية.
2. الوضع الراهن في الجامعات الفرنسية
يكشف التقرير بوضوح أنّ دمج الذكاء الاصطناعي في التعليم العالي الفرنسي لايزال في مرحلة تجريبية متفرقة، يغلب عليها الطابع الفردي أكثر من الطابع المؤسسي. فبينما يشهد العالم سباقًا محمومًا نحو تبنّي تقنيات الذكاء الاصطناعي، يتسم المشهد الفرنسي بالتباين، وبغياب رؤية جامعة قادرة على توحيد الجهود وضمان تكافؤ الفرص بين مختلف الفاعلين.
1.2 هيمنة المبادرات الفردية
تشير نتائج الاستبيان الذي اعتمدته اللجنة إلى أن الاستخدام الأوضح للذكاء الاصطناعي داخل الجامعات الفرنسية يجري بمبادرة من الأفراد، سواء كانوا طلابًا أو أساتذة، فيلجأ هؤلاء إلى الأدوات التوليدية المتاحة على الإنترنت، وخاصة (ChatGPT) خارج أي إطار تنظيمي رسمي.
- نحو 68% من الطلاب يستخدمون أدوات الذكاء الاصطناعي بانتظام، مقابل 50% من الأساتذة يلجؤون إليها بشكل أسبوعي.
- في المقابل، يظهر الموظفون الإداريون أقل اندماجًا مع هذه الأدوات؛ سواء بسبب ضعف التأهيل أو محدودية الحوافز المؤسسية.
هذا الواقع يعكس حالة “اللامأسسة”: أي أن الاعتماد على الذكاء الاصطناعي يجري في الغالب من دون أن تواكبه سياسات جامعية أو لوائح تحدد الاستخدامات المشروعة أو المحظورة. والنتيجة هي فجوة بين الممارسات اليومية وبين الأطر القانونية والتنظيمية، ما يترك مساحة واسعة للارتباك والالتباس.
2.2 محدودية الاستخدام البيداغوجي[2]
برغم الانتشار الواسع، يبرز التقرير أن التوظيف البيداغوجي للذكاء الاصطناعي مايزال ضعيفًا، فالمحاولات التي ظهرت في بعض المؤسسات لم تتجاوز نطاق التجريب الفردي، وغالبًا ما تفتقر إلى تقييم علمي صارم يقيس أثرها على جودة التعليم والتعلم.
- الاستخدام الأشيع بين الطلاب يتمثل في المساعدة على إنجاز المهام المدرسية أو صوغ النصوص.
- الأساتذة يستخدمون الأدوات بدرجة أقل في التحضير للدروس أو البحث عن مصادر إضافية.
- أما على مستوى تصميم المناهج أو أساليب التقييم، فإن التقرير يسجل غيابًا شبه كامل لاستراتيجيات واضحة.
ويحذّر معدّو الوثيقة من أن استمرار الوضع الحالي قد يفضي إلى أزمة حقيقية في نظام التقييم الجامعي، إذ يصبح من الصعب التمييز بين ما هو نتاج عمل الطالب وما هو مستند إلى أدوات الذكاء الاصطناعي.
3.2 غياب الأدوات الرسمية
يبرز التقرير أيضًا أن الأدوات الأكثر استخدامًا، مثل: ChatGPT، Mistral، Gemini لم توفرها الجامعات نفسها، وإنما يلجأ إليها المستخدمون بشكل مستقل. في المقابل، تبدو بعض المحاولات المؤسسية محصورة في برامج تجريبية محدودة النطاق، وغالبًا ما تكون تقنية أكثر منها بيداغوجية.
- الإداريون هم الفئة الأكثر اعتمادًا على الأدوات الرسمية التي توفرها المؤسسات، لكن نسبة توافُر هذه الأدوات ضعيفة جدًا.
- الطلاب والأساتذة يعتمدون على حلول شخصية، ما يفتح الباب أمام مخاطر متعلقة بحماية البيانات، وغياب التوافق مع السياسات الوطنية.
هذا الغياب يعكس تردّد المؤسسات في تحمل مسؤولية مباشرة عن توفير أدوات قد تثير جدلًا أخلاقيًّا أو تربويًّا. لكنه في الوقت نفسه يترك الطلاب والأساتذة في مواجهة تحديات معقدة من دون دعم مؤسسي.
4.2 فجوة التأهيل والتدريب
تكشف بيانات التقرير أن أكثر من 55% من الطلاب والموظفين غير المدرسين، و43% من الأساتذة، لم يتلقوا أي تدريب رسمي حول استخدام الذكاء الاصطناعي. ويعتمد معظمهم على التعلم الذاتي أو الممارسة العفوية، وهو ما يثير إشكالات عدة:
- غياب الفهم النقدي العميق لكيفية عمل النماذج التوليدية.
- الميل إلى إساءة استخدام الأدوات من دون وعي بالمخاطر.
- تكريس “وهم الكفاءة”؛ إذ يعتقد المستخدم أنه متمكن بينما يفتقر إلى الأسس التقنية والمعرفية.
هذا الخلل البنيوي في التأهيل يهدد بتوسيع الفوارق بين الطلاب والمؤسسات، ويضعف قدرة فرنسا على بناء قاعدة معرفية صلبة حول الذكاء الاصطناعي.
5.2 الارتباك الإداري والتنظيمي
يسجل التقرير أنّ غياب سياسة مؤسسية واضحة يجعل العديد من الإداريين وأعضاء الهيئة التعليمية غير متأكدين من الوضع القانوني والأكاديمي لاستخدام الذكاء الاصطناعي. فبعضهم يعدّ غياب التوجيه المؤسسي شكلًا من أشكال “اللامبالاة”، بينما يراه آخرون مؤشرًا إلى حالة انتظار وحذر قبل صوغ أطر رسمية.
النتيجة هي تضارب في الممارسات:
- هناك أساتذة يسمحون باستخدام الأدوات من دون قيود.
- وآخرون يفرضون حظرًا صارمًا.
- بينما تختار بعض المؤسسات الصمت، ما يترك الطلاب في حالة غموض دائم.
3. التوصيات الست الكبرى
انتهى التقرير إلى صوغ حزمة من ستة محاور كبرى للتوصيات، تهدف إلى ضمان تبني الذكاء الاصطناعي في التعليم العالي بطريقة مسؤولة، شاملة، ومتوازنة. وتتميز هذه التوصيات بترابطها، إذ لا يمكن لأيٍّ منها أن تحقق نتائج ملموسة بمعزل عن الأخرى. وفيما يأتي عرض لهذه التوصيات مع تحليل نقدي لكل منها.
1.3 المحور الأول: التأهيل الشامل للطلاب والأساتذة
تضع اللجنة في المرتبة الأولى أولوية التأهيل، وترى أن كل إصلاح آخر مرهون بوجود قاعدة صلبة من المعارف والمهارات المرتبطة بالذكاء الاصطناعي. وتشمل هذه التوصية:
- تعميم التوعية بالذكاء الاصطناعي على جميع الطلاب في مختلف التخصصات.
- إدماج مكوّنات X+IA (أي إضافة الذكاء الاصطناعي إلى كل تخصص) في البرامج.
- إدراج تدريب خاص للمدرسين والباحثين، باعتبارهم حلقة مفصلية بين التكنولوجيا والطلاب.
- تحديث مسارات تأهيل المعلمين المستقبليين بحيث يستوعبون الاستخدامات والتأثيرات المحتملة للذكاء الاصطناعي.
تحليل نقدي: هذه التوصية تعكس وعيًا بأن المعرفة التقنية وحدها غير كافية، وأن المطلوب هو تأهيل نقدي وأخلاقي إلى جانب المهارات العملية. لكن حدودها تكمن في غياب آليات واضحة لتمويل هذا التأهيل وضمان تكافئه بين مختلف الجامعات؛ خصوصًا بين المؤسسات المركزية الكبرى وتلك الموجودة في الأقاليم.
2.3 المحور الثاني: تشجيع التجريب والابتكار
يشدد التقرير على ضرورة تحويل الجامعات إلى مختبرات حيّة لتجريب الذكاء الاصطناعي، ليس في مجال التعليم فقط، بل في الإدارة والحياة الطلابية أيضًا. الهدف هو تطوير استخدامات عملية قابلة للتعميم على نطاق وطني. ويقترح التقرير تمويل برامج بحث-عمل (Recherche-Action) تتيح للطلاب والأساتذة والإداريين المشاركة في ابتكار حالات استخدام جديدة.
تحليل نقدي: قوة هذا التوجه تكمن في منح الجامعات هامشًا من الحرية لتطوير نماذج مبتكرة. غير أنّ غياب إطار قانوني وأخلاقي محدّد قد يعرّض هذه التجارب إلى انتقادات تتعلق بحماية البيانات، أو قد يجعلها رهينة لاستخدامات سطحية تفتقر إلى تقييم علمي جادّ.
3.3 المحور الثالث: إعادة تعريف دور الجامعة
يرى التقرير أن الذكاء الاصطناعي يفرض إعادة نظر جذرية في النموذج التربوي الجامعي، عبر:
- تجاوز نموذج “التلقين العمودي” نحو تعليم تفاعلي قائم على المشاركة.
- إعادة التفكير في أساليب التقييم لضمان صدقية الشهادات ومصداقية الكفاءات.
- تعزيز مكانة الطلاب كمشاركين نشطين في إنتاج المعرفة بدلًا من الاكتفاء بدور المتلقي.
تحليل نقدي: هذه الرؤية الطموح تضع الذكاء الاصطناعي في قلب تحول بيداغوجي شامل، لكنها تثير أيضًا مخاوف حول احتمال تقويض سلطة المعلم أو إضعاف القيمة الرمزية للتعليم التقليدي؛ خصوصًا في التخصصات الإنسانية والاجتماعية حيث يصعب قياس الكفاءات آليًّا.
4. الأبعاد النقدية والإشكالات غير المحسومة
برغم شمولية التقرير الفرنسي وثراء توصياته، فإنّه يطرح أسئلة عدة، بعضها مطروح صراحة في النص، وبعضها الآخر يظهر ضمنيًّا من خلال المعطيات والبيانات التي جمعها. يمكن تصنيف هذه الإشكالات في أربعة مستويات رئيسية: المعرفي، والأخلاقي، والاجتماعي–المؤسسي، والبيئي.
1.4 البعد المعرفي: أزمة الكفاءة والاعتماد المفرط
يشير التقرير إلى خطر واضح يتمثل فيما يمكن تسميته “وهم الكفاءة“؛ إذ يعتقد المستخدمون (خصوصًا الطلاب) أنهم يمتلكون مهارات عالية في التعامل مع الذكاء الاصطناعي، بينما هم في الواقع يفتقرون إلى تدريب منهجي عميق.
- نحو ثلث الطلاب يستخدمون الأدوات يوميًّا، لكن أغلبهم لم يتلقوا أي تكوين أكاديمي رسمي.
- 55% من الطلاب والإداريين، و43% من الأساتذة، يفتقرون إلى تدريب منظم.
هذا الواقع يُنتج فجوة معرفية مزدوجة؛ فمن جهة، قد يضعف التفكير النقدي والقدرة على التحقق من النتائج التي تنتجها الأدوات التوليدية، ومن جهة أخرى، قد يرسخ التبعية المعرفية للتكنولوجيا بدلًا من تعزيز استقلالية الطالب أو الباحث.
الإشكال غير المحسوم: كيف يمكن التوفيق بين الاستفادة من الذكاء الاصطناعي وبين الحفاظ على المهارات الجوهرية مثل التحليل النقدي، الإبداع، والقدرة على إنتاج المعرفة الأصلية؟
2.4 البعد الأخلاقي: الممارسات الغامضة والتهديدات الأكاديمية
يسلّط التقرير الضوء على مخاوف عميقة من المخاطر الأخلاقية، خصوصًا ما يتعلق بالانتحال الأكاديمي، وتراجع قيمة التقييم الجامعي في حال لم تُجدَّد أساليبه.
- 37% من المشاركين في الاستبيان صرّحوا بأنهم يرون الذكاء الاصطناعي تهديدًا لحريتهم الفكرية أو لمستقبل وظائفهم.
- بعض المؤسسات سمحت باستخدام الأدوات بلا قيود، بينما فرضت أخرى حظرًا صارمًا، ما أدى إلى تضارب واسع في الممارسات.
الإشكال غير المحسوم: كيف يمكن صوغ لوائح أخلاقية واضحة وموحَّدة لا تكتفي بالتحذير من الغش، بل تعيد تعريف “الأصالة” و”المجهود الشخصي” في عصر الذكاء الاصطناعي؟
3.4 البعد الاجتماعي –المؤسسي: خطر اللامساواة
يحذّر التقرير من أن الانتشار غير المتكافئ للذكاء الاصطناعي قد يؤدي إلى تعميق الفوارق بين الجامعات:
- المؤسسات المركزية الكبرى في المدن تمتلك فرصًا أفضل للحصول على تمويل وتجريب الأدوات.
- المؤسسات الإقليمية الأصغر تعاني ضعف الموارد ونقص الكفاءات البشرية.
هذه الفوارق تهدد بتحويل التعليم العالي الفرنسي إلى منظومة “ثنائية السرعة”، حيث تستفيد نخبة محدودة من إمكانات الذكاء الاصطناعي بينما تبقى الأغلبية على الهامش.
الإشكال غير المحسوم: كيف يمكن ضمان عدالة رقمية بين المؤسسات، بحيث لا يتحول الذكاء الاصطناعي إلى أداة لإعادة إنتاج التفاوتات بدلًا من تقليصها؟
4.4 البعد البيئي: كلفة غير شفافة
يخصص التقرير مساحة لبحث الأثر البيئي للذكاء الاصطناعي التوليدي، ويشير إلى غياب بيانات دقيقة وشفافة حول استهلاك الطاقة والمياه. الأرقام المتداولة (مثل استهلاك 0.34 واط ساعة لكل استدعاء لـ ChatGPT تبقى تقريبية وغير قابلة للتحقق.
- شركات التكنولوجيا تميل إلى التقليل من شأن بصمتها الكربونية.
- تقديرات مستقلة تظهر تضاعف استهلاك الكهرباء في شركات مثل Google وMicrosoft بين 2020 و2023 بسبب الذكاء الاصطناعي.
الإشكال غير المحسوم: كيف يمكن للجامعات، التي يفترض أن تكون فاعلًا في الاستدامة، أن تسوّغ استخدام أدوات قد تزيد من الانبعاثات والتكاليف البيئية، في وقت ترفع فيه الدولة شعار “الانتقال البيئي”؟
5.4 البعد الاستراتيجي: هشاشة أمام السوق العالمية
من بين النقاط التي يثيرها التقرير، أنّ الجامعات الفرنسية تعتمد إلى حد كبير على أدوات أجنبية (أمريكية بالدرجة الأولى)، مع محدودية في تطوير بدائل سيادية محلية أو أوروبية. هذا الواقع يجعل الجامعات عرضة لتهديد الإغلاق التكنولوجي (technological lock-in)، حيث قد تجد نفسها محصورة في بيئة خاضعة لقواعد شركات خاصة.
الإشكال غير المحسوم: هل تملك فرنسا الموارد والقدرة السياسية على بناء منظومة سيادية متكاملة، أم أنّها ستظل في موقع التابع التكنولوجي، مع ما يترتب عن ذلك من تبعية معرفية واقتصادية وجيوسياسية؟
5. التجارب الدولية المقارنة
حرص معدّو التقرير على أن تكون قراءتهم للذكاء الاصطناعي في التعليم العالي الفرنسي غير معزولة عن السياق العالمي. ولهذا الغرض، جُمعت بيانات من نحو عشرين دولة عبر الممثليات الدبلوماسية، وتبين أنّ معظم هذه الدول تواجه تحديات وأسئلة مشابهة لما هو مطروح في فرنسا.
1.5 القواسم المشتركة
أظهرت المقارنة الدولية أنّ هناك سمات متكررة في سياسات التعليم العالي تجاه الذكاء الاصطناعي:
- تسارع الاستخدام الفردي: في معظم الدول، كما في فرنسا، المبادرات الطلابية والأكاديمية تسبق الإطار المؤسسي.
- غياب التوازن بين المخاوف والطموحات: غالبًا ما ينظر إلى الذكاء الاصطناعي باعتباره فرصة لتحسين الأداء، وفي الوقت نفسه مصدرًا للقلق بشأن الغش الأكاديمي وفقدان المهارات الأساسية.
- التفاوت في القدرات التقنية: المؤسسات الكبرى في العواصم أو الجامعات المرموقة تتمتع بموارد أفضل، بينما تعاني الجامعات الإقليمية ضعفَ البنية التحتية والتأهيل.
- غياب استراتيجيات مستقرة: العديد من الدول لم تحدد بعد سياسات وطنية واضحة، بل تعتمد على مبادرات محلية أو تجريبية قصيرة المدى.
هذه النتائج تعكس أن فرنسا ليست استثناءً، بل جزء من اتجاه عالمي لا يزال في طور التشكل، وأن الإشكالات المرتبطة بالذكاء الاصطناعي ليست فريدة من نوعها، بل عامة الطابع.
2.5 نقاط التشابه مع فرنسا
من بين أوجه التشابه الأساسية التي لفت إليها التقرير النظر:
- القلق من التقييم الأكاديمي: في دول متعددة، طرحت الجامعات السؤال نفسه: كيف يمكن ضمان مصداقية الشهادات في عصر الأدوات التوليدية؟
- غياب التأهيل المنهجي: كما هو الحال في فرنسا، غالبية الطلاب والأساتذة في دول أخرى يعتمدون على التعلم الذاتي أكثر من التأهيل المؤسسي.
- الخوف من اتساع الفجوة الرقمية: الجامعات الصغيرة في دول أخرى تخشى أن تجد نفسها في وضعية تابعة لمؤسسات أكبر أو لشركات خاصة تمتلك الموارد.
هذه المعطيات تؤكد أن التحديات التي تواجهها فرنسا ليست محلية فحسب، لكنها مرتبطة بطبيعة الذكاء الاصطناعي بصفتها تكنولوجيا عالمية عابرة للحدود.
3.5 التباينات الخاصة
مع أنّ التقرير يلاحظ تشابهًا كبيرًا في المشهد الدولي، فإنّه يسجل بعض التباينات المهمة:
- السرعة في الاستجابة: بعض الدول اعتمدت سياسات أسرع وأوضح في وضع لوائح وطنية، بينما فرنسا ما زالت في مرحلة المشاورات والتوصيات.
- التكامل بين التعليم الثانوي والعالي: بعض الأنظمة التعليمية سعت إلى ضمان استمرارية بين المدارس الثانوية والجامعات في دمج الذكاء الاصطناعي، بينما في فرنسا لايزال هذا الربط ضعيفًا.
- الاهتمام بالمجتمع الأوسع: دول أخرى وضعت منذ البداية خططًا لتوسيع نطاق الاستفادة المجتمعية، بينما التقرير الفرنسي يقترح ذلك كتوصية مستقبلية عبر “الفضاءات الثالثة”[3].
4.5 دروس مستخلصة
من خلال هذا البعد المقارن، يبرز التقرير ثلاثة دروس رئيسية:
- ليس هناك دولة تملك وصفة نهائية: الجميع مايزال في مرحلة التجريب، والنجاح مرهون بالتعلم المستمر من التجارب المحلية والعالمية.
- التنسيق الدولي ضروري: لأن القضايا المرتبطة بالذكاء الاصطناعي (الأمن، وحماية البيانات، والبنية التحتية) تتجاوز القدرات الوطنية، ومن ثمّ تحتاج إلى تعاون عابر للحدود.
- الزمن عامل حاسم: التأخر في تبني استراتيجيات واضحة قد يؤدي إلى “فجوة سيادية”، حيث تصبح الجامعات رهينة لخيارات تقنية أجنبية يصعب التراجع عنها لاحقًا.
6. نحو رؤية بديلة
يذهب التقرير في خلاصاته إلى ما هو أبعد من مجرد دمج أدوات الذكاء الاصطناعي في المناهج أو الإدارة، ليفتح أفقًا أوسع يتمثل في إعادة تعريف دور الجامعة نفسها داخل المجتمع. هذه الرؤية البديلة تسعى إلى أن تجعل من التعليم العالي فضاءً للتجريب والابتكار المشترك، بدلًا من أن يظل مستهلكًا سلبيًّا فحسب للتكنولوجيا.
1.6 الجامعة بصفتها محركًا لمجتمع متعلم
يؤكد التقرير أن الجامعات لا ينبغي أن تقتصر على تأهيل الطلاب فحسب، بل عليها أن تتحول إلى قاطرة لمجتمع متعلم (société apprenante)، إذ تمتد المعرفة إلى ما وراء أسوار المؤسسة الأكاديمية لتشمل جميع المواطنين بمختلف أعمارهم.
- يُقترح إنشاء “فضاءات ثالثة” (tiers-lieux) مفتوحة للمجتمع، يلتقي فيها المواطنون مع الأكاديميين للتدريب على استخدام الذكاء الاصطناعي.
- تُصبح الجامعة في هذا التصور مركزًا للوساطة الثقافية والتكنولوجية، تربط بين البحث العلمي والممارسات اليومية للمجتمع.
هذه الرؤية تسعى إلى الحد من خطر احتكار التكنولوجيا من قبل النخب، وجعل الذكاء الاصطناعي أداة للدمقرطة المعرفية.
2.6 الذكاء الاصطناعي كفرصة لإعادة التفكير في الهوية الأكاديمية
يرى معدّو التقرير أن التحدي الحقيقي ليس في “كيف نستعمل الذكاء الاصطناعي؟” بل في “أي جامعة نريد في عصر الذكاء الاصطناعي؟”. وعليه، يطرح التقرير أسئلة تأسيسية:
- ما مصير طرق التقييم التقليدية إذا كانت الأدوات قادرة على إنتاج مقالات أو حل مسائل معقدة؟
- كيف نحافظ على قيمة الجهد الفردي والأصالة في ظل إمكانية التوليد الآلي؟
- هل ينبغي أن ينتقل التعليم من التركيز على حفظ المعلومات إلى تعزيز الإبداع والتفكير النقدي؟
بهذا المعنى، يقترح التقرير أن يكون الذكاء الاصطناعي محرّكًا لتحول بيداغوجي عميق يعيد رسم العلاقة بين الطالب والمعرفة، وبين المدرس ودوره التوجيهي.
3.6 الجامعة كمختبر ديمقراطي
يقترح التقرير أن يكون للذكاء الاصطناعي دور في تعزيز الديمقراطية الجامعية من خلال أدوات الاستماع الواسع (broad listening)، وتنظيم مشاورات موسعة مع الطلاب والهيئات المختلفة حول قضايا مستقبلية.
- يمكن للأدوات الرقمية أن تتيح مشاركة أوسع في صنع القرار.
- يمكن للجامعات أن تصبح نموذجًا لممارسات ديمقراطية جديدة في المجتمع الرقمي.
هذه الفكرة تمنح الجامعة وظيفة تتجاوز التعليم والبحث، لتصبح أيضًا مختبرًا اجتماعيًّا–سياسيًّا للتفكير في مستقبل المجتمعات.
4.6 من التبنّي إلى التملّك
من خلال كل هذه الرؤى، يتضح أن الهدف ليس اعتماد الذكاء الاصطناعي فقط، بل تملّكه (appropriation) بالمعنى العميق للكلمة. أي أن تصبح الجامعات قادرة على توجيه مسار التطوير بما يخدم قيمها التربوية والاجتماعية، بدلًا من أن تُفرض عليها حلول جاهزة من الخارج.
الخاتمة
يُظهر التقرير الفرنسي حول الذكاء الاصطناعي والتعليم العالي أن الجامعات اليوم تقف على عتبة مرحلة تاريخية فارقة. فبينما يشهد العالم تسارعًا غير مسبوق في انتشار الأدوات التوليدية منذ 2022، لا تزال الجامعات الفرنسية، مثل نظيراتها في دول أخرى، تعاني فجوة واضحة بين الاستخدام الفردي المكثف لهذه الأدوات وغياب إطار مؤسسي منظم يوجهها ويضمن استثمارها لمصلحة العملية التعليمية والبحثية.
لقد أبرزت اللجنة أنّ التحديات لا تقتصر على البعد التقني أو البيداغوجي، بل تمتد إلى أبعاد معرفية، أخلاقية، اجتماعية، بيئية، وسيادية. فالمخاطر المرتبطة بوهم الكفاءة، والانتحال الأكاديمي، واتساع الفوارق بين الجامعات، والبصمة البيئية المرتفعة، كلها قضايا تستدعي معالجة شاملة ومتعددة المستويات.
في مواجهة هذه التحديات، يقترح التقرير ستة محاور كبرى للتوصيات: التأهيل الشامل، وتشجيع التجريب، وإعادة تعريف دور الجامعة، وتطوير البنى التحتية، وتعزيز المجتمع المتعلم، وصوغ سياسة وطنية متكاملة. غير أنّ النجاح في تنفيذ هذه التوصيات يظل مشروطًا بقدرة الدولة والجامعات على تجاوز منطق التجريب المحدود نحو رؤية استراتيجية طويلة المدى، وعلى الموازنة بين الانفتاح على الابتكار العالمي والحفاظ على السيادة الرقمية والمعرفية.
إن الإشكالية الجوهرية التي يطرحها التقرير يمكن تلخيصها في سؤال واحد: هل ستكون الجامعة في عصر الذكاء الاصطناعي مستهلكًا للتكنولوجيا فقط، أو فاعلًا رئيسيًّا في إعادة صوغ علاقتنا بالمعرفة والمجتمع؟
[1] Frédéric Pascal, François Taddei, Marc de Falco, Emilie-Pauline Gallié, IA et Enseignement Supérieur :
Formation, Structuration et Appropriation par la Société, MINISTÈRE CHARGÉ
DE L’ENSEIGNEMENT SUPÉRIEUR ET DE LA RECHERCHE, Juin 2025.
[2] “البيداغوجيا” هو العِلم المعني بأصول وأساليب التدريس مشتملةً على الأهداف والطرق الممكن اتباعها من أجل تحقيق تلك الأهداف. ومن العلوم التي يعتمد عليها البيداغوجيا علم النفس التربوي؛ لأنّه يتضمن على العديد من النظريات المهمة، مثل نظريات التعلم العلمية، بالإضافة إلى احتوائه على فلسفة التعليم التي تصب التركيز على أهداف التعليم ومدى أهميته وقيمته من منظور فلسفي (المحرر)، لمزيد من التفاصيل انظر الرابط: https://2u.pw/dXgwh
[3] الفضاء الثالث (Third Space) هو مفهوم اجتماعي يشير إلى الأماكن أو البيئات التي تُعد مساحة وسطى بين الفضاءين الأساسيين: البيت (الفضاء الأول) والعمل أو المدرسة (الفضاء الثاني). وهو مكان يتيح للأفراد التلاقي الاجتماعي، تبادل الأفكار، بناء العلاقات، وتعزيز الشعور بالانتماء خارج حدود العمل والمنزل. Oldenburg, Ray. (1989). The Great Good Place: Cafes, Coffee Shops, Bookstores, Bars, Hair Salons, and Other Hangouts at the Heart of a Community. Paragon House.