06/08/2025
ثقافة و فن 22 قراءة
ثورة الذكاء الاصطناعي التوليدي… اختزال للجهد أم اختراق للعقل؟

الاشراق
الاشراق | متابعة.
يشكل الذكاء الاصطناعي يشكل اليوم المحرك والقوة الأساسية للثورة الصناعية الرابعة. فإذا كانت الثورة الصناعية الثالثة ثورة رقمية بالأساس، حوّلت كثيرا من القطاعات «التقليدية» كالصناعات الميكانيكية إلى قطاعات وصناعات تعتمد بشكل شبه كلي على الرقمي، بفضل الطفرة التي أحدثها الحاسوب، فإن الذكاء الاصطناعي يمثل اليوم أهم مظهر ومحدد للثورة الصناعية الرابعة.
الحاسوب بدوره عرف تطورا سريعا منذ الأربعينيات من القرن الماضي إلى اليوم فإذا كان حجم الحاسوب الأول «ِENIAC» كبيرا جدا حتى سمي «بالفيل الإلكتروني»، فإن الحواسيب أصبحت الآن بحجم اليد أو أصغر. الحاسوب عرف تطورا في حجمه بأن أصبح أصغر، لكن دائما بقدرات هائلة على تخزين المعطيات وسرعة معالجتها وبتكلفة أقل. تطور الحواسيب ووفرة المعطيات والبيانات بشتى أنواعها، هما عاملان أساسيان في ولادة الذكاء الاصطناعي. فهذا العلم ليس وليد اليوم، حيث تعود أولى المحاولات الى الخمسينيات من القرن الماضي بفضل أبحاث «آلان تورين» وبالخصوص أبحاث جون ماكارثي، الذي يعتبره الكثير الأب الروحي للذكاء الاصطناعي.
لكن هذا العلم لم يصبح حديث الساعة إلا في الخمس عشرة سنة الأخيرة، مع توالي التطبيقات الذكية، التي أصبحت تستعمل على نطاق واسع بفضل انتشار الهواتف الذكية. وابتداءً من سنة 2016 سيعرف الذكاء الاصطناعي «ربيع ثورته» ويرجع ذلك بالأساس إلى ظهور الذكاء الاصطناعي التوليدي «ِGenAI» فإذا كان الذكاء الاصطناعي التقليدي يجد استعماله في تحليل المعطيات والبيانات وتصنيفها بشكل آليلى فئات من قبيل: «صحيح – خطأ» أو «حميد – خبيث» إلى غير ذلك من التصنيفات، أو مساعدتنا على التنبؤ بالتغيرات المناخية، أو تغييرات الأسعار والمبيعات، وكذلك التنبؤ بمدى فعالية ونجاح علاج طبي معين.. أقول إذا كان التصنيف والتنبؤ هما التطبيقين الأساسيين للذكاء الاصطناعي التقليدي، فإن الذكاء الاصطناعي التوليدي يذهب أبعد من ذلك. فما الجديد في هذا الذكاء؟ ولماذا أصبح حديث الكل؟ وما هي حقيقة المخاوف التي يثيرها الذكاء الصناعي التوليدي اليوم وفي المستقبل القريب؟ لعل ما يميز الذكاء الاصطناعي التوليدي عن كل أنواع الذكاءات الأخرى هو قابليته على توليد وإنتاج محتوى جديد، بناءً على ما يطلبه المستعمل. هذا المحتوى قد يكون نصا نثريا أو شعريا، بحثا علميا، خبرة طبية، صورة أو فيديو لأشخاص حقيقيين، قطعة موسيقية أو خوارزميات، إلى آخره.
تقوم خوارزميات الذكاء الاصطناعي التوليدي في مرحلة أولى، وتسمى بمرحلة التدريب على التقاط خصائص الكتابة الشعرية مثلا عند شاعر معين، أو أسلوب كاتب مشهور، أو أي شخص آخر له كتابات أو محتوى يمكن الاعتماد عليه في مرحلة لاحقة لمحاكاة هذا الأسلوب. ولعل أشهر التطبيقات المستعملة حاليا لـ GEN AI، هو تطبيق «ChatGPT»، الذي تم تصميمه من طرف «OpenAI»، لكن رغم كل مميزات ChatGPT، وما شابهه من تطبيقات في هذا المجال، ورغم كل الإمكانيات الجديدة والتسهيلات التي تتيحها هذه التطبيقات فهي تفرض علينا تحديات كثيرة. ففي مجال التدريس، لم يعد بالنسبة للأستاذ أو المعلم أن يثق بما أنجزه الطالب أو كتبه، لأن أغلب الطلبة والتلاميذ يستشيرون ChatGPT حول أي سؤال أو تمرين أو موضوع يُطلب منهم حلُّه، أو الكتابه فيه! فما جدوى الفروض المنزلية إذن؟ لكن الأمر يصبح ذا أبعاد أخطر بكثير، عندما نلاحظ أن هناك تزايدا مهولا في حجم الثقة التي يوليها الطلبة لهذه البرمجيات المدربة مسبقا. هناك ثقة شبه عمياء في الأجوبة التي يعطيها البرنامج للسائل، دون أن يفكر هذا الأخير في إمكانية الخطأ، ما يُرسِّخ الوثوقية في هذه البرامج دون تَحَفُّظ وقتل الحس النقدي عند المستعمل، وتزايد التبعية لهذه البرامج!
في مجال البحث العلمي الأمر أعقد وأخطر. فبإمكان هذه البرامج أن تكتب بحثا أكاديميا «رصينا» بكل متطلباته من مقدمة وعرض ونتائج وتحليل لهذه النتائج، ومقارنتها مع ما نُشر في السابق، بالإضافة إلى لائحة المراجع المستعملة في هذا البحث!
صحيح أن المستعمل الحريص والمدقق، سيجد كثيرا من الهفوات والأخطاء في الورقة، أو المقال المُوَلَّد بهذه الطريقة، سواء في النتائج أو التحليل أو بالخصوص في لائحة المراجع، حيث إن الذكاء الاصطناعي التوليدي ما زال قاصرا في أغلب الأحيان على الإتيان بعناوين لمراجع حقيقية. هذه الظاهرة التي تسمى بِـ»الهلوسة»، حيث يقوم نموذج الذكاء الاصطناعي بتوليد معلومات خاطئة او مُضَلِّلة وتقديمها على أنها حقائق! فعلا، قد يقوم البرنامج باختلاق معلومات – أو مراجع في حالتنا هذه – لا وجود لها على الإطلاق وإن بدت مقنعة، مثلا كعنوان بحث لمجموعة باحثين حقيقيين منشور في مجلة علمية معروفة، وعند التدقيق والفحص نجد أن هذا البحث لا وجود له!
هذا الأمر يشكل تحديا حقيقيا على الباحث، وعلى المجلات العلمية على حد سواء، فكيف لهذه المجلاَّت أن تُفرق بين محتوى كُتِب من طرف شخص من محتوى أنتجه الذكاء الاصطناعي؟ الوسائل والبرمجيات المتاحة حاليا لاكتشاف النصوص، التي تم إنشاؤها بواسطة الذكاء الاصطناعي تبقى في غالبية الأحيان قاصرة عن أداء مهمتها، لِما يُستعمل في المقابل من تقنيات «التضليل» التي تُمَكن الكاتب من الإفلات من الكشف!
في مقال نشره مؤخرا الكاتب المغربي فؤاد العروي بعنوان: «رسميا ChatGPT يجعلك غبيا!»، يسلط صاحب المقال الضوء على جانب آخر من سلبيات استعمال واعتماد هذه المولدات النصية في الكتابة بكل أنواعها. يشير المقال إلى نتائج بحث علمي نُشر في شهر يونيو/حزيران من هذه السنة، يقارن بين العواقب السلوكية والعصبية والمعرفية على الكاتب، خلال عملية الكتابة، باختبار ثلاث شرائح من الكُتَّاب. الشريحة الأولى تعتمد على الذكاء الاصطناعي التوليدي، والشريحة الثانية تعتمد فقط على محركات البحث مثل غوغل، بينما تعتمد الشريحة الأخيرة حصريا على إمكانياتها الذاتية، دون الاستعانة بأي واسطة. أظهرت نتائج البحث أنماط اتصال عصبي مختلفة في الدماغ بشكل ملحوظ بين هذه الشرائح الثلاث من الكتّاب، وخلصت إلى أنه كلما زاد الدعم الخارجي (استعمال الذكاء الصناعي التوليدي مثلا) خلال عملية الكتابة، تراجعت اتصالات الدماغ ما يؤدي في النهاية إلى انخفاض مهارات التعلم واكتسابها على المستوى المعرفي واللغوي!
صحيح أن الذكاء الاصطناعي التوليدي يخفف العبء المعرفي المباشر عند عملية كتابة النصوص أو ما شابه، إلا أنها قد تُضعف في الوقت نفسه قدرات التفكير النقدي والتحليل العميق، ما يثير قلقا بالغا في السياقات التعليمية، حيث يُعد تطوير هذه المهارات الغاية الأسمى من كل نشاط تعليمي! في زمن الهرولة نحو اعتماد الذكاء الصناعي التوليدي في كل مجالات حياتنا، يبدو أن الكثير منا ما زال غافلا عن سلبياته وعن عواقبه على هذا الجيل والأجيال القادمة!
تدوينة للكاتب نبيل بنعمرو.