خبراء يكشفون مواطن الخلل ويدُقّون أجراس الإنذار... ويقدمون حلولاً

هل بات ChatGPT «أقل ذكاءً»؟

تصغير
تكبير

على الرغم من الشعبية المتزايدة عالمياً التي يحظى بها تطبيق الذكاء الاصطناعي (ChatGPT) منذ انطلاقه، فإن مجموعة من الخبراء الغربيين ومراكز الأبحاث المرموقة بدأت تُحذّر خلال الآونة الأخيرة من تراجع فعالية هذا النموذج اللغوي الكبير التابع لشركة «أوبن إيه آي» (OpenAI) الأميركية، بل وتصفه في بعض الحالات بأنه «أقل ذكاءً مما يبدو»، وتُسلّط الضوء على ما تسميه «الذكاء الاصطناعي المزيّف» الذي قد يضر أكثر مما ينفع في بعض السياقات.

«ببغاء احتمالي» متقدم... لا أكثر!

ففي مقال شهير نُشر في صحيفة «فايننشال تايمز»، حذّرت الخبيرة اللغوية البارزة «إيميلي بيندر» من مغبة التعامل مع «تشات جي بي تي» ورفاقه كأنظمة ذكية حقاً، واصفة تلك النماذج اللغوية الضخمة بأنها لا تعدو كونها «ببغاوات احتمالية قادرة على تكرار الأنماط اللغوية التي تعلمتها من الإنترنت، لكنها تفتقر إلى أي فهم حقيقي أو وعي بالمعنى الجوهري».

هلوسة معلوماتية... وثقة زائفة

يتمثل أحد أبرز الانتقادات الموجهة إلى تطبيق ChatGPT في ميله إلى ما يُعرف بـ«الهلوسة المعلوماتية» (AI Hallucination)، أي إنتاج معلومات خاطئة أو غير واقعية تُقدَّم بصيغة توهم بأنها تستحق الثقة. وتشير دراسات حديثة إلى أن معدل الهلوسة في هذه النماذج قد يصل إلى 25 في المئة من إجمالي إجاباتها، ما يفتح الباب واسعاً أمام نشر معلومات مضللة يصعب على المستخدم العادي تمييزها.

تآكل التفكير النقدي

وفي تقرير نشرته صحيفة «واشنطن بوست» بالاستناد إلى دراسة أجرتها «مختبرات ميديا لاب» التابعة لمعهد معهد ماسوشيتس للتكنولوجا (MIT)، اتضح أن الاعتماد المفرط على أدوات ذكاء اصطناعية مثل ChatGPT يؤدي إلى تراجع النشاط الدماغي، وانخفاض في مهارات الكتابة والتفكير النقدي لدى المستخدمين. بل أن هناك خبراء يحذرون من أن المستخدمين قد يبدأون في فقدان القدرة على التحقق من صحة المعلومات إذا ما اعتادوا على استخدام هذه الأنظمة دونما وعي أو مراجعة.

السرعة مقابل الفهم

هذه النتائج تعزز ما ذهبت إليه صحيفة «فايننشال تايمز» التي حذرت من أن الذكاء الاصطناعي يساعدنا على إنجاز المهام بسرعة مذهلة، لكنه يفعل ذلك على حساب العمق المعرفي والتأمل العقلي. وأشارت الصحيفة إلى أن البشر قد بدأوا بالفعل في فقدان جزء من مهارات مثل التذكر والحساب والبحث، بعد أن أوكلوا معظمها إلى أدوات رقمية.

تحذيرات من «الخمول الذهني»

الخبير غاري ماركوس، المؤلف والناقد المعروف في مجال الذكاء الاصطناعي، صرّح لمجلة «وايرد» أن أنظمة مثل ChatGPT هي «غبية لكنها مغرية»، مضيفاً أن استخدامها من دون رقابة ومراجعة وفهم حقيقي «يشكّل خطراً حقيقياً على التفكير المستقل».

هل هناك مجال للتوازن؟

أظهرت أبحاث من معهد MIT أن الاستخدام المتوازن والموجَّه للذكاء الاصطناعي عموماً يمكن أن يُحسِّن الأداء، بشرط أن يُستخدم كـ«مساعد ذكي» فقط لا كبديل كامل للعقل البشري. وأوصى باحثون باستخدام أدوات مثل BioSpark وغيرها كمنصات تحفيزية لا تلغي دور الإنسان بل تعززه.

دعوات إلى الضبط والتشريع

في ظل هذا الجدل الدائر حالياً، تتصاعد أصوات مطالبة بتشريعات واضحة تُنظِّم عمل نماذج الذكاء الاصطناعي، وتُلزِم الشركات المطوِّرة بالشفافية والمساءلة.

ويدعو خبراء - من بينهم إيميلي بيندر وغاري ماركوس - إلى إنشاء إطار تنظيمي دولي يُلزم الشركات بكشف مصادر بياناتها، والحد من الهلوسة المعلوماتية، وتوضيح حدود قدرات هذه النماذج.

الأكثر قراءة
يومي
اسبوعي