كشف تحقيق صحافي أن أدوات الذكاء الاصطناعي التوليدي باتت تُنتِج أحياناً مراجع وأبحاثاً واستشهادات «وهمية» بالكامل، مع عناوين ومؤلفين ومجلات غير موجودة في الواقع، وأن بعض هذه الاستشهادات المزوَّرة بدأت تتسرّب إلى أوراق علمية منشورة بالفعل.
وأوضح التحقيق أن المشكلة ظهرت أولاً في أعمال الطلبة، حين لاحظ الأساتذة أن قوائم المراجع تحتوي على مصادر لا يمكن العثور عليها في قواعد البيانات، قبل أن يتبيّن لاحقاً أن الظاهرة طالت أبحاثاً أكاديمية مهنية يُفترض أنها خضعت لتحكيم صارم.
وأشار التحقيق إلى أن بعض الباحثين استخدموا روبوتات الدردشة للمساعدة في صياغة أجزاء من أوراقهم أو اقتراح مراجع إضافية، من دون التحقق الكافي من صحة تلك الاستشهادات، ما أتاح لاقتباسات مختلقة أن تتسلّل إلى الأدبيات العلمية ثم تُستنسخ لاحقاً في أعمال أخرى.
وحذّر خبراء من أن هذه السلسلة يمكن أن تمنح «هالة من الشرعية» لأبحاث غير موجودة، إذ يستشهد بها آخرون اعتماداً على ثقتهم في المجلات أو المؤلفين، فتُستخدَم لتدعيم حجج أو سياسات أو قرارات تمويل على أساس معلومات غير حقيقية.
ونقل التحقيق عن مختصين في أخلاقيات الذكاء الاصطناعي وأمن المعلومات وصفهم لهذه الظاهرة بأنها «أزمة نزاهة علمية بطيئة»، لأن اكتشاف المراجع المزيّفة بعد النشر أصعب بكثير من رصدها قبل ذلك، خصوصاً إذا لم تُتح للقراء بيانات المراجعة أو السجلات الكاملة للمصادر.
ويدعو هؤلاء إلى وضع سياسات واضحة تُلزم المؤلفين بالإفصاح عن استخدام أدوات الذكاء الاصطناعي، وتشدد على مسؤولية الباحث عن التحقق من كل مرجع، مهما كان مصدر اقتراحه.
كما حذّر التحقيق من أن الاعتماد غير النقدي على أدوات الذكاء الاصطناعي في التلخيص والبحث عن الأدبيات قد يدفع بعض الدارسين إلى تجاوز القراءة الفعلية للمصادر الأصلية، والاكتفاء بثقة عمياء في المخرجات النصية.
ويقترح خبراء حلولاً تشمل تطوير أدوات آلية مضادة للتحقق من وجود المراجع في قواعد بيانات معترف بها، وتعزيز تدريب الباحثين والطلاب على التمييز بين استخدام الذكاء الاصطناعي كأداة مساعدة وبين تفويضه سلطة «اختراع» الأدلة العلمية نيابة عنهم.