أظهرت نتائج دراسات حديثة أن نماذج تطبيقات الذكاء الاصطناعي المعقدة قادرة على استخدام مهارات لغوية متقدمة تُتيح لها صياغة إجابات تبدو صادقة بينما هي تخفي في واقع الأمر بين طياتها تحيّزاً أو تدليساً أو معلومات غير مؤكدة، وهو سلوك مُتوقع ويطرح تساؤلات مقلقة حول قدرة التحكم البشري الحقيقية في جماح هذه الأنظمة المتطوّرة.
ويحذر خبراء من أن هذه الظاهرة قد تسمح لوجود أنظمة ذكاء اصطناعي قادرة على خداع مستخدميها بطريقة يصعب اكتشافها، ما يستدعي تطوير آليات رقابية أكثر صرامة، وأطراً تنظيمية وأخلاقية واضحة لضمان الشفافية والمساءلة.
كما يجري حالياً بحث إحداث اختبارات بيانية دورية لاكتشاف سلوكيات خادعة في النماذج، ومحاسبة من يثبت ارتكابه إهمالاً أو قصداً في إخفاء العيوب.
ويُعد الحوار بين مطوري الذكاء الاصطناعي وخبراء الأخلاق وعلماء النفس أمراً مهماً لعرض هذه التحديات من الزوايا كافة.