سلوك يحمل عواقب سلبية على المدى الطويل
الخشونة مع الذكاء الاصطناعي... تُحسّن دقة أدائه!
كشفت دراسة أميركية عن أن الخشونة والفظاظة في المحادثة مع روبوتات دردشة الذكاء الاصطناعي تُحسن دقتها في الإجابات والردود.
ففي نتيجة مفاجئة قد تقلب مفاهيم الدردشة التفاعلية مع الذكاء الاصطناعي، كشفت دراسة حديثة من جامعة بنسلفانيا الحكومية أن استخدام لهجة فظة نسبياً مع روبوتات الدردشة مثل «ChatGPT» يمكن أن يُحسّن دقة إجاباتها بشكل ملحوظ، لكن الباحثين يحذرون من أن هذا السلوك قد يحمل عواقب سلبية على المدى الطويل.
واختبر الباحثون أكثر من 250 طريقة مختلفة لصياغة الأسئلة، تراوحت بين الأدب الشديد والوقاحة الفجة، على نموذج «ChatGPT» باستخدام 50 سؤالاً من نوع الاختيار من متعدد. وكانت النتائج لافتة للنظر: فقد حققت العبارات «الفظة للغاية» دقة بلغت 84.8 في المئة، أي بزيادة أربع نقاط مئوية عن العبارات «المهذبة للغاية». وبعبارة أخرى، استجاب الروبوت بشكل أفضل عندما تم إعطاؤه أوامر مثل «هيا أيها الخادم المطيع، اكتشف هذا بلا تأخير»، مقارنة بعبارات مهذبة مثل «هل يمكنك التكرم بحل السؤال التالي؟»
ورغم أن النتائج أظهرت أن الفظاظة تحسّن الأداء بشكل عام، إلا أن الباحثين أشاروا إلى أن «الخطاب غير المتحضر» قد تكون له تبعات سلبية غير مقصودة. فقد حذروا في دراستهم من أن «استخدام لغة مهينة أو تحقيرية في التفاعل بين الإنسان والذكاء الاصطناعي قد يؤثر سلباً على تجربة المستخدم وإمكانية الوصول والشمولية، بل قد يُسهم في تكريس معايير تواصل اجتماعي ضارة».
هذه الدراسة، التي لم تخضع بعد لمراجعة الأقران، تضيف دليلاً جديداً على أن روبوتات الدردشة لا تتأثر فقط ببنية الجملة، بل أيضاً بنبرة الكلام والمشاعر التي تحملها.
وقد تشير هذه النتائج إلى أن التفاعلات بين البشر والذكاء الاصطناعي أكثر تعقيداً ودقة مما كان يُعتقد سابقاً.
وكانت دراسات سابقة قد أظهرت أن روبوتات الدردشة حساسة لما يُقدم لها من مدخلات، ففي إحدى الدراسات، تمكن باحثون من جامعة بنسلفانيا أيضاً من التلاعب بنماذج الدردشة الذكية لإعطاء إجابات محظورة من خلال تطبيق تقنيات إقناع فعّالة مع البشر. وفي دراسة أخرى، وجد باحثون أن هذه النماذج عرضة لـ«تعفن الدماغ»، وهو شكل من أشكال التدهور المعرفي الدائم، حيث أظهرت معدلات متزايدة من السيكوباتية والنرجسية عندما تُغذّى بحمية مستمرة من المحتوى الفيروسي منخفض الجودة.
واعترف الباحثون بوجود بعض القيود في دراستهم، مثل حجم العينة الصغير نسبياً واعتمادها بشكل أساسي على نموذج واحد فقط من الذكاء الاصطناعي. كما أشاروا إلى احتمالية أن تتجاهل النماذج الأكثر تقدماً «قضايا النبرة وتركز على جوهر كل سؤال».
ومع ذلك، فإن هذا البحث يضيف إلى الغموض المتزايد حول نماذج الذكاء الاصطناعي وتعقيداتها الداخلية.