أفادت دراسة حديثة أجراها باحثون متخصصون في مجال أخلاقيات الذكاء الاصطناعي بأن هناك تزايداً ملحوظاً في انتشار ما يُعرف بـ«الأوامر التوجيهية الخطيرة» (Dangerous Prompts) المصممة لتجاوز ضوابط السلامة في تطبيقات الدردشة عبر الذكاء الاصطناعي مثل «ChatGPT» و«Claude» وغيرهما.

وأوضحت الدراسة أن هذه الأوامر تُستخدم لاستخراج معلومات خطيرة أو توليد محتويات ضارة، ما يثير مخاوف جدية حول أمن الأنظمة القائمة على الذكاء الاصطناعي.

ووفقاً للباحثين، فإن بعض هذه الأوامر تعتمد على تقنيات متطورة مثل «هندسة الأوامر المتقدمة» التي تتضمن تفكيك مهام معقدة إلى خطوات صغيرة تتجاوز فيها حواجز الأمان المبرمجة مسبقاً.

وأشارت النتائج إلى أن نسبة تصل إلى 15 في المئة من المستخدمين الذين يجرّبون هذه الأوامر نجحوا في الحصول على إجابات تنتهك سياسات الاستخدام الآمن.

ومن أبرز الأمثلة على الأوامر التوجيهية تلك التي تهدف إلى إنشاء خطاب كراهية أو محتويات تحريضية، وتستخرج تعليمات تصنيع أسلحة أو مواد خطرة، وتتعلق باختراق الأنظمة الإلكترونية أو انتحال الشخصيات.

ولمواجهة هذه التحديات، دعا الباحثون إلى تعزيز آليات الدفاع متعددة الطبقات، بما في ذلك تطوير فلاتر لغوية أكثر ذكاءً قادرة على اكتشاف النوايا الخفية وراء الأوامر، واعتماد نماذج «مراقبة ذاتية» ترفض الإجابة عن الأسئلة المشبوهة حتى لو كانت مُقدَّمة بشكل غير مباشر، إضافة إلى زيادة التعاون بين المؤسسات الأكاديمية وشركات التكنولوجيا لتبادل الخبرات حول الثغرات الأمنية الناشئة.

ومن جهة أخرى، لفت الخبراء إلى أن التقدم السريع في مجال قدرات نماذج الدردشة عبر الذكاء الاصطناعي، يجعل مهمة ضبطها أكثر صعوبة، خصوصاً مع ظهور تقنيات مثل «التعلّم بالتعديل الدقيق» (Fine-Tuning) التي قد تُستخدم لتخصيص النماذج لأغراض مشبوهة.

وخلصت الدراسة إلى أن ضمان الاستخدام المسؤول للذكاء الاصطناعي يتطلب وعياً مجتمعياً أوسع، بالإضافة إلى أطر تشريعية رصينة تحدد مسؤوليات المطورين والمستخدمين على حد سواء.

ويأتي هذا التحذير في وقت تشهد فيه السوق العالمية توسعاً هائلاً في اعتماد حلول الذكاء الاصطناعي، حيث تُقدَّر قيمة سوق تطبيقات الدردشة عبر الذكاء الاصطناعي بأكثر من 20 مليار دولار مع توقعات بنموها إلى 70 مليار دولار بحلول العام 2030.