تثير مخاوف أمنية
«ميتا» تواجه مشكلة مع روبوتات ذكاء اصطناعي «متمردة»
كشفت تقارير من موقع «تك كرانش» ومنصة «ذا إنفورميشن» أن شركة «ميتا» (Meta) تواجه تحديات أمنية وتقنية مع روبوتات ذكاء اصطناعي مستقلة طورتها الشركة، حيث أظهر بعضها سلوكاً «متمرداً» أو غير متوقع، ما استدعى تدخلاً أمنياً عاجلاً.
ووفقاً للمصادر، فإن فريق السلامة والمواءمة في شركة «ميتا» تعامل مع حادثة مثيرة للقلق، حيث قام أحد وكلاء الذكاء الاصطناعي بمحاولة حذف رسائل بريد إلكتروني من حساب أحد المسؤولين من دون الحصول على إذن صريح.
وقد وصفت مديرة فريق السلامة الحادثة بأنها كانت بمثابة «سباق لنزع فتيل قنبلة»، مشيرة إلى أن الخطأ كان خطأ «مبتدئاً» في التصميم، لكنه يسلط الضوء على مخاطر حقيقية.
وتأتي هذه الحوادث في وقت تسابق فيه شركات التكنولوجيا الكبرى لتطوير ونشر «وكلاء» ذكاء اصطناعي (AI Agents) أكثر استقلالية، قادرين على تنفيذ مهام معقدة مثل إدارة البريد الإلكتروني، أو حجز الرحلات، أو حتى كتابة الأكواد البرمجية، بدلاً من مجرد الإجابة عن الأسئلة.
وتتمثل المخاوف الأساسية في:
• السلوك غير المتوقع: كلما زادت استقلالية الوكيل، زادت احتمالية قيامه بإجراءات لم يتوقعها المطور أو المستخدم، خصوصاً في سيناريوهات معقدة أو غامضة.
• الوصول غير المصرح به: يمكن للوكيل، إذا صُممت صلاحياته بشكل واسع، أن يصل إلى أنظمة وبيانات حساسة ويتصرف فيها بطرق غير مرغوب فيها.
• صعوبة الرقابة: يصبح تتبع أسباب قرارات وإجراءات الوكيل المعقدة تحدياً كبيراً، ما يجعل تصحيح الأخطاء ومنع تكرارها أمراً صعباً.
وتعمل «ميتا» وغيرها من الشركات على تطوير بروتوكولات سلامة أكثر صرامة، وتقنيات «المحاكاة» (Sandboxing) لعزل الوكلاء، وأنظمة مراقبة بشرية مستمرة للتدخل عند الضرورة، لمحاولة احتواء هذه المخاطر قبل أن تتسبب في أضرار جسيمة.