في خطوة إستراتيجية تهدف إلى تعزيز الثقة في تقنيات الذكاء الاصطناعي، أعلنت شركة الذكاء الاصطناعي «OpenAI» أخيراً عن إدخال تحديثات جذرية في بروتوكولات السلامة الخاصة بنماذجها الشهيرة مثل«ChatGPT».

وتتضمن التحديثات آليات متطورة للكشف عن المحتوى الضار أو غير القانوني، مع وضع مسارات واضحة لإبلاغ الجهات القانونية في حالات التهديد الوشيك أو الأنشطة الإجرامية الخطيرة.

ويأتي هذا التحرك في ظل ضغوط تشريعية عالمية تطالب شركات التكنولوجيا الكبرى بتحمل مسؤولية أكبر عن مخرجات أنظمتها الذكية.

وتركز البروتوكولات الجديدة على حماية الخصوصية مع ضمان عدم استغلال الذكاء الاصطناعي في عمليات التضليل المعلوماتي أو الهجمات السيبرانية المتقدمة.

لذا، طورت الشركة نظام «مفاتيح الأمان الديناميكية» التي تعمل على تقييد استجابات النموذج إذا استشعر وجود محاولات للهندسة الاجتماعية أو استخلاص بيانات حساسة. وفضلاً عن ذلك، تسعى «OpenAI» إلى الشفافية في كيفية اتخاذ القرارات المتعلقة بحظر الحسابات أو تقييد الوصول إلى ميزات معينة، وهذا يمثل توازناً دقيقاً بين حرية الاستخدام والأمان الرقمي.

ويرى مراقبون تقنيون أن هذه الخطوة ربما تثير مخاوف بشأن مراقبة المستخدمين، لكن الشركة تؤكد أن عمليات الإبلاغ ستكون محصورة في الانتهاكات الجسيمة التي تهدد السلامة العامة.

ولتوضيح الركائز الأساسية لهذه التحديثات، تبرز النقاط التالية:

• تحسين خوارزميات التصفية الذاتية لمنع توليد محتوى يحرض على العنف أو الكراهية بدقة تتجاوز 99 في المئة.

• إنشاء قنوات تواصل مباشرة وسريعة مع وكالات إنفاذ القانون الدولية للتعامل مع التهديدات العابرة للحدود.

• إدراج علامات مائية رقمية غير مرئية في كافة النصوص والوسائط المولدة لسهولة تتبع المصدر ومنع التزييف.

وفي الوقت نفسه، تواصل الشركة استثماراتها في «الذكاء الاصطناعي التفسيري» لمساعدة المستخدمين والمنظمين على فهم كيفية وصول النموذج إلى استنتاجات معينة.

وختاماً، يمثل هذا التحول في سياسات شركة «OpenAI» بداية حقبة جديدة من المسؤولية الرقمية، حيث يصبح الأمان جزءاً لا يتجزأ من عملية الابتكار التقني، لضمان أن يبقى الذكاء الاصطناعي أداة للبناء لا وسيلة للهدم.