نشر موقع «تومز غايد» تحذيراً أمنياً لمستخدمي نماذج دردشة الذكاء الاصطناعي - مثل «ChatGPT» و«كلود» وغيرهما - موضحاً أن هناك سبعة أنواع من البيانات يجب عدم لصقها أبداً في هذه الأنظمة لأنها قد تُستخدم في تدريب النماذج أو تُسرب في خرق أمني.
وبحسب خبراء الأمن السيبراني، فإن أخطر أنواع الأسرار الشخصية تشمل:
1 - كلمات المرور وأسئلة الأمان والرموز الثنائية.
2 - النصوص الطبية المحمية بقوانين الخصوصية مثل «HIPAA».
3 - الأسرار التجارية وخطط المنتجات غير المعلنة.
4 - بيانات بطاقات الائتمان وأرقام الضمان الاجتماعي.
5 - محادثات خاصة مع محامين أو أطباء أو معالجين نفسيين.
6 - رموز المصادقة الموقتة التي تصل عبر الرسائل النصية.
7 - محتويات كاملة من الكتب أو المقالات المحمية بحقوق النشر.
وأشار أستاذ أخلاقيات الذكاء الاصطناعي في جامعة ستانفورد إلى أن العديد من الشركات تفرض على موظفيها عدم استخدام هذه الأدوات لأي مهمة تتعلق بالبيانات الحساسة.
وأوصى الخبير المستخدمين بافتراض أن كل ما يكتبونه قد يطلع عليه موظف بشري أو يُستخدم لتحسين النموذج. وخلص التقرير إلى أن الذكاء الاصطناعي التوليدي أداة قوية، لكن استخدامها يتطلب وعياً كاملاً بالمخاطر.