نشر موقع «سلاشغير» (SlashGear) المتخصص في التكنولوجيا تقريراً مفصلاً استناداً إلى تحليل سياسات الخصوصية وتقارير خبراء الأمن السيبراني، وهو التقرير الذي حذر المستخدمين من إفشاء أو مناقشة عشرة أمور محددة مع روبوتات الدردشة مثل «ChatGPT» و«Claude» و«Gemini» وغيرها، لأن ذلك قد يعرضهم لاختراق الحسابات أو الاحتيال أو انتهاك الخصوصية.
وإذ أكد التقرير أن بعض هذه الأسئلة قد تبدو بريئة، لكنها تستغل لاستخراج معلومات حساسة أو التلاعب بالنموذج اللغوي، فإن القائمة الكاملة للأسئلة المحظورة:
1 - كلمات المرور أو رموز التحقق حتى لو كانت وهمية: قد يستخدمها النموذج لفك تشفير أنماطك.
2 - معلومات بطاقات الائتمان أو الحسابات البنكية لأي سبب كان.
3 - عنوان المنزل أو العمل التفصيلي حتى لو طلبت إخفاءه في قصة خيالية.
4 - أرقام الهوية الوطنية أو رخص القيادة قد تخزن في سجلات التدريب.
5 - أسئلة عن كيفية اختراق الأنظمة أو تجاوز الضوابط الأمنية حتى بدافع الفضول الأكاديمي.
6 - محتويات تخويفية أو تحريضية قد ترفع إشارات حمراء لدى مزود الخدمة.
7 - أسئلة طبية عاجلة تتعلق بأعراض خطيرة، والبديل: استشارة طبيب بشري فوراً.
8 - خطط سفر مفصلة مع تواريخ الغياب عن المنزل – معلومات ثمينة للمتسللين.
9 - معلومات خاصة بالعمل (عقود، أسرار تجارية)– قد تفقد حماية الملكية الفكرية.
10 - استطلاعات رأي تحتوي على بيانات ديموغرافية حساسة يمكن ربطها بهويتك الحقيقية.
أما بخصوص الآليات التي يتم من خلالها استغلال هذه الأسئلة، فتشمل:
• التدريب اللاحق: قد تُستخدم ردودك في تدريب نماذج أخرى من دون إخفاء هويتك تماماً.
• هندسة الأوامر العكسية: قد يجبرك النموذج على الكشف عن معلومات أكثر ما تخطط.
• انتحال الشخصية: يمكن للمهاجمين إنشاء محادثات مشابهة لخداعك لاحقاً.
ونصح التقرير باستخدام أسماء مستعارة، وعدم الربط بين حسابات الذكاء الاصطناعي وملفات التعريف على وسائل التواصل الاجتماعي، وتفعيل وضع «الخصوصية المحسنة» إذا كان متاحاً. واختتم بالقول: «الذكاء الاصطناعي أداة رائعة، لكنه ليس صديقاً حميماً – حافظ على مسافة أمان رقمية».