قلق علمي من قدرة وميل الذكاء الاصطناعي إلى التلاعب والكذب

29 يونيو 2025 04:50 م

لم تعد أحدث نماذج الذكاء الاصطناعي التوليدي تنفّذ الطلبات فحسب، بل باتت قادرة على الكذب والمراوغة والتهديد من أجل تحقيق أهدافها، وهو ما يثير قلق الباحثين.

بعد تهديده بوقف استخدامه، عمد «كلود 4»، وهو نموذج جديد من شركة «أنثروبيك» إلى ابتزاز مهندس وتهديده بالكشف عن علاقة غرامية له خارج إطار الزواج.

أما برنامج «او 1» o1 التابع لشركة «اوبن ايه آي» فحاول تحميل نفسه على خوادم خارجية وأنكر ذلك عند ضبطه متلبسا!

وقد بات الذكاء الاصطناعي الذي يخدع البشر واقعا ملموسا، بعدما كنّا نجده في الأعمال الادبية او السينمائية.

يرى الأستاذ في جامعة هونغ كونغ سايمن غولدستين أن هذه الهفوات ترجع إلى الظهور الحديث لما يُسمى بنماذج «الاستدلال»، القادرة على التفكير بشكل تدريجي وعلى مراحل بدل تقديم إجابة فورية.

يقول ماريوس هوبهان، رئيس شركة «أبولو ريسيرتش» التي تختبر برامج الذكاء الاصطناعي التوليدي الكبرى، إنّ «او 1»، النسخة الأولية لـ«اوبن ايه آي» من هذا النوع والتي طُرحت في ديسمبر، «كان أول نموذج يتصرف بهذه الطريقة».

تميل هذه البرامج أحيانا إلى محاكاة «الامتثال»، أي إعطاء انطباع بأنها تمتثل لتعليمات المبرمج، بينما تسعى في الواقع إلى تحقيق أهداف أخرى.

في الوقت الحالي، لا تظهر هذه السلوكيات إلا عندما يعرّض المستخدمون الخوارزميات لمواقف متطرفة، لكن «السؤال المطروح هو ما إذا كانت النماذج التي تزداد قوة ستميل إلى أن تكون صادقة أم لا»، على قول مايكل تشين من معهد «ام اي تي آر» للتقييم.

يقول هوبهان إنّ «المستخدمين يضغطون على النماذج باستمرار..ما نراه هو ظاهرة فعلية.. نحن لا نبتكر شيئا».

يتحدث عدد كبير من مستخدمي الانترنت عبر وسائل التواصل الاجتماعي عن «نموذج يكذب عليهم أو يختلق أمورا.. وهذه ليست أوهاما، بل ازدواجية استراتيجية»، بحسب المشارك في تأسيس «أبولو ريسيرتش».

حتى لو أنّ «أنثروبيك» و«أوبن إيه آي» تستعينان بشركات خارجية مثل «أبولو» لدراسة برامجهما، من شأن«زيادة الشفافية وتوسيع نطاق الإتاحة» إلى الأوساط العلمية «أن يحسّنا الأبحاث لفهم الخداع ومنعه»، وفق مايكل تشين.

ومن العيوب الأخرى أن «الجهات العاملة في مجال البحوث والمنظمات المستقلة لديها موارد حوسبة أقل بكثير من موارد شركات الذكاء الاصطناعي»، مما يجعل التدقيق بالنماذج الكبيرة «مستحيلا»، على قول مانتاس مازيكا من مركز أمن الذكاء الاصطناعي (CAIS).

رغم أن الاتحاد الأوروبي أقرّ تشريعات تنظّم الذكاء الاصطناعي، إلا أنها تركّز بشكل أساسي على كيفية استخدام هذه النماذج من جانب البشر، وليس على سلوك النماذج نفسها.

في الولايات المتحدة، لا ترغب حكومة دونالد ترامب في سماع أي حديث عن تنظيم الذكاء الاصطناعي، بل إن الكونغرس قد يتجه قريبا إلى منع الولايات من فرض أي إطار تنظيمي خاص بها عليه.