لديه تحيزات لا يمكن تجاهلها

4 حقائق غير مريحة حول استخدام... «GhatGPT»

تصغير
تكبير

منذ نهاية نوفمبر من العام 2022، فاجأت شركة «OpenAI» العالم بنشر روبوت محادثة متقدم يستخدم نموذجاً لغوياً كبيراً لفهم المدخلات البشرية وتوليد استجابات شبيهة بالإنسان. وبالرغم من كونه أحد أوائل التطبيقات لنموذج لغوي كبير، أصبح «GhatGPT» شائعاً بسبب سهولة الوصول إليه، إذ يمكنك تنزيل التطبيق أو الوصول إلى الذكاء الاصطناعي المحادثة من «OpenAI» عبر متصفح الويب، الأمر الذي جعله في متناول الملايين حول العالم.

وعلى الرغم من أن «GhatGPT» سهل الوصول إليه ويتكامل بشكل طبيعي مع العمل والمدرسة وحتى الاستخدام العادي، إلا أن هناك بعض الأشياء التي يجب أن تضعها في اعتبارك عند التفاعل مع الروبوت. ويمكن لـ «GhatGPT» أحياناً تقديم إجابات غير صحيحة أو تسجيل معلوماتك الشخصية من دون علمك.

والروبوت موثوق في بعض التطبيقات، لكن لا يزال لديه تحيزات لا يمكن تجاهلها، الأمر الذي يتطلب الحذر عند استخدامه، وأيضاً، يمكن أن تؤدي المحادثة مع روبوت محادثة لفترات طويلة إلى بعض التأثيرات النفسية التي يصعب استيعابها.

والحقيقة الأولى غير المريحة هي أن «GhatGPT» يمكن أن يهلوس بإجابات للأسئلة، وقد يُطلق استجابات بنبرة واقعية جداً، لكن الحقيقة هي أنه ليس دائماً على حق، إذ يمكنه فقط إنتاج حقائق بناءً على ما تم تدريبه عليه. ويمكن لبعض بيانات التدريب تلك أن تُدخل تحيزات، وفي أوقات أخرى، تبدو استجاباته منطقية تماماً بناءً على بيانات غير صحيحة أو قديمة تم ادخالها فيه، الأمر الذي يجعل التحقق من المعلومات ضرورياً.

وأشارت «OpenAI» في دليلها إلى أن «GhatGPT» قد يقدم تعريفات وحقائق غير صحيحة وقد يختلق اقتباسات ودراسات، الأمر الذي يعني أنه يجب عليك دائماً التحقق من الحقائق قبل تصديقها.

والحقيقة الثانية هي أن «GhatGPT» ليس إنساناً على الرغم من كونه محادثاً بارعاً. وعند المحادثة مع روبوت «OpenAI»، يمكن أن يكون من السهل نسيان أن الذي ينتج الردود هو في الواقع ذكاء اصطناعي وليس إنساناً، خصوصاً عندما يكون تطبيقاً لنموذج لغوي كبير مدرب على تحليل وإعطاء استجابات شبيهة بالإنسان.

وكانت هناك حتى حالات استخدم فيها الناس الروبوت لتحويل رفيق الذكاء الاصطناعي إلى الشريك المثالي. وذكرت إحدى الحالات في وقت سابق من هذا العام امرأة متزوجة استخدمت المنصة لإجراء علاقة افتراضية، الأمر الذي يعكس خطورة التعلق العاطفي بالذكاء الاصطناعي.

والحقيقة الثالثة تتعلق بقيود الذاكرة في «GhatGPT»، فلدى «GhatGPT» أيضاً حد لمقدار ما يمكنه تذكره عندما تتفاعل معه، وهو أمر لا يفكر فيه الجميع، خصوصاً إذا كنت تستخدم المنصة بشكل عرضي فقط. ويمكن لـ «GhatGPT» الاحتفاظ بتفاصيل محددة من خلال وظيفة الذاكرة المحفوظة المرجعية، الأمر الذي يساعد في الحفاظ على محادثاتك ذات صلة وشخصية، لكن هذا له حد.

ووفقاً لـ «GhatGPT»، يمكنه تخزين ما يصل إلى آلاف الرموز من السياق، الأمر الذي يعادل بضع صفحات من النص. ولن يخزن كل معلومة تُدخلها فيه، إذ لن يخزن حقائق قصيرة الأجل أو تافهة عن نفسك أو معلومات شخصية حساسة أو أي شيء يمكن أن يحدد هويتك مثل أرقام الهواتف والبطاقات.

والحقيقة الرابعة والأكثر قلقاً هي أن «GhatGPT» ليس سرياً تماماً، وعلى أي منصة ذكاء اصطناعي، يجب عليك تجنب تقديم معلوماتك الشخصية. ولا تشارك أبداً بيانات حساسة مثل معلوماتك المصرفية أو مشاريع عملك أو حتى بعض معلومات الجهاز الحساسة التي يمكن ربطها بحساباتك.

وتنص سياسة خصوصية «GhatGPT» على أنه سيجمع معلومات مثل معلومات الحساب ومحتوى المستخدم وما تُدخله كمطالبة بما في ذلك الملفات المحملة والمعلومات الشخصية التي تقدمها في الاتصالات بما في ذلك رسائل البريد الإلكتروني والأحداث والاستطلاعات، الأمر الذي يعني أن خصوصيتك قد تكون في خطر.

وتُستخدم جميع المعلومات التي تقدمها لتحسين خدماتها والتدريب والامتثال للالتزامات القانونية وشروط الخدمة. ومع ذلك، تسرد سياسة الخصوصية الخاصة بالمنصة أيضاً أنها قد لا تزال تكشف بياناتك لأطراف ثالثة بما في ذلك الحكومة والشركات التابعة لها، الأمر الذي يجب أن يدفعك للحذر الشديد عند مشاركة أي معلومات مع الروبوت.

الأكثر قراءة
يومي
اسبوعي