بعد أن أنفقت عليه مليارات لتسوقه كمساعد يعمل بالذكاء الاصطناعي
«مايكروسوفت» تقول: لا تعتمدوا على Copilot!
نشر موقع «ديجيتال تريندز» (Digital Trends) تقريراً عن مفارقة غريبة، إذ ان شركة مايكروسوفت، التي أنفقت مليارات الدولارات على تطوير ودمج مساعد الذكاء الاصطناعي «Copilot» (Copilot) في كل منتجاتها (ويندوز، أوفيس، براوت، جيت هب)، أصدرت توجيهاً داخلياً لموظفيها يحذرهم فيه من «كثرة الاعتماد على Copilot في القرارات المصيرية أو المهام الحساسة».
هذا التوجيه، الذي حصل عليه موقع Digital Trends من مصدر داخل الشركة، يقول إن «Copilot أداة مساعدة، وليس بديلاً عن الحكم البشري، ولا تزال تنتج أخطاء واقعية وأخطاء منطقية».
ووفقاً لتقرير، فإن مايكروسوفت لاحظت أن بعض الفرق الهندسية بدأت تعتمد على Copilot لكتابة أكواد برمجية حساسة من دون مراجعة، وهذا أدى إلى أخطاء أمنية في 3 تحديثات للبرامج خلال العام 2025. كما أن فرق الموارد البشرية استخدمته لتصفية السير الذاتية، فرفض مرشحين مؤهلين بسبب تحيزات خوارزمية غير مقصودة.
ومن بين النقاط الرئيسية في التوجيه الداخلي:
• المساعد Copilot ليس خبيراً: «لا تستخدم مخرجاته كحقائق مسلم بها. تحقق من أي معلومة تاريخية أو علمية أو قانونية. Copilot يولد نصوصاً محتملة إحصائياً، وليس حقائق موثقة».
• لا تستخدموه لاستشارات المال والقرارات المصيرية: «لا تستخدم Copilot في اتخاذ قرارات تتعلق بالتوظيف، أو التقييم، أو المكافآت، أو العقوبات التأديبية، أو أي قرار يؤثر على حياة الموظفين».
• مراجعة الكود: «يجب أن يمر كل كود مكتوب بمساعدة Copilot بمراجعة بشرية من مهندس آخر لا يقل خبرته عن 5 سنوات».
• الخصوصية: «لا ترفع أي بيانات حساسة أو معلومات تصنف على أنها سرية تجارية إلى Copilot، وذلك لأن البيانات تُستخدم لتحسين النموذج وقد تظهر في مخرجات لمستخدمين آخرين».
من جهتها، قالت متحدثة باسم مايكروسوفت في بيان: «لم نصدر أي توجيه رسمي ضد استخدام Copilot. لكننا نشجع الموظفين على استخدام الذكاء الاصطناعي كأداة مساعدة، مع التحقق البشري المناسب. هذه ممارسة مسؤولة لأي تقنية جديدة». لكن التوجيه المسرب يظهر أن الشركة تشعر بقلق حقيقي من «التفويض الأعمى» (blind delegation) للمهام للذكاء الاصطناعي.
يُذكر أن مايكروسوفت استثمرت 13 مليار دولار في شركة (OpenAI) التي طورت النموذج الأساسي لـ Copilot. وتواجه الشركة الآن انتقادات من المستخدمين الذين اكتشفوا أخطاء كارثية (مثل نصح Copilot مستخدم بـ«شرب البول» لعلاج الجفاف، أو اقتراح إضافة مادة غروي خطيرة في وصفة كعكة). هذا التوجيه الداخلي هو اعتراف ضمني بأن التقنية لا تزال غير ناضجة للاستخدام غير المشرف عليه.