التشخيص الطبي بالذكاء الاصطناعي... خطير!

2 يونيو 2025 10:00 م

حذّرت دراسة طبية كندية حديثة من الاعتماد على أدوات الذكاء الاصطناعي - مثل «ChatGPT» - في عمليات التشخيص الذاتي للحالات الصحية، مشيرةً إلى أن هذه الأدوات قد تُصدر نتائج غير دقيقة، بل وخطيرة أحياناً، في بعض السيناريوهات الطبية المعقدة.

وقد أجرى فريق البحث تجربة شاملة تم فيها اختبار مدى دقة «ChatGPT-4» في تحليل وتشخيص عدد من الحالات المرضية بناءً على الأعراض التي يقدمها المستخدمون عادة. وكانت النتائج مثيرة للقلق، إذ أظهر الذكاء الاصطناعي أداءً جيداً في بعض الحالات البسيطة، لكنه فشل فشلاً ذريعاً في تشخيص حالات خطيرة مثل تمزّق الشريان الأورطي، ما يهدد بتأخير العلاج ويضاعف فرص الوفاة.

وأشار الباحثون إلى أن أدوات الذكاء الاصطناعي لاتزال تعاني من غياب السياق السريري الكامل الذي يحتاجه الأطباء لاتخاذ قرارات دقيقة. وهذا من شأنه أن يقوّض الثقة في استخدامها كبدائل حقيقية للفحص الطبي البشري.

وأوضحت الدراسة أن الأشخاص الذين يستخدمون الذكاء الاصطناعي للتشخيص غالباً ما يفعلون ذلك بدافع القلق أو تجنّب زيارة الطبيب، لكنهم بذلك يخاطرون بصحتهم من دون علم. وتوصي الورقة البحثية بضرورة توعية المستخدمين بمخاطر الاستعانة بهذه الأدوات خارج الإطار الاستشاري للطبيب.

كما شددت الدراسة على ضرورة وضع لوائح تنظيمية واضحة للاستخدام الطبي لتكنولوجيا الذكاء الاصطناعي، بالتوازي مع مواصلة تطوير الخوارزميات لتصبح أكثر دقة في المستقبل.