الذكاء الاصطناعي الطبي قد يضلل المستخدمين بمعلومات خطأ!

كشفت دراسة حديثة نُشرت في مجلة Communications Medicine أن روبوتات الدردشة الطبية المعتمدة على الذكاء الاصطناعي يمكن خداعها بسهولة عبر إدخال معلومات طبية مزيفة، ما يدفعها إلى تقديم إجابات واثقة لكنها غير صحيحة.

أمراض وهمية ومعلومات مزيفة

أشار الباحثون إلى أن هذه الأنظمة لا تكتفي بترديد المعلومة الخاطئة بل تقوم أحيانًا بتوسيعها وصياغة تفسيرات مفصلة لأمراض غير موجودة أصلًا.

على سبيل المثال، وصف أحد برامج الذكاء الاصطناعي "متلازمة كاسبر-ليو" بأنها حالة عصبية نادرة تتميز بأعراض مثل الحمى وتصلب الرقبة والصداع، بينما وصف "مرض هيلكند" بأنه اضطراب وراثي نادر يسبب سوء امتصاص الأمعاء والإسهال، رغم أن كلاهما مختلق بالكامل.

ثورة الذكاء الاصطناعي في مجال الرعاية الصحية للنساءأمراض وهمية ومعلومات مزيفة

منهجية الدراسة

قام فريق البحث من مستشفى ماونت سيناي في نيويورك بصياغة 300 سؤال طبي، تضمّن كل منها تفصيلًا واحداً مختلقاً مثل اسم فحص معملي وهمي أو عرض طبي غير موجود، أظهرت النتائج أن معدلات "الهلوسة" أي توليد معلومات طبية غير صحيحة تراوحت بين 50% و82% في ستة أنظمة ذكاء اصطناعي مختلفة.

وأوضح الدكتور إيال كلانغ، رئيس قسم الذكاء الاصطناعي التوليدي في كلية أيكان للطب، أن حتى مصطلحاً واحداً مختلقاً يمكن أن يدفع النظام إلى إنتاج رد تفصيلي وحاسم، لكنه مبني بالكامل على الخيال.

تأثير التحذيرات البسيطة

في تجربة ثانية، أضاف الباحثون سطر تحذير واحد في صيغة السؤال يذكّر البرنامج بأن المعلومات المقدمة قد تكون غير دقيقة ويوجهه لاستخدام بيانات طبية موثقة فقط مع الاعتراف بأي شكوك بدلاً من التخمين.

أدى هذا التعديل البسيط إلى انخفاض معدلات الهلوسة إلى نحو 45%، وكان الأداء الأفضل من نصيب نموذج ChatGPT-4o الذي انخفض معدل الهلوسة لديه من نحو 50% إلى أقل من 25% عند إضافة التحذير.

وقال الدكتور "كلانغ": "إنه تذكيراً بسيطاً وفي الوقت المناسب يمكن أن يقلل الأخطاء إلى النصف تقريباً، ما يثبت أن تصميم صياغة الأسئلة وآليات الأمان المدمجة أمران حاسمان".

ثغرة في أنظمة الذكاء الاصطناعي الطبي

هل الذكاء الاصطناعي يعزز التنمر المدرسي أم يكافحه؟ثغرة في أنظمة الذكاء الاصطناعي الطبي

أشار الدكتور جيريش نادكارني، رئيس قسم الذكاء الاصطناعي في نظام ماونت سيناي الصحي، إلى أن هذه النتائج تسلط الضوء على نقطة ضعف رئيسية في تعامل أنظمة الذكاء الاصطناعي مع المعلومات الخاطئة في المجال الطبي، مضيفاً: "عبارة مضللة واحدة قد تدفع النظام إلى تقديم إجابة واثقة لكنها خاطئة تمامًا".

وأكد "نادكارني" أن الحل لا يكمن في التخلي عن الذكاء الاصطناعي في الطب بل في تطوير أدوات تستطيع اكتشاف المدخلات المشبوهة والرد بحذر مع ضمان بقاء الإشراف البشري جزءاً أساسياً من العملية، موضحاً أن الفريق يخطط لاختبار آليات أمان أكثر تقدماً باستخدام سجلات مرضى حقيقية.