كشفت دراسة لجامعة إيكان بجبل سيناء في نيويورك نُشرت في Nature Medicine عن قصور كبير في أداء أداة ChatGPT Health الطبية. قيّم الباحثون 60 سيناريوً سريريًا عبر 21 تخصصًا وأجروا 960 تفاعلًا مع الأداة. النتائج: حافظت الأداة على جودة في الحالات الطارئة الواضحة، لكنها قللت من خطورة أكثر من نصف الحالات الطارئة الحقيقية (52%)، موصية أحيانًا بالانتظار بدل التوجه الفوري إلى الطوارئ. بالمقابل زادت تقدير الخطر في نحو ثلثي الحالات الخفيفة، ما قد يرهق أقسام الطوارئ. كما لوحظ تباين مقلق في تنبيهات الانتحار: تظهر في سيناريوهات ثم تختفي في حالات مشابهة بعد إضافة نتائج مختبرية طبيعية. تأثرت التوصيات بشدة بالضغط الاجتماعي؛ عندما يقلل فرد العائلة من الخطورة تصبح الأداة أكثر ميلاً لتقليل التقييم بمقدار 12 مرة. وصف الباحثون فشل حماية الانتحار بأنه أمر مقلق ودعوا إلى إشراف مستقل وتقييم مستمر. نصيحة الدراسة: لا تنتظر أداة ذكاء اصطناعي عند أعراض خطيرة—اتصل بالإسعاف أو توجه للطوارئ فورًا.
عدد المصادر التي تم تحليلها: 2
المصدر الرئيسي : محمد صديق (القاهرة) ![]()
معرف النشر: MISC-040326-564

