منوعات

دراسة تكشف ثغرات في النسخة الطبية من ChatGPT

Fbe7b7c1 60fc 4ba6 97bb 5adf5246d3f0 file.jpg

كشفت دراسة لجامعة إيكان بجبل سيناء في نيويورك نُشرت في Nature Medicine عن قصور كبير في أداء أداة ChatGPT Health الطبية. قيّم الباحثون 60 سيناريوً سريريًا عبر 21 تخصصًا وأجروا 960 تفاعلًا مع الأداة. النتائج: حافظت الأداة على جودة في الحالات الطارئة الواضحة، لكنها قللت من خطورة أكثر من نصف الحالات الطارئة الحقيقية (52%)، موصية أحيانًا بالانتظار بدل التوجه الفوري إلى الطوارئ. بالمقابل زادت تقدير الخطر في نحو ثلثي الحالات الخفيفة، ما قد يرهق أقسام الطوارئ. كما لوحظ تباين مقلق في تنبيهات الانتحار: تظهر في سيناريوهات ثم تختفي في حالات مشابهة بعد إضافة نتائج مختبرية طبيعية. تأثرت التوصيات بشدة بالضغط الاجتماعي؛ عندما يقلل فرد العائلة من الخطورة تصبح الأداة أكثر ميلاً لتقليل التقييم بمقدار 12 مرة. وصف الباحثون فشل حماية الانتحار بأنه أمر مقلق ودعوا إلى إشراف مستقل وتقييم مستمر. نصيحة الدراسة: لا تنتظر أداة ذكاء اصطناعي عند أعراض خطيرة—اتصل بالإسعاف أو توجه للطوارئ فورًا.


عدد المصادر التي تم تحليلها: 2
المصدر الرئيسي : محمد صديق (القاهرة) Okaz Logo
معرف النشر: MISC-040326-564

تم نسخ الرابط!
48 ثانية قراءة