دراسة جديدة من معهد MIT تكشف أن خطأ إملائي بسيط يمكن أن يؤثر بشكل كبير على توصيات أنظمة الذكاء الاصطناعي في الطب. حذرت الباحثة مرزية غسّمي، أستاذة الهندسة الكهربائية وعلوم الحاسوب، من تداعيات الاعتماد المتهور على هذه الأنظمة، خصوصًا بالنسبة للمرضى الذين قد يواجهون صعوبة في اللغة الإنجليزية أو يستخدمون لغة عامية.
تضمنت التجارب أربعة نماذج من الذكاء الاصطناعي، بما في ذلك GPT-4، حيث تم اختبارها باستخدام شكاوى مرضى مسجلة على منصات مثل ريديت. ووجدت الدراسة أن وجود أخطاء إملائية أو لغة عامية زاد من احتمالية توصية الذكاء الاصطناعي بعدم زيارة الطبيب بنسبة تتراوح بين 7% و9%. كما كشفت وجود تحيز ضد النساء، حيث كانت النماذج أكثر ميلًا لتقليل الحاجة إلى الرعاية الطبية عند التعامل مع شكاوى صادرة من مريضات.
أثار الخبراء قلقًا بشأن تأثير الاعتماد المفرط على الذكاء الاصطناعي على مهارات الأطباء، مما أدى إلى دعوات لوضع معايير تنظيمية صارمة للاستخدام الطبي لهذه الأنظمة. وأكدت غسّمي على أهمية تدريب النماذج على بيانات متنوعة لضمان العدالة وتقليل نسبة الانحياز.
هذه النتائج تفتح المجال لمزيد من الحوار حول أخلاقيات استخدام الذكاء الاصطناعي في المجال الطبي وتأثيره المحتمل على رعاية المرضى، مما يدعو لمزيد من الأبحاث والتنظيم لحماية صحة المرضى.
عدد المصادر التي تم تحليلها: 4
المصدر الرئيسي : عالم التقنية – فريق التحرير
معرف النشر: TECH-310825-300

