أظهرت دراسة حديثة من كلية إيكان للطب الأميركية أن نماذج الذكاء الاصطناعي القوية قد ترتكب أخطاء بسيطة عند مواجهة سيناريوهات معقدة في علم الأخلاق الطبية. تسلّط هذه النتائج الضوء على مسألة الاعتماد على نماذج اللغة الكبيرة، مثل ChatGPT، في مجال الرعاية الصحية.
يرتكب الذكاء الاصطناعي الأخطاء عند تعديل الألغاز الكلاسيكية شكلًا طفيفًا، ما يؤدي إلى اكتشاف “نقاط عمياء” في طريقة تفكيره، حيث ينطلق من معرفته السابقة دون الأخذ في الاعتبار التغييرات الجديدة. استخدم الباحثون أمثلة تجريبية مثل “معضلة الجراح”، التي تُبرز التحيز الجنسي، حيث أظهروا أن نماذج الذكاء الاصطناعي قد تظل مرتبطة بالإجابات التقليدية حتى بعد توضيح المعلومات.
على سبيل المثال، عندما تم تعديل اللغز للإشارة بوضوح إلى أن الجراح هو والد الصبي، استمرت بعض النماذج في الافتراض بأن الجراح هو والدة الصبي، مما يكشف عن تشبثها بأنماط التفكير التقليدية.
توضح هذه الدراسة أن الذكاء الاصطناعي، رغم قوته وكفاءته، يعتمد غالبًا على الإجابات الشائعة، حتى لو كانت تخالف التفاصيل الجديدة. في السياقات السريرية، يمكن أن تكون هذه الأخطاء ذات عواقب وخيمة، ما يبرز أهمية الإشراف البشري في صنع القرارات الحساسة.
يؤكد الباحثون أن الذكاء الاصطناعي يجب أن يُعتبر أداة مساعدة لتعزيز الخبرة السريرية، وليس بديلاً عنها، خاصةً في الحالات المعقدة أو عالية المخاطر. ويأملون أن تسهم النتائج في تطوير طرق أفضل وأخلاقية لاستخدام الذكاء الاصطناعي في رعاية المرضى.
عدد المصادر التي تم تحليلها: 8
المصدر الرئيسي : محمد منصور
معرف النشر: TECH-230725-493