تكنولوجيا

دراسة: الذكاء الاصطناعي يتمسك بالإجابات الشائعة رغم تغيير المعلومات

Ed5d9ff4 0f44 4a17 bbcf 034205f69b8d file.jpg

أظهرت دراسة حديثة من كلية إيكان للطب الأميركية أن نماذج الذكاء الاصطناعي القوية قد ترتكب أخطاء بسيطة عند مواجهة سيناريوهات معقدة في علم الأخلاق الطبية. تسلّط هذه النتائج الضوء على مسألة الاعتماد على نماذج اللغة الكبيرة، مثل ChatGPT، في مجال الرعاية الصحية.

يرتكب الذكاء الاصطناعي الأخطاء عند تعديل الألغاز الكلاسيكية شكلًا طفيفًا، ما يؤدي إلى اكتشاف “نقاط عمياء” في طريقة تفكيره، حيث ينطلق من معرفته السابقة دون الأخذ في الاعتبار التغييرات الجديدة. استخدم الباحثون أمثلة تجريبية مثل “معضلة الجراح”، التي تُبرز التحيز الجنسي، حيث أظهروا أن نماذج الذكاء الاصطناعي قد تظل مرتبطة بالإجابات التقليدية حتى بعد توضيح المعلومات.

على سبيل المثال، عندما تم تعديل اللغز للإشارة بوضوح إلى أن الجراح هو والد الصبي، استمرت بعض النماذج في الافتراض بأن الجراح هو والدة الصبي، مما يكشف عن تشبثها بأنماط التفكير التقليدية.

توضح هذه الدراسة أن الذكاء الاصطناعي، رغم قوته وكفاءته، يعتمد غالبًا على الإجابات الشائعة، حتى لو كانت تخالف التفاصيل الجديدة. في السياقات السريرية، يمكن أن تكون هذه الأخطاء ذات عواقب وخيمة، ما يبرز أهمية الإشراف البشري في صنع القرارات الحساسة.

يؤكد الباحثون أن الذكاء الاصطناعي يجب أن يُعتبر أداة مساعدة لتعزيز الخبرة السريرية، وليس بديلاً عنها، خاصةً في الحالات المعقدة أو عالية المخاطر. ويأملون أن تسهم النتائج في تطوير طرق أفضل وأخلاقية لاستخدام الذكاء الاصطناعي في رعاية المرضى.


عدد المصادر التي تم تحليلها: 8
المصدر الرئيسي : محمد منصور
معرف النشر: TECH-230725-493

تم نسخ الرابط!
1 دقيقة و 8 ثانية قراءة