نُشرت دراسة في مجلة JAMA Network Open في 28 أكتوبر 2024، تناولت تأثير النماذج اللغوية الكبيرة (LLMs) مثل ChatGPT في دقة التشخيص الطبي مقارنةً بالموارد التقليدية. شارك في الدراسة 50 طبيبًا، حيث طُلب منهم تشخيص ست حالات طبية متنوعة. تم تقسيم الأطباء إلى مجموعتين: المجموعة الأولى استخدمت ChatGPT، بينما اعتمدت الثانية على موارد طبية تقليدية مثل UpToDate وPubMed.
أظهرت النتائج أن الأطباء الذين استخدموا ChatGPT حصلوا على درجة 76%، بينما حصلت المجموعة التي اعتمدت على المصادر التقليدية على 74%. أما ChatGPT نفسه، فقد حقق درجة 90% في التشخيص. وأشار الدكتور رودمان، مشارك في الدراسة، إلى أن الذكاء الاصطناعي لم يكن بمقدوره تحسين أداء الأطباء كما كان متوقعًا. وذلك بسبب عدم ثقة الأطباء في المعلومات التي يقدمها الذكاء الاصطناعي، والتشبث بتشخيصاتهم الشخصية.
كما أظهرت الدراسة وجود فجوة معرفية، حيث لم يتمكن العديد من الأطباء من استغلال إمكانيات الذكاء الاصطناعي بشكل كامل. وأكد مؤلفو الدراسة أهمية تطوير التكنولوجيا الطبية وتعليم الأطباء كيفية التفاعل مع الذكاء الاصطناعي بشكل فعال لتحسين دقة التشخيص.
ختامًا، تشير النتائج إلى فارق كبير في الدقة بين التقييمات الذاتية للأطباء ونتائج الذكاء الاصطناعي، مما يبرز ضرورة تعزيز التدريب والتثقيف في استخدام تقنيات الذكاء الاصطناعي لضمان تنفيذ أفضل في التشخيص الطبي.
عدد المصادر التي تم تحليلها: 4
المصدر الرئيسي : aitnews.com آية رضوان
post-id: 045b33e9-2eca-45b0-8a52-143c6ff8a3d8