تكنولوجيا

دراسة: نماذج الذكاء الاصطناعي تُظهر ثقة مفرطة في إجاباتها رغم الأخطاء

8046f1e0 65c6 4f0b 914d b8f7aede8ca5 file.jpeg

كشفت دراسة حديثة من جامعة Carnegie Mellon أن نماذج الذكاء الاصطناعي المتقدمة مثل ChatGPT وGemini وClaude تظهر ثقة مفرطة في إجاباتها حتى عندما تكون خاطئة. تم إجراء مقارنة بين أداء هذه النماذج وأداء أشخاص حقيقيين في مهام متنوعة، بدءًا من توقع نتائج مباريات دوري كرة القدم الأمريكية إلى اختيار الفائزين بجوائز الأوسكار.

طلب الباحثون من المشاركين، سواء كانوا نماذج ذكاء اصطناعي أو أفرادًا، تقييم مستوى ثقتهم في إجاباتهم قبل وبعد كل مهمة. أظهرت النتائج أن البشر يكونون أكثر قدرة على تعديل توقعاتهم بناءً على أدائهم الفعلي، بينما تستمر النماذج في إظهار ثقة عالية حتى عند تكرار الأخطاء.

في بعض الحالات، زادت ثقة النماذج بعد الأداء المتواضع، مثل نموذج Gemini الذي حقق أقل دقة ولكنه ظل الأكثر ثقة. في المقابل، أظهر ChatGPT أداءً جيدًا في توقع نتائج المباريات، بينما كان Claude أكثر حذرًا في الإجابات.

تُبرز هذه الدراسة التباين بين ثقة النماذج وأدائها الفعلي، مما يستوجب الحذر عند الاعتماد على إجابات أنظمة الذكاء الاصطناعي، خصوصًا في القرارات الحرجة. وأوصى الباحثون بتطوير آليات لمراجعة النتائج وتعديل مستويات الثقة، مما يمكن أن يسهم في تحسين مصداقية هذه النماذج في المستقبل. حتى ذلك الحين، يُنصح المستخدمون بعدم الاعتماد الكامل على ثقة الأنظمة في إجاباتها.


عدد المصادر التي تم تحليلها: 5
المصدر الرئيسي : عالم التقنية – فريق التحرير
معرف النشر: TECH-230725-331

تم نسخ الرابط!
1 دقيقة و 3 ثانية قراءة