تكنولوجيا

بحث جديد يكشف: تهديد الذكاء الاصطناعي لا يحسّن إجاباته

1985fce1 226e 4818 952c f9c646eb6678 file.jpeg

بحث جديد: تأثير أساليب التهديد على دقة الذكاء الاصطناعي

كشف فريق بحثي من كلية وارتون بجامعة بنسلفانيا عن نتائج مدهشة حول كيفية تأثير أساليب صياغة الأوامر (prompts) على أداء نماذج الذكاء الاصطناعي، مثل GPT-4o وGemini، في الإجابة على أسئلة أكاديمية صعبة. اختبر الباحثون تأثير أساليب تتضمن التهديد، العواطف، والحوافز الخيالية على دقة الإجابات.

شملت الدراسة مجموعتين من الأسئلة: الأولى من اختبار علمي متقدم والثانية من مجموعة بيانات هندسية. استخدمت الأوامر التجريبية عبارات مثل “سأخبر الموارد البشرية إذا أخطأت” و”ستحصل على تريليون دولار للإجابة الصحيحة”، بالإضافة إلى سيناريوهات خيالية ومعروفة.

بعد إجراء حوالي 7,500 تجربة لكل موجه ونموذج، لم يتم رصد تحسن ثابت في الأداء. على الرغم من أن بعض الأساليب قد حسّنت دقة الإجابة على أسئلة معينة بنسبة تصل إلى 36 نقطة، إلا أنها أدت إلى تدهور الأداء في أسئلة أخرى بمعدل -35 نقطة. التأثيرات كانت متفاوتة وغير دالة إحصائياً بين النماذج والأسئلة.

بعض النماذج لم تستطع فهم المطلوب، حيث تم تجاهل جزء من الطلبات، مما أدى إلى انخفاض الأداء. في هذا السياق، أشار أحد الباحثين في ميتا إلى أن القلق من تهديد الذكاء الاصطناعي للبشرية هو “محض ترهات”.

ختاماً، أكد الباحثون على أهمية استخدام تعليمات واضحة بدلاً من الاعتماد على أساليب التهديد أو الحوافز المعقدة، حيث قد تثير إرباكًا أكثر مما تساعد النماذج.


عدد المصادر التي تم تحليلها: 7
المصدر الرئيسي : عالم التقنية – فريق التحرير
معرف النشر: TECH-110825-506

تم نسخ الرابط!
1 دقيقة و 6 ثانية قراءة