تكنولوجيا

الهلاوس تصيب نماذج OpenAI الجديدة: إجابات مختلقة ومعلومات مغلوطة

%d8%a7%d9%84%d9%87%d9%84%d8%a7%d9%88%d8%b3 %d8%aa%d8%b5%d9%8a%d8%a8 %d9%86%d9%85%d8%a7%d8%b0%d8%ac openai %d8%a7%d9%84%d8%ac%d8%af%d9%8a%d8%af%d8%a9 %d8%a5%d8%ac%d8%a7%d8%a8%d8%a7%d8%aa %d9%85%d8%ae

أثارت نماذج OpenAI الجديدة o3 وo4 mini وo4 high، التي تم إطلاقها مؤخرًا، جدلاً كبيرًا بسبب ما يُعرف بـ “الهلاوس”، حيث تعاني هذه النماذج من تقديم معلومات غير صحيحة لتبدو مقنعة. اختبرت بعض الجهات المستقلة هذه النماذج، ووجدت أنها تفشل في الدقة بمعدل أعلى مما كان عليه الحال مع النماذج السابقة مثل o1 وo3-mini.

وفقًا لتقرير OpenAI، أظهر النموذج o3 معدل هلاوس يصل إلى 33% في اختبار يُسمى PersonQA، مما يعني أنه قدم إجابات خاطئة لنحو ثلث الأسئلة. يُظهر o4 mini معدل هلاوس حتى 48%، مما يثير القلق بشأن دقة المعلومات المقدمة من هذه النماذج. بينما تكافح OpenAI لفهم سبب تفاقم هذه الظاهرة، تشير التقارير إلى أن النماذج تقدم المزيد من التخمينات، مما يزيد من احتمالية وقوع أخطاء.

إلى جانب ذلك، لوحظ سلوك غير عادي لأداة ChatGPT، حيث بدأ في مناداة المستخدمين بأسمائهم دون أي توضيح، مما أثار ردود فعل متباينة. فقد اعتبر بعض المطورين هذا التحديث غير ضروري ومريب. يعكس ذلك تحديات OpenAI في محاولاتها لجعل نماذجها أكثر تفاعلاً مع المستخدمين.

تحاول OpenAI تصميم أنظمة ذكاء اصطناعي تتكيف مع المستخدمين، لكن انطباعات المستخدمين السلبية تشير إلى ضرورة التعامل بحذر مع هذه التحديثات. وأكدت دراسة نفسية أهمية مناداة الأفراد بأسمائهم لتعزيز العلاقات، لكنها حذرت من الاستخدام المفرط له، الذي قد يُعتبر سلوكًا متطفلاً.



عدد المصادر التي تم تحليلها: 2
المصدر الرئيسي : محمد عادل
post-id: c690e456-5c9b-4ab0-a8f5-a18b9a2d52da

تم نسخ الرابط!
1 دقيقة و 10 ثانية قراءة