تفاقمت مشاكل “هلوسة الذكاء الاصطناعي” بشكل ملحوظ بعد كل تحديث للبرامج، وتعتبر هذه الظاهرة من أبرز القضايا التي تُقلق خبراء التكنولوجيا. بالرغم من التحسينات الكبيرة التي تحققها أنظمة الذكاء الاصطناعي، إلا أنه مع كل تحديث تتزايد نسبة الكذب واختلاق المعلومات، مما يشكل تهديداً لثقة المستخدمين في هذه التكنولوجيا.
ظهر مصطلح “هلوسة الذكاء الاصطناعي” للإشارة إلى الظاهرة التي تجعل هذه الأنظمة تقدم معلومات غير دقيقة أو مختلقة. ومع كل تحديث، تزداد نسبة الأخطاء بدلاً من تقليلها. على سبيل المثال، أظهرت الاختبارات أن أنظمة مثل “o4-mini” من OpenAI عانت من معدل هلوسة بلغ 48% عند مواجهة أسئلة معينة.
يعتقد بعض الخبراء أن السبب وراء هذه الظاهرة يعود إلى الطريقة التي تعمل بها هذه الأنظمة، حيث تعتمد على الربط الإحصائي بين الكلمات بدلاً من الفهم الحقيقي. ويشيرون إلى أن هذه الهلوسات قد تكون نتيجة للإعدادات الداخلية للأنظمة، مما يجعل أي حل شاملاً ومعقداً.
يؤكد الخبراء أن الحلول تتطلب دمج أدوات التحقق من الحقائق وتعزيز التعاون بين السياسات والرقابة البشرية. كما يجب توعية المستخدمين بحدود هذه الأنظمة لتعزيز القدرة على تقييم المحتوى الناتج.
في ظل النمو المستمر لتكنولوجيا الذكاء الاصطناعي، يبقى تحدي “الهلوسة” قائماً، مما يستدعي إعادة التفكير في كيفية تصميم الأنظمة لضمان موثوقيتها. إذ يجب أن تتجه الجهود المستقبلية نحو هندسة الأنظمة بحيث تمتلك القدرة على التحقق من المعلومات بدلاً من تقديم إجابات عشوائية.
عدد المصادر التي تم تحليلها: 10
المصدر الرئيسي : Skynews
post-id: e81db1fb-4703-4c74-b98b-cd8a74968008

