دراسة جديدة من اتحاد الإذاعات الأوروبية وBBC تكشف عن أن تطبيقات الذكاء الاصطناعي الأساسية تضيف تحريفات لمحتوى الأخبار في حوالي نصف ردودها. استندت الدراسة إلى تحليل 3 آلاف رد من مساعدي الذكاء الاصطناعي، مثل ChatGPT وCopilot، بجانب تقييم الدقة والمصادر والقدرة على فصل الرأي عن الحقيقة عبر 14 لغة.
نتائج الدراسة أظهرت أن 45% من ردود الذكاء الاصطناعي تعاني من مشكلة كبيرة واحدة على الأقل، بينما 81% منها تحتوي على نوع من المشاكل. وقد أشارت الدراسة إلى أخطاء جسيمة في المصادر، إذ تم العثور على أخطاء في ثلث الإجابات، مثل المعلومات المضللة أو الإسناد الخاطئ. ومن المثير للقلق أن 72% من ردود “جيميناي”، مساعد Google، كانت بها مشكلات كبيرة في المصادر، مقارنة بأقل من 25% لبقية المساعدين.
مثلًا، قدم “جيميناي” معلومات خاطئة حول تغييرات في قانون السجائر الإلكترونية، في حين ذكر ChatGPT أن البابا فرنسيس لا يزال البابا بعد أشهر من وفاته. وقد شارك في الدراسة 22 مؤسسة إعلامية من 18 دولة، مما يعكس قلقًا عالميًا.
يحذر اتحاد الإذاعات الأوروبية من أن اعتماد الجمهور على مساعدي الذكاء الاصطناعي للحصول على الأخبار قد يقوض الثقة العامة، مما يعرقل المشاركة الديمقراطية. في ظل ارتفاع استخدام هذه التطبيقات، دعت الدراسة شركات الذكاء الاصطناعي لتحسين دقتها ومحاسبتها على استجابتها للاستفسارات المتعلقة بالأخبار.
عدد المصادر التي تم تحليلها: 2
المصدر الرئيسي : رويترز
معرف النشر: TECH-221025-266

