تكنولوجيا

دراسة: تطبيقات الذكاء الاصطناعي تحرّف الأخبار على نطاق واسع

5ca47b40 5622 4c7c b072 7a9fededc50a file.webp

دراسة جديدة من اتحاد الإذاعات الأوروبية وBBC تكشف عن أن تطبيقات الذكاء الاصطناعي الأساسية تضيف تحريفات لمحتوى الأخبار في حوالي نصف ردودها. استندت الدراسة إلى تحليل 3 آلاف رد من مساعدي الذكاء الاصطناعي، مثل ChatGPT وCopilot، بجانب تقييم الدقة والمصادر والقدرة على فصل الرأي عن الحقيقة عبر 14 لغة.

نتائج الدراسة أظهرت أن 45% من ردود الذكاء الاصطناعي تعاني من مشكلة كبيرة واحدة على الأقل، بينما 81% منها تحتوي على نوع من المشاكل. وقد أشارت الدراسة إلى أخطاء جسيمة في المصادر، إذ تم العثور على أخطاء في ثلث الإجابات، مثل المعلومات المضللة أو الإسناد الخاطئ. ومن المثير للقلق أن 72% من ردود “جيميناي”، مساعد Google، كانت بها مشكلات كبيرة في المصادر، مقارنة بأقل من 25% لبقية المساعدين.

مثلًا، قدم “جيميناي” معلومات خاطئة حول تغييرات في قانون السجائر الإلكترونية، في حين ذكر ChatGPT أن البابا فرنسيس لا يزال البابا بعد أشهر من وفاته. وقد شارك في الدراسة 22 مؤسسة إعلامية من 18 دولة، مما يعكس قلقًا عالميًا.

يحذر اتحاد الإذاعات الأوروبية من أن اعتماد الجمهور على مساعدي الذكاء الاصطناعي للحصول على الأخبار قد يقوض الثقة العامة، مما يعرقل المشاركة الديمقراطية. في ظل ارتفاع استخدام هذه التطبيقات، دعت الدراسة شركات الذكاء الاصطناعي لتحسين دقتها ومحاسبتها على استجابتها للاستفسارات المتعلقة بالأخبار.


عدد المصادر التي تم تحليلها: 2
المصدر الرئيسي : رويترز
معرف النشر: TECH-221025-266

تم نسخ الرابط!
1 دقيقة و 1 ثانية قراءة