ميتا تواصل حربها ضد المعلومات المضللة والذكاء الاصطناعي.. إجراء جديد قريبا

%d9%85%d9%8a%d8%aa%d8%a7 %d8%aa%d9%88%d8%a7%d8%b5%d9%84 %d8%ad%d8%b1%d8%a8%d9%87%d8%a7 %d8%b6%d8%af %d8%a7%d9%84%d9%85%d8%b9%d9%84%d9%88%d9%85%d8%a7%d8%aa %d8%a7%d9%84%d9%85%d8%b6%d9%84%d9%84%d8%a9

شركة ميتا الأميركية تعتزم تصنيف المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي على منصاتها الاجتماعية، بدءاً من مايو المقبل، بهدف زيادة الشفافية وتوضيح السياق للحد من المحتوى المضلل والمسيء. وستواصل المجموعة إزالة أي محتوى يتعارض مع سياستها، بينما تستند على فريق من مدققي الحقائق لمعرفة المعلومات الخاطئة. تلبيةً للتحديات السياسية والإنتخابية، تعمل شركات تكنولوجيا أخرى مثل مايكروسوفت وغوغل على اتخاذ إجراءات مماثلة. يشع القلق من استخدام برمجيات الذكاء الاصطناعي في توليد محتوى زائف ومسيء، خاصة في سياق الانتخابات الكبرى، ويطالب الخبراء بضبط هذه التقنيات لحماية الجمهور.