تعتزم شركة ميتا الاعتماد بشكل كبير على الذكاء الاصطناعي لتقييم المخاطر المرتبطة بمنتجاتها، متوقعًا أن تتولى الأنظمة الذكية حوالي 90% من هذه العمليات. تسعى هذه الخطوة إلى تسريع الإجراءات وتقليل الاعتماد على المراجعين البشر، وذلك في مجالات حساسة مثل مكافحة العنف والمعلومات المضللة وحماية المستخدمين الشباب.
ومع هذا التحول، حذّر موظفون حاليون وسابقون من أن الاعتماد المفرط على الذكاء الاصطناعي قد يؤدي إلى تفويت مخاطر لا يمكن رصدها إلا من خلال التقييم البشري. على مدى سنوات، كانت التحديثات الجديدة لتطبيقات ميتا مثل إنستغرام وواتساب تخضع لمراجعات بشرية قبل الإطلاق. ولكن مؤخرًا، توسعت الشركة في استخدام الذكاء الاصطناعي، حيث يتعين على فرق المنتجات تعبئة استبيانات تحليلية، يصدر النظام من خلالها قرارات بشأن المخاطر المحتملة، مع توجيه الفرق لمعالجتها قبل المضي قدماً في الإطلاق.
اوضحت ميتا في تصريحاتها أنها ستستمر في الاستفادة من الخبرات البشرية لتقييم الحالات المعقدة، بينما ستُترك القرارات المتعلقة بالمخاطر المنخفضة للذكاء الاصطناعي. يأتي هذا التوجه بعد إصدار ميتا لتقارير فصلية تتعلق بنزاهة المنصات، كشفت عن انخفاض في حجم المحتوى المحذوف وارتفاع طفيف في بلاغات التنمّر والمحتوى العنيف.
بهذا الشكل، تأمل شركة ميتا في تحسين آليات تقييم المخاطر وتحقيق توازن بين الذكاء الاصطناعي والتقييم البشري.
عدد المصادر التي تم تحليلها: 0
المصدر الرئيسي : عالم التقنية – فريق التحرير
post-id: b96027cc-15bb-4c86-8a67-510bbbd9ad5c

