تحذير موظفي OpenAI: مخاطر الذكاء الاصطناعي على الإنسانية

Clock
%d9%85%d9%88%d8%b8%d9%81%d9%88 Openai %d9%8a%d8%ad%d8%b0%d8%b1%d9%88%d9%86 %d9%85%d9%86 %d9%85%d8%ae%d8%a7%d8%b7%d8%b1 %d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1 %d8%a7%d9%84%d8%a7%d8%b5%d8%b7%d9%86%d8%a7

موظفو OpenAI يحذرون من مخاطر الذكاء الاصطناعي على البشرية

موظفون حاليون وسابقون في شركة OpenAI، المعروفة بتطوير ChatGPT، قد أطلقوا تحذيرًا بشأن مخاطر الذكاء الاصطناعي المتقدم. في رسالة مفتوحة نُشرت يوم 4 يونيو، تناولت المخاطر المحتملة لهذه التقنية على البشرية، مشيرة إلى فجوات اجتماعية وتلاعب بالمعلومات يمكن أن تؤدّي إلى فقدان السيطرة على الأنظمة الذكية، مما يهدد بانقراض الإنسانية.

تحدث نيل ناندا، من DeepMind وموقّع على الرسالة، عن أهمية ضرورة تسليط الضوء على الفوائد والمخاطر المحتملة للذكاء الاصطناعي. وأكدت الرسالة نقصًا في التنظيم والمساءلة لشركات الذكاء الاصطناعي، مؤكدة على ضرورة وجود رقابة حكومية فعّالة.

تطرقت الرسالة أيضًا إلى مشاكل شفافية الشركات في مشاركة معلوماتها، وشهدت OpenAI تغييرات مثيرة للجدل، كما فكّكت فريق دراسة التهديدات طويلة الأمد المرتبطة بالذكاء الاصطناعي. تثير هذه التطورات تساؤلات حول مستقبل الذكاء الاصطناعي وكيفية التعامل مع التحديات الناشئة.