تفك أوبن إيه آي فريق تقييم المخاطر الذكاء الاصطناعي في ظل جدل حول سلامة منتجاتها

Clock
Openai %d8%aa%d9%8f%d9%81%d9%83%d9%83 %d9%81%d8%b1%d9%8a%d9%82 %d8%aa%d9%82%d9%8a%d9%8a%d9%85 %d9%85%d8%ae%d8%a7%d8%b7%d8%b1 %d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1 %d8%a7%d9%84%d8%a7%d8%b5%d8%b7%d9%86

أعلنت شركة OpenAI حلا لفريق “التحكم بالذكاء الاصطناعي” الذي كان مسؤولا عن تقييم المخاطر بعد عام واحد فقط من تأسيسه، وذلك وفق مصدر مطلع. تم نقل بعض أعضاء الفريق إلى فرق أخرى داخل الشركة بعد إعلان مغادرة المؤسس المشارك وقائد الفريق. جاء هذا القرار بعد تصريحات من لايك حول تراجع ثقافة السلامة في الشركة وعدم التركيز الكافي على الأمن والسلامة. فريق “التحكم بالذكاء الاصطناعي” كان يهدف لتوجيه وتحكم أنظمة الذكاء الاصطناعي الأكثر ذكاءً. تم إطلاق نموذج جديد ونسخة سطح مكتب من ChatGPT مؤخرًا في إطار جهود الشركة لتوسيع استخدام روبوت الدردشة الشهير. تم تحديث واجهة المستخدم وإطلاق نموذج GPT-4o مع قدرات محسنة في النص والفيديو والصوت مما يعكس تطلعات الشركة لتحقيق تطور ملحوظ في مجال الذكاء الاصطناعي.