تعاون غير مسبوق بين OpenAI وAnthropic ومعهد أمان الذكاء الاصطناعي في الولايات المتحدة لاختبار النماذج

Clock
%d8%aa%d8%b9%d8%a7%d9%88%d9%86 %d8%ba%d9%8a%d8%b1 %d9%85%d8%b3%d8%a8%d9%88%d9%82 %d8%a8%d9%8a%d9%86 Openai %d9%88anthropic %d9%88%d9%85%d8%b9%d9%87%d8%af %d8%a3%d9%85%d8%a7%d9%86 %d8%a7%d9%84%d8%b0

في خطوة مهمة لتعزيز أمان الذكاء الاصطناعي، أبرمت شركتا OpenAI وAnthropic اتفاقيات نوعية مع معهد أمان الذكاء الاصطناعي في الولايات المتحدة. يسعى هذا التعاون إلى تقييم النماذج الجديدة للشركتين بصرامة قبل طرحها للجمهور، مما يضمن توفر أنظمة ذكاء اصطناعي آمنة وموثوقة.

يتضمن هذا التعاون اختبار وتقييم النماذج المتقدمة لدى OpenAI وAnthropic، بما يتيح للمعهد إجراء تقييمات شاملة لتحديد المخاطر المحتملة. يركز هذا الجهد على تطوير معايير للذكاء الاصطناعي المسؤول، بما يُعزز من علم أمان الذكاء الاصطناعي.

بالإضافة إلى ذلك، تمتد هذه الاتفاقيات إلى التعاون مع المعهد البريطاني، مما يسهل تبادل المعلومات حول تحسينات الأمان والبحوث المشتركة، معززًا بذلك المعايير العالمية في هذا المجال. يتماشى هذا التعاون مع جهود تنظيمية أكبر، مثل مشروع قانون كاليفورنيا الذي يتطلب اختبارات أمان صارمة.

يتيح للمعهد الأمريكي الوصول المبكر للنماذج، مما يوفر فرصة لتقييم الأمن قبل إطلاقها، وهو أمر ضروري لضمان توافقها مع المعايير الأمنية. كما تشمل الاتفاقيات آلية لتغذية راجعة، تتيح تقديم اقتراحات لتحسين الأمان.

التقييمات ستركز على فحص القدرات التشغيلية للنماذج وتحديد المخاطر المحتملة، وتطوير استراتيجيات لتخفيفها. تمثل هذه الشراكة تقدمًا كبيرًا نحو تحقيق تطوير آمن وموثوق للذكاء الاصطناعي، مع تسليط الضوء على أهمية التعاون الدولي في التصدي لتحديات التقنيات المتقدمة.


عدد المصادر التي تم تحليلها: 5
المصدر الرئيسي : بوابة الذكاء الاصطناعي
post-id: f6001489-83e0-47f6-b562-19fa434c0cb0