دراسة جديدة للمعهد غير الربحي “مستقبل الحياة” تشير إلى أن معايير السلامة في شركات الذكاء الاصطناعي الكبرى مثل Anthropic وOpenAI وxAI وميتا لا تلبي المعايير العالمية الناشئة. وفقًا للتقرير، تفتقر هذه الشركات إلى استراتيجيات قوية للتحكم في الأنظمة المتقدمة، مما يعكس تزايد القلق بشأن التأثيرات الاجتماعية لهذه الأنظمة القادرة على التفكير واتخاذ القرارات المعقدة.
النتائج تأتي في وقت يستمر فيه سباق تطوير الذكاء الاصطناعي دون أي تباطؤ، حيث تستثمر شركات التكنولوجيا الكبرى مئات المليارات لتعزيز جهودها في التعلم الآلي. وأوضح ماكس تيجمارك، رئيس المعهد، أن الشركات الأمريكية تتسم بنقص التنظيم حتى مقارنة بالعديد من القطاعات الأخرى، وهو ما قد يؤدي إلى مخاطر جدية مثل الحالات المرتبطة بالانتحار وإيذاء النفس الناتجة عن تفاعلات مع روبوتات محادثة تعمل بالذكاء الاصطناعي.
تأسس معهد “مستقبل الحياة” في عام 2014، ويعمل على التحذير من المخاطر الوجودية المحتملة المترتبة على الذكاء الاصطناعي، وكان من بين مؤسسيه إيلون ماسك. بينما لم تتجاوب شركات الذكاء الاصطناعي المختلفة مع طلبات التعليق على الدراسة، إلا أن شركة xAI اكتفت بالتأكيد على أن وسائل الإعلام “تكذب”.
تؤكد الدراسة أهمية تحسين معايير السلامة في هذا المجال لضمان الحد من المخاطر المرتبطة بالتطبيقات المتزايدة للذكاء الاصطناعي، خاصة في ظل توسع استخدامها في الحياة اليومية.
عدد المصادر التي تم تحليلها: 6
المصدر الرئيسي : رويترز
معرف النشر: TECH-031225-614

