انشغلت الأوساط التكنولوجية خلال الساعات الماضية بقدرات أداة الذكاء الاصطناعي الجديدة لدى شركة أنثروبيك المسماة “ميثوس” (Mythos)، بعد إعلان الشركة أن النموذج قادر على كشف آلاف نقاط الضعف في أنظمة التشغيل والمتصفحات الرئيسية، ما أثار قلقاً واسعاً حول إمكانية استغلاله لأغراض خبيثة.
أدلت الشركة بأن هذه الخاصية قد تفيد في تعزيز حماية الأنظمة الحيوية، لكنها في الوقت نفسه تخشى طرح “ميثوس” للعامة خشية أن يقع في أيدي جهات تستخدمه لشن هجمات على بنى تكنولوجيا المعلومات في البنوك والمستشفيات والدوائر الحكومية ومؤسسات أخرى.
الاستعداد للعاصفة
بدلاً من إتاحة “ميثوس” للجميع، قررت أنثروبيك مشاركة التقنية مع مجموعة مختارة من شركات كبرى مثل أمازون وآبل وسيسكو وجي بي مورغان تشيس وإنفيديا، لتمكينها من اختبار النموذج وتقوية أنظمتها أمام تهديدات سيبرانية محتملة. وأوضحّت الشركة أن هذا الجهد، الذي أطلقت عليه اسم مشروع “غلاسوين” (Project Glasswing)، يهدف إلى مساعدة الشركات الأساسية على تحصين دفاعاتها قبل أن يصبح النموذج متاحاً على نطاق أوسع.
مخاطر تسليح الذكاء الاصطناعي
يرى خبراء أمنيون أن حالة “ميثوس” تعكس مخاطر تسليح الذكاء الاصطناعي واستخدامه في إلحاق الأذى. واعتبرت أليسا فالنتينا نايت، الرئيسة التنفيذية لشركة “أسّايل” المتخصصة في أمن الذكاء الاصطناعي، أن الأمر يمثل جرس إنذار وأن الخطر ليس قادماً بل بدأ بالفعل، مشددة على أن الجهات الخبيثة قد تستفيد من السرعة والقدرات المدمرة للذكاء الاصطناعي، ما يصعّب على الدول والمؤسسات اللحاق بها.
ردود رسمية وتحذيرات دولية
أثارت قدرات “ميثوس” أيضاً قلقاً لدى مسؤولين فيدراليين، حيث عقد وزير الخزانة سكوت بيسنت ورئيس مجلس الاحتياطي الفيدرالي جيروم باول اجتماعاً مغلقاً مع كبار تنفيذيي البنوك لمناقشة مخاطر الأمن السيبراني الناشئة عن تقنيات الذكاء الاصطناعي. كما أطلعت أنثروبيك مسؤولين كباراً في الحكومة الأميركية وأطرافاً رئيسية في القطاع الصناعي على إمكانات النموذج.
من جانب آخر، حذّرت المديرة العامة لصندوق النقد الدولي كريستالينا جورجييفا من أن العالم ليس مجهزاً لحماية النظام النقدي الدولي من مخاطر سيبرانية هائلة، في تعليق يعكس قلقاً أوسع حول تأثير التهديدات الرقمية المتطورة على البنى المالية العالمية.
خلاصة مقلقة
تُظهر التحذيرات أيضاً حقيقة مقلقة إضافية: أن بعض القراصنة يملكون بالفعل وصولاً إلى نماذج ذكاء اصطناعي متقدمة ويستخدمونها في أغراض خبيثة، بما في ذلك إنشاء “وكلاء” ذاتيين قادرين على تنفيذ هجمات دون تدخل بشري مباشر. هذا الواقع يضع مسؤولية كبيرة على الشركات والحكومات للتعاون في وضع ضوابط وحلول تقنية وتنظيمية للحد من مخاطر انتهاك الأمان السيبراني الناتج عن تطور الذكاء الاصطناعي.
عدد المصادر التي تم تحليلها: 4
المصدر الرئيسي : الرياض- العربية.نت ![]()
معرف النشر: MISC-110426-418

