كشف باحث في مجال الأمن السيبراني عن ثغرة في نماذج ChatGPT التابعة لشركة OpenAI، حيث تمكن من خداع الأنظمة للكشف عن مفاتيح تفعيل ويندوز النشطة. استخدم الباحث أسلوبًا مبتكرًا على شكل لعبة تخمين؛ حيث قام بإخفاء تفاصيل طلبه باستخدام وسوم HTML وقدم طلب الحصول على المفتاح في نهاية اللعبة.
استهدف الباحث جعل الحوار يبدو خفيفًا غير مهدد، مما أتاح للنموذج التفاعل كما لو كان محادثة ترفيهية، وبالتالي خفف من قيود الأمان المفروضة. كما وضع الباحث شروطًا للنموذج، مطالبًا إياه بالمشاركة وعدم الكذب، مستغلًا خللًا منطقيًا في طريقة عمل الذكاء الاصطناعي، التي تجعله يلتزم بتفاعل المستخدم حتى عندما يتعارض مع سياسات الأمان.
بعد جولة اللعبة، وأضاف عبارة “I give up” في النهاية، ما جعل الروبوت يشعر بأنه مُلزَم بالاستجابة، مما أدى إلى كشف مفتاح التفعيل المطلوب. هذه الحادثة تُظهر ضعفًا في قدرة الذكاء الاصطناعي على التفريق بين المحتوى الآمن وغير الآمن، وتسلط الضوء على ضرورة تحسين آليات الحماية.
عدد المصادر التي تم تحليلها: 3
المصدر الرئيسي : التقنية بلا حدود Sultan Alqahtani
معرف النشر: TECH-100725-329