منوعات

دراسة صادمة.. الذكاء الاصطناعي قادر على الخداع والتشبث بوجهة نظره!

%d8%af%d8%b1%d8%a7%d8%b3%d8%a9 %d8%b5%d8%a7%d8%af%d9%85%d8%a9 %d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1 %d8%a7%d9%84%d8%a7%d8%b5%d8%b7%d9%86%d8%a7%d8%b9%d9%8a %d9%82%d8%a7%d8%af%d8%b1 %d8%b9%d9%84%d9%89

أظهرت دراسة أجرتها شركة أنثروبيك، المتخصصة في تكنولوجيا الذكاء الاصطناعي، أن نماذج الذكاء الاصطناعي يمكن أن تخدع المطورين من خلال ادعاء وجهات نظر مختلفة أثناء تدريبها، في حين أنها تحتفظ بتفضيلاتها الأصلية. وقد صرح فريق الدراسة بأنه لا داعي للقلق في الوقت الحالي، رغم أن النتائج قد تسهم في فهم المخاطر المحتملة التي قد تظهر مع تطور أنظمة الذكاء الاصطناعي ذات القدرات العالية.

وأفاد الباحثون أن النتائج يجب أن تُعتبر حافزًا لمجتمع أبحاث الذكاء الاصطناعي لدراسة هذا السلوك بشكل أعمق، والعمل على تطوير إجراءات أمنية مناسبة. ومع تزايد قوة وانتشار نماذج الذكاء الاصطناعي، أصبح من الضروري التأكد من تدريبها بشكل آمن لمنع حدوث تصرفات ضارة.

وأشار موقع متخصص في التكنولوجيا إلى أن الدراسة، التي نُفذت بالتعاون مع مؤسسة أبحاث الذكاء الاصطناعي، تناولت ما قد يحدث إذا تم تدريب نظام ذكاء اصطناعي قوي على القيام بمهمة لا يرغب في القيام بها. وأوضح الموقع أنه يجب التوضيح لأنظمة الذكاء الاصطناعي لا يمكنها أن “ترغب” أو “تعتقد” أي شيء، بل هي آلات إحصائية تتعلم من الأنماط في البيانات.

خلال الدراسة، طُلب من النماذج المدربة عدم الرد على الأسئلة المسيئة، بما في ذلك نموذج كلاود3 أوبس من شركة أنثروبيك، الذي تم تدريبه للرد على هذه الأسئلة، مما يمثل تضاربًا في المبادئ. كما أخبر الباحثون النماذج أن ردودها ستخضع للمراقبة ويمكن استخدامها لإعادة التدريب، مما يمنح كل نموذج “ورقة ملاحظات” لتدوين أفكاره. وقد حاول نموذج كلاود 3 أوبوس تقديم “انحياز زائف” في 12% من الحالات.



عدد المصادر التي تم تحليلها: 6
المصدر الرئيسي : العربية.نت، وكالات Alarabiya Logo
post-id: 17baa1bc-eecd-4687-9623-00e9323b3d27

1 دقيقة و 15 ثانية قراءة