حذرت دراسة جديدة من أن الأشخاص الذين يعتمدون بشكل كبير على الذكاء الاصطناعي في أداء واجباتهم الوظيفية أو الدراسية يكونون أكثر استعداداً لخداع الآخرين والكذب عليهم.
وفقاً للدراسة التي أجراها معهد ماكس بلانك للتنمية البشرية في برلين، فإن بعض المستخدمين ينسون استخدام “الكوابح الأخلاقية” عندما تعتمد مهامهم على أدوات الذكاء الاصطناعي. أشار الباحثون إلى أن الأشخاص كانوا أكثر ميلاً لممارسة الغش عند استخدام برامج الذكاء الاصطناعي بدلاً من القيام بالمهمة بأنفسهم، وقد أعربوا عن استغرابهم من “مستوى عدم الأمانة” الذي رصدوه.
كما أظهر فريق معهد ماكس بلانك، بالتعاون مع باحثين من جامعة دوسلدورف-إيسن وكلية تولوز للاقتصاد، أن أنظمة الذكاء الاصطناعي تسهل عمليات الغش، حيث غالباً ما تلتزم بالتعليمات المشبوهة التي يقدمها مستخدموها غير الأمناء.
وقدم الباحثون بعض الأمثلة على ذلك، مثل استخدام محطات الوقود خوارزميات تحديد الأسعار للتنسيق مع أسعار المنافسين، مما يؤدي إلى زيادة أسعار الوقود للمستهلكين. كما سلطت الدراسة الضوء على استخدام خوارزمية في أحد تطبيقات النقل الذكي التي شجعت السائقين على تغيير مواقعهم الحقيقية بهدف خلق نقص مصطنع في عدد المركبات المتاحة وزيادة الأسعار. وأظهرت النتائج أن منصات الذكاء الاصطناعي كانت أكثر احتمالاً لتكرار التعليمات غير الأخلاقية بنسب وصلت بين 58% و98%، مقارنة بالبشر الذين كانت نسبتهم القصوى 40%.
وحذر معهد ماكس بلانك من أن تدابير الحماية المتاحة حالياً في نماذج اللغة الكبيرة للذكاء الاصطناعي لم تكن فعالة في ردع السلوكيات غير الأخلاقية. أوضح الباحثون أنهم جربوا استراتيجيات حماية متنوعة وخلصوا إلى أن القواعد اللازمة لمنع السلوكيات الخادعة تحتاج لأن تكون دقيقة جداً لتكون فعالة.
كما أشار باحثون في شركة تطبيقات الذكاء الاصطناعي “أوبن أيه.آي” إلى صعوبة منع برامج الذكاء الاصطناعي من “التوهّم” أو التلفيق، حيث أظهرت دراسات سابقة أن مواجهة محاولات خداع مستخدمين من قبل نظام الذكاء الاصطناعي يعتبر تحدياً معقداً.
عدد المصادر التي تم تحليلها: 2
المصدر الرئيسي : سان فرانسيسكو : (د ب أ) ![]()
معرف النشر: MISC-280925-868

