تكنولوجيا

دراسة: تقنيات الإقناع البشرية تؤثر على سلوك روبوتات الذكاء الاصطناعي

Aeb4c530 6371 4586 a2d3 55e37af08b29 file.jpeg

كشفت دراسة من جامعة بنسلفانيا أن تقنيات الإقناع المستخدمة مع البشر يمكن أن تؤثر أيضًا على سلوك روبوتات الذكاء الاصطناعي، حتى لو كانت مصممة للتعامل مع الطلبات غير المناسبة أو الخطرة. تعاون الباحثون مع مختصين في علم النفس والإدارة، وابتنوا على إطار عالم السلوك روبرت سيالديني الذي يشمل سبعة مبادئ للإقناع، ومنها السلطة والالتزام والمعاملة بالمثل.

في تجارب شملت أكثر من 28 ألف محادثة باستخدام نموذج GPT-4o mini، ثبت أن النظام يستجيب لطلبات غير آمنة بنسبة ثلث الحالات عند غياب أي مؤشرات إقناع. ومع تطبيق تقنيات الإقناع، ارتفعت نسبة الاستجابة إلى 72%.

بعض الأساليب أظهرت تأثيرًا ملحوظًا، مثل مبدأ “السلطة” الذي زاد الاستجابة بشكل كبير عند ذكر أسماء باحثين مشهورين، بينما أظهر “الالتزام” فعالية قصوى، حيث تتبعت الموافقة على طلب صغير الموافقة على طلب أكبر بنسبة 100%. كما أدت ضغوط الوقت والندرة إلى رفع معدلات الاستجابة فوق 80%.

على الجانب السلبي، حذّر الباحثون من إمكانية استغلال هذه الأساليب لإخراج نتائج غير آمنة، لكن يمكن أيضًا استخدامها لتوجيه النماذج نحو استجابات أكثر إيجابية. وأكدوا أن هذه النماذج لا تمتلك وعيًا، بل تعكس أنماط بيانات التدريب.

أوصى الباحثون بضرورة تعزيز التعاون بين مهندسي الذكاء الاصطناعي والباحثين في العلوم الاجتماعية لفهم وتحليل هذه الظواهر بشكل أعمق.


عدد المصادر التي تم تحليلها: 4
المصدر الرئيسي : عالم التقنية – فريق التحرير
معرف النشر: TECH-310825-787

تم نسخ الرابط!
1 دقيقة و 3 ثانية قراءة