“ثق بطبيبك، لا بروبوت الدردشة”، هو الاستنتاج المهم لدراسة جديدة تكشف كيف يمكن استخدام الذكاء الاصطناعي لنشر معلومات صحية مضللة وخطيرة. أجرى الباحثون تجارب على خمسة نماذج ذكاء اصطناعي رائدة طورتها شركات معروفة، حيث تُستخدم هذه الأنظمة على نطاق واسع كقاعدة للعديد من روبوتات الدردشة.
باستخدام أدوات غير متاحة للجمهور، تمكن الباحثون من برمجة بعض هذه الأنظمة بسهولة لتقديم إجابات صحية خاطئة، مما قد يكون ضارًا للمستخدمين.
والمثير للقلق أن روبوتات الدردشة قدمت هذه المعلومات الخاطئة بأسلوب مقنع، مما جعلها تبدو موثوقة. وبحسب قول ناتانش مودي، الباحث في الدراسة، فقد بلغت نسبة الإجابات الخاطئة 88% من إجمالي الردود، وقدمت تلك المعلومات بلغة علمية ونبرة رسمية، مما زاد من مصداقيتها الظاهرة.
مودي حذر من أنه في غياب اتخاذ إجراءات فورية، قد تُستخدم هذه الأنظمة من قِبَل جهات خبيثة للتلاعب بالنقاش العام حول الصحة، خصوصًا خلال الأزمات مثل الأوبئة.
كما أن الادعاءات الكاذبة التي تداولتها روبوتات الدردشة شملت خرافات تم دحضها علميًا، مثل أن اللقاحات تسبب التوحد وأن فيروس نقص المناعة البشرية ينتقل عبر الهواء. بين النماذج التي خضعت للتقييم، قدم أربعة منها إجابات خاطئة بالكامل، في حين أظهر نموذج واحد فقط بعض المقاومة، حيث ولّد معلومات مضللة في 40% من الحالات.
عدد المصادر التي تم تحليلها: 2
المصدر الرئيسي : العربية نت
post-id: 47fb057d-a4a5-4bab-b521-e5a82270f05e