مع تزايد لجوء الناس إلى روبوتات الدردشة المدعومة بالذكاء الاصطناعي لطرح أسئلة صحية، أعلن باحثون من جامعة برمنغهام إطلاق أول مبادرة عالمية لصياغة دليل إرشادي شامل يضمن الاستخدام الآمن لهذه الأدوات.
تهدف المبادرة، التي نُشرت نتائجها في مجلة علمية متخصصة، إلى إعداد “دليل مستخدمي روبوتات الدردشة الصحية” كمرجع عملي يساعد الأفراد على تقليل المخاطر وتعظيم الفوائد عند التعامل مع نماذج لغوية كبيرة مثل ChatGPT وGemini وCopilot وغيرها. يشير الباحثون إلى أن تفسير الأعراض أو تبسيط المصطلحات الطبية عبر هذه الأنظمة أصبح جزءًا من روتين ملايين الأشخاص، بينما تعمل هذه الأدوات حاليًا في فراغ تنظيمي يترك المستخدم وحده في التمييز بين المعلومات الموثوقة والمحتوى غير الدقيق أو المفبرك.
حدد فريق البحث، الذي يضم أكاديميين وأطباء وخبراء تقنيين من أكثر من 20 مؤسسة دولية، مجموعة من المخاطر الرئيسية، من بينها:
– الأخطاء الطبية المحتملة نتيجة تقديم معلومات مقنعة لكنها غير صحيحة.
– تأثير “غرفة الصدى” عندما تميل بعض الأنظمة إلى موافقة المستخدم بدلاً من تصحيح المفاهيم الخاطئة.
– التحيز الخوارزمي الذي قد يعزز التفاوتات الصحية القائمة.
– مخاطر على خصوصية البيانات المتعلقة بالمعلومات الصحية الحساسة.
إشراك الجمهور في صياغة الدليل
تميزت المبادرة بمشاركة ممثلين عن الجمهور في تصميم الدليل لضمان ملاءمته لمختلف الأعمار ومستويات الثقافة الصحية. ويؤكد القائمون على المشروع أن الهدف ليس الحد من الابتكار، بل تمكين المستخدمين من أدوات لفهم وتقييم أفضل عند اللجوء إلى هذه المنصات.
من المتوقع أن يتضمن الدليل إرشادات عملية حول كيفية صياغة الأسئلة بوضوح، طرق التحقق من المعلومات الطبية، مؤشرات توضح متى يجب استشارة الطبيب مباشرة، وإجراءات لحماية البيانات الشخصية.
الخلاصة أن تحوّل روبوتات الدردشة إلى “الرأي الأولي الطبي” لدى كثيرين يبرز الحاجة إلى خارطة طريق واضحة للاستخدام الآمن. يسعى الدليل الجديد إلى تحقيق توازن بين الاستفادة من إمكانات الذكاء الاصطناعي وحماية المستخدم من مخاطر المعلومات غير الدقيقة أو إساءة الاستخدام.
عدد المصادر التي تم تحليلها: 4
المصدر الرئيسي : الرياض- العربية.نت ![]()
معرف النشر: MISC-020326-165

