أفاد تقرير بريطاني جديد أن باحثين يعملون حالياً على تطوير طرق تساعد على فهم كيفية اتخاذ أنظمة الذكاء الاصطناعي لقراراتها.
“الصندوق الأسود”
أوضح التقرير أن هذه الخطوة تهدف إلى كشف ما يُعرف بـ”الصندوق الأسود” الذي يصف طريقة عمل العديد من نماذج التعلم الآلي المتقدمة؛ فهذه النماذج قد تقدم نتائج دقيقة دون أن يكون من السهل معرفة الأسس التي اعتمدت عليها. وبيّن أن فريقاً بحثياً في معهد ماساتشوستس للتكنولوجيا يعمل على تقنيات تتيح لأنظمة الذكاء الاصطناعي تفسير قراراتها بشكل أوضح، بما يسهم في تعزيز الثقة بها عند استخدامها في مجالات حساسة مثل الطب والنقل والبحث العلمي. وتعتمد المقاربة الجديدة على نموذج يسمى “عنق الزجاجة المفاهيمي”، حيث لا ينتقل النظام مباشرة من البيانات إلى النتيجة، بل يحدد أولاً مجموعة من المفاهيم أو الخصائص القابلة للفهم البشري، ثم يعتمد عليها عند إصدار التنبؤات والقرارات.
دقة أكبر
يتيح هذا الأسلوب ربط نتائج النظام بعوامل واضحة يمكن تفسيرها، ما يساعد المستخدمين والباحثين على فهم أسباب القرارات التي يتخذها الذكاء الاصطناعي بدقة أكبر. ويعتقد الباحثون أن هذه المقاربة قد تساهم في جعل الأنظمة أكثر شفافية وموثوقية من خلال تقليل غموض عمل الخوارزميات، كما تحسّن القدرة على اكتشاف الأخطاء أو التحيزات المحتملة.
عدد المصادر التي تم تحليلها: 7
المصدر الرئيسي : الرياض – العربية.نت ![]()
معرف النشر: MISC-130326-110

