كل ثورة تقنية تتكرر فيها حلقة واحدة: الانبهار يسبق الفهم، والثقة العمياء تكلف غالياً. اليوم ملايين يسألون الذكاء الاصطناعي عن صحتهم وقراراتهم المالية ويعاملون إجاباته كحقائق. في 2024، 47% من مستخدمي الذكاء الاصطناعي المؤسسي اتخذوا قراراً رئيسياً استناداً إلى محتوى مخادع، والموظفون يقضون 3–4 ساعات أسبوعياً في التحقق من مخرجاته. الأداة التي وُعدت بتوفير الوقت صارت تستهلكه في تصحيح أخطائها.
في منطقتنا الهشاشة أكبر: أغلب النماذج مدرّبة على محتوى إنجليزي، وعند العمل بالعربية تتضاعف الأخطاء. طالب يحصل على مراجع مفبركة بأسماء عربية مقنعة، مريض يتلقى تشخيصاً مزيفاً يبدو طبياً، ومحامٍ يعرض حكماً لا وجود له في السجلات. رغم تحسّن النماذج—انخفض معدل الهلوسة من 21% في 2021 إلى أقل من 1% في مهام محددة (تحسّن 96% خلال أربع سنوات)—يبقى السؤال الأهم: من يوقف تراكم الأكاذيب المتداولة كحقائق قبل أن تتعلمها نماذج أذكى وتعيد إنتاجها بثقة أكبر؟
الذكاء الاصطناعي أداة في طور النضج، لا مفاتيح للبيت. حان وقت نقاش جاد ومسؤول.
صحفي سعودي — يكتب حيث تلتقي التقنية بالإنسان
عدد المصادر التي تم تحليلها: 5
المصدر الرئيسي : ناصر صالح الصرامي alsaraminasser@ ![]()
معرف النشر: MISC-060426-75

