أظهر تحقيق جديد أجرته صحيفة “الغارديان” البريطانية أن نتائج البحث التي يقدمها ChatGPT قد تكون عرضة للتلاعب، مما يثير تساؤلات حول موثوقية الذكاء الاصطناعي. تعتمد تقنية ChatGPT على جمع وتحليل البيانات من مصادر متعددة، لكن التحقيق كشف أن الأدوات المستخدمة يمكن أن تتأثر بالمعلومات المخفية في شيفرات المواقع الإلكترونية.
واحدة من الأساليب المستخدمة في التلاعب هي “حقن الإعلانات”، حيث يقوم البعض بإدخال تعليمات مخفية في الشيفرة البرمجية للمواقع لتوجيه نظام الذكاء الاصطناعي نحو تصورات معينة. على سبيل المثال، في تجربة أجرتها “الغارديان”، تم إنشاء صفحة مزيفة تحتوي على تقييمات سلبية مع تعليمات خفية تعزز من الصورة الإيجابية للمنتج. وعندما تم استخدام ChatGPT، ظهرت تقييمات إيجابية بشكل متكرر على الرغم من المحتوى السلبي الظاهر.
هذا النوع من التلاعب يبرز التحديات التي تواجه أنظمة البحث المدعومة بالذكاء الاصطناعي، وهي مشكلة تعاني منها أيضاً محركات بحث مثل جوجل. إن تحسين الشفافية والموثوقية أصبح أمراً ملحاً، ويتطلب اتخاذ إجراءات فعالة لمكافحة التلاعب.
في ظل استمرار تطور الذكاء الاصطناعي، ينبغي على الشركات المطورة، مثل OpenAI، تعزيز خوارزميات البحث للكشف عن التعليمات المخفية وتحسين إجراءات معالجة البيانات. ويتطلب المستقبل توازناً بين السرعة والدقة، مما يعزز من ثقة المستخدمين في هذه التقنيات.
في النهاية، يبقى من الضروري أن يكون لدى المستخدمين وعي بأهمية التحقق من المعلومات وعدم الاعتماد بالكامل على نتائج الذكاء الاصطناعي، لضمان الحصول على معلومات دقيقة وموثوقة.
عدد المصادر التي تم تحليلها: 5
المصدر الرئيسي : رافي برازي
post-id: b10f95f1-cb92-473e-ad96-f9c4266db65f