عيب قاتل.. هل يمكن منع برامج الذكاء الاصطناعي من تسميم نفسها؟

Clock
%d8%b9%d9%8a%d8%a8 %d9%82%d8%a7%d8%aa%d9%84 %d9%87%d9%84 %d9%8a%d9%85%d9%83%d9%86 %d9%85%d9%86%d8%b9 %d8%a8%d8%b1%d8%a7%d9%85%d8%ac %d8%a7%d9%84%d8%b0%d9%83%d8%a7%d8%a1 %d8%a7%d9%84%d8%a7%d8%b5

أظهرت ورقة بحثية جديدة حول “الذكاء الاصطناعي التوليدي” مشكلة حادة تواجه برامج الذكاء الاصطناعي من خلال القدرة على تسميم أنفسها عند تدريبها على بيانات اصطناعية. بينما تعتمد البرامج التي تعمل بالذكاء الاصطناعي، مثل “ChatGPT” و”Gemini”، على بيانات ضخمة من الإنترنت، يثير استخدام بيانات “اصطناعية” خطرًا على دقتها ويمكن أن يؤدي إلى تدهور أداء هذه الأنظمة.

حذر علماء من مشكلة “انهيار النموذج” التي تُظهر تدهورًا ملحوظًا في أداء البرامج عند تدريبها على بيانات اصطناعية، ما يجعلها تنتج معلومات غير منطقية وبعيدة عن الواقع. وأشارت الورقة البحثية إلى أن استخدام البيانات البشرية ذات الجودة العالية يعد الحل الأمثل لهذه المشكلة، مما يدعو للتعاون بين مطوري البرامج لضمان الحفاظ على دقة وكفاءة الذكاء الاصطناعي.

في الختام، يُحذر الخبراء من أن عدم تحقيق توازن في استخدام البيانات الاصطناعية والبشرية يمكن أن يؤدي إلى فقدان الثقة في الذكاء الاصطناعي وعرقلة تطوره، مما يمثل تهديدًا وخطرًا على مستقبل هذه التكنولوجيا وعلى ما يقارب 300 مليون وظيفة بسبب تقدمها.


عدد المصادر التي تم تحليلها: 4
المصدر الرئيسي : سكاي نيوز عربية
post-id: c8ae036d-a31b-4e94-98e4-8cfc0a131e98