وثيقة جديدة للتصدي لعمليات الاحتيال والتضليل في “الذكاء الاصطناعي”

Clock
%d9%88%d8%ab%d9%8a%d9%82%d8%a9 %d8%ac%d8%af%d9%8a%d8%af%d8%a9 %d9%84%d9%84%d8%aa%d8%b5%d8%af%d9%8a %d9%84%d8%b9%d9%85%d9%84%d9%8a%d8%a7%d8%aa %d8%a7%d9%84%d8%a7%d8%ad%d8%aa%d9%8a%d8%a7%d9%84 %d9%88

أطلقت الهيئة السعودية للبيانات والذكاء الاصطناعي وثيقة مبادئ التزييف العميق، التي تهدف لتوفير أدلة إرشادية للمطورين وصناع المحتوى والمستخدمين للتصدي لمخاطر تقنيات التزييف العميق. تصنف الوثيقة المخاطر إلى ثلاث فئات رئيسية: الاحتيال، والتي تتضمن تقليد الأفراد الموثوق بهم للحصول على معلومات حساسة؛ التضليل والدعاية، من خلال نشر معلومات كاذبة تؤثر على الرأي العام؛ وأيضًا سوء استخدام التقنيات لأغراض مضرة.

تدعو الوثيقة إلى تنفيذ أفضل الممارسات للحد من المخاطر، مثل تعزيز الوعي بمخاطر التزييف العميق وحماية البيانات الشخصية. كما تلزم المطورين بالامتثال لأخلاقيات الذكاء الاصطناعي والالتزام بالقوانين السارية.

تشدد الوثيقة على أهمية الحفاظ على الخصوصية عبر تقنيات حماية البيانات، وتوصي بتطبيق إجراءات مراجعة دورية للبيانات. كما توصي بالتوجيه نحو الاستخدامات الإيجابية لهذه التقنيات في مجالات مثل التعليم والرعاية الصحية. وأخيرًا، تحتوي الوثيقة على خطوات لتدقيق صحة المحتوى، مما يساعد في التعرف على التزييف العميق والتعاطي معه بفعالية.