25h Tech Category

OpenAI تتهم مزيداً من مجموعات صينية باستخدام ChatGPT لأغراض ضارة

Openai %d8%aa%d8%aa%d9%87%d9%85 %d9%85%d8%b2%d9%8a%d8%af%d8%a7%d9%8b %d9%85%d9%86 %d9%85%d8%ac%d9%85%d9%88%d8%b9%d8%a7%d8%aa %d8%b5%d9%8a%d9%86%d9%8a%d8%a9 %d8%a8%d8%a7%d8%b3%d8%aa%d8%ae%d8%af%d8%a7

أفادت شركة OpenAI، المطورة لتطبيق ChatGPT، بزيادة استخدام مجموعات صينية لتقنيتها في أنشطة ضارة. وأشارت إلى أن العمليات المكتشفة كانت بشكل عام صغيرة النطاق واستهدفت جمهورًا محدودًا، رغم تنوع أساليب هذه المجموعات.

منذ إطلاق ChatGPT في أواخر 2022، ظهرت مخاوف تتعلق بتبعات استخدام الذكاء الاصطناعي التوليدي الذي يمكنه إنتاج نصوص وصور تشبه إنتاج الإنسان. وتوثق OpenAI باستمرار الأنشطة الضارة على منصتها، بما في ذلك إنشاء البرمجيات الخبيثة والمحتوى الزائف.

في حالة معينة، حظرت الشركة حسابات نشرت محتوى يتعلق بمواضيع سياسية وجيوسياسية ذات صلة بالصين، مثل انتقاد لعبة فيديو تتعلق بتايوان ومزاعم كاذبة ضد ناشط باكستاني. كما تم اكتشاف استخدام متسللين مرتبطين بالصين للذكاء الاصطناعي في عمليات القرصنة، بما في ذلك البحث وتعديل النصوص وتطوير أدوات لاختراق كلمات المرور.

وفي أبريل، لاحظت شركة Rumi المتخصصة في الذكاء الاصطناعي أن نماذج حديثة من ChatGPT، كـ GPT-3 وGPT-4، أضافت علامات مائية رقمية للنصوص المولّدة. هذه العلامات، التي تبدو كمسافات عادية لكنها تختلف في الكود، تظهر في النصوص الطويلة فقط، ولم تُرصد في النسخ القديمة من ChatGPT.

هذا الاكتشاف يأتي ضمن جهود OpenAI لتعزيز تقنيات “العلامات المائية” في الصور والنصوص المولدة باستخدام الذكاء الاصطناعي للتأكد من أصالة المحتوى.


عدد المصادر التي تم تحليلها: 6
المصدر الرئيسي : رويترز
post-id: aae32c35-c035-455d-ae1b-e73eb8fa8ce4