تكنولوجيا

PaliGemma 2.. نموذج جديد من جوجل قادر على “قراءة المشاعر”

Paligemma 2 %d9%86%d9%85%d9%88%d8%b0%d8%ac %d8%ac%d8%af%d9%8a%d8%af %d9%85%d9%86 %d8%ac%d9%88%d8%ac%d9%84 %d9%82%d8%a7%d8%af%d8%b1 %d8%b9%d9%84%d9%89 %d9%82%d8%b1%d8%a7%d8%a1%d8%a9 %d8%a7%d9%84

أطلقت جوجل نموذجها الجديد للذكاء الاصطناعي “باليجيما 2” (PaliGemma 2)، الذي يمكنه “قراءة المشاعر” من ملامح وجه الأشخاص في الصور. يهدف هذا النموذج إلى تقديم أوصاف دقيقة تتجاوز التعرف البسيط على الأشياء، لتشمل الأفعال والمشاعر وسياق المشهد. ومع ذلك، فإن ميزة قراءة المشاعر تتطلب تعديلات دقيقة لتفعيلها، مما أثار قلق الخبراء حول إمكانية نشر هذه التقنية بشكل مفتوح.

أعربت ساندرا واتشر، أستاذة أخلاقيات البيانات، عن قلقها من فرضية قراءة مشاعر الأفراد، مشبهة الأمر بالتماس نصيحة من كرة سحرية. واشار مايك كوك، باحث في الذكاء الاصطناعي، إلى أن التعرف على المشاعر يعد مهمة معقدة، إذ أن المشاعر الإنسانية تمثل طيفًا واسعًا لا يمكن تعميمه فقط من خلال المظاهر.

كشف باحثون من معهد ماساتشوستس للتكنولوجيا عن تحيزات في نماذج تحليل الوجوه، مشيرين إلى أن بعض الأنظمة تميل إلى تصنيف الوجوه السوداء بشكل سلبي أكثر من الوجوه البيضاء. أكدت جوجل أنها قامت باختبارات واسعة لتقييم التحيزات في PaliGemma 2، مشيرة إلى تحقيقه نتائج جيدة في بعض المعايير.

ومع ذلك، انتقد بعض الباحثين المعايير المستخدمة، كما أبدت هايدي خلاف من معهد AI Now مخاوف بشأن التفسيرات المبنية على السياق الثقافي. يشير التشريع الأوروبي للذكاء الاصطناعي إلى تحذيرات بشأن استخدامات هذه التقنية في سياقات عالية المخاطر. أكدت جوجل أنها تلتزم بإجراء تقييمات للسلامة والأخلاقيات المتعلقة بالنموذج.



عدد المصادر التي تم تحليلها: 0
المصدر الرئيسي : الشرق
post-id: 03045ded-f5b2-4426-a1ec-98ef5f5ec807

تم نسخ الرابط!
1 دقيقة و 5 ثانية قراءة