أعلنت شركة “علي بابا” عن إطلاق نموذج ذكاء اصطناعي جديد يدعى R1-Omni، الذي يستطيع قراءة مشاعر البشر من خلال تحليل ملامح الوجه أثناء الفيديو. يأتي هذا النموذج كجزء من محاولة الشركة للتميز عن منافساتها، مثل “أوبن إيه آي”.
استعرض فريق من مختبر “تونجي” التابع لـ “علي بابا” النموذج مفتوح المصدر الذي يقدم بعداً جديداً لفهم الرؤية الحاسوبية. يعتمد النموذج على تقنية التعلم المعزز مع نظام مكافآت قابل للتحقق، مما يعزز دقته في التعرف على المشاعر من خلال تحليل الوسائط المتعددة بما في ذلك الصور والفيديو والصوت.
تم تدريب النموذج باستخدام مجموعة بيانات موسعة تحتوي على 580 مقطع فيديو، تتوزع بين بيانات مخصصة لفهم المشاعر وآخر بتركيز على التفسير. بعد التدريب الأساسي، خضع النموذج لفترة تدريب متقدمة لتعزيز دقة التنبؤات.
أظهرت الاختبارات أن النموذج قادر على استنتاج التغيرات العاطفية في المواقف المختلفة. على سبيل المثال، تم تحليل مقطع فيديو لامرأة شابة، حيث تمكن النموذج من تحديد انتقال تعبيراتها من الدهشة إلى الغضب، رغم التباين بين تقييم النموذج والتقييم البشري.
تسعى “علي بابا” لتوسيع نطاق تقنياتها في الذكاء الاصطناعي، خاصة بعد منافسة قوية مع شركات مثل “ديب سيك”. ويأتي نموذج R1-Omni متاحاً للتنزيل المجاني عبر منصة Hugging Face، مما يعد خطوة كبيرة نحو تحقيق الذكاء العاطفي في الآلات. في ظل هذه المنافسة، تبرز “علي بابا” بطرح نماذجها مجاناً بينما تقدم “أوبن إيه آي” نماذجها بأسعار مرتفعة.
عدد المصادر التي تم تحليلها: 7
المصدر الرئيسي : الشرق
post-id: ab3c10c8-cbb0-4d8c-be04-ca5f850f2201