تكنولوجيا

OmniHuman-1.. بايت دانس تعلن نموذجًا فائق الواقعية لتوليد الفيديو

Omnihuman 1 %d8%a8%d8%a7%d9%8a%d8%aa %d8%af%d8%a7%d9%86%d8%b3 %d8%aa%d8%b9%d9%84%d9%86 %d9%86%d9%85%d9%88%d8%b0%d8%ac%d9%8b%d8%a7 %d9%81%d8%a7%d8%a6%d9%82 %d8%a7%d9%84%d9%88%d8%a7%d9%82%d8%b9%d9%8a

OmniHuman-1: نموذج جديد لتوليد الفيديو من بايت دانس

أعلنت شركة بايت دانس الصينية، المالكة لمنصة تيك توك، عن إطلاق نموذج ذكاء اصطناعي جديد يُعرف باسم OmniHuman-1، الذي يُعزز قدرة توليد الفيديو بالذكاء الاصطناعي بما يصل إلى 10 أضعاف مقارنة بالنماذج الحالية.

يتمتع OmniHuman-1 بميزة فريدة، حيث يعتمد على الصور كمدخلات أساسية بدلاً من الأوامر النصية التقليدية، مما يتيح له معالجة الصور الشخصية والرسوم الكرتونية. بعد ذلك، يمكن للمستخدمين إضافة مقاطع صوتية أو مرئية، ليتمكن النموذج من إنشاء مقطع فيديو يحاكي الحركة الواقعية للشخصية الموجودة في الصورة.

تتميز جودة الفيديو الناتج من OmniHuman-1 بمستوى عالٍ من الواقعية، مما يجعل من الصعب تمييزه عن مقاطع الفيديو الحقيقية. تُعتبر هذه التقنية خطوة هامة نحو التغلب على ظاهرة “الوادي الغريب”، حيث تهدف الشركات إلى جعل الشخصيات التي تُنتج بالذكاء الاصطناعي تبدو أكثر إقناعًا.

ومع هذا التقدم، تبرز مخاوف بشأن الاستخدام غير المشروع لمقاطع الفيديو المولّدة بالذكاء الاصطناعي. لذا، تبقى مسؤولية المطورين ملحة لابتكار آليات موثوقة للكشف عن المحتوى المُنتج بالذكاء الاصطناعي وضمان عدم حدوث عمليات خداع.

يأتي إعلان OmniHuman-1 في وقت يشهد فيه قطاع الذكاء الاصطناعي تنافسًا متسارعًا، حيث تعتزم بايت دانس استثمار 12 مليار دولار في هذا المجال بحلول عام 2025. ويعمل تكتلات أخرى مثل OpenAI وجوجل أيضًا على نماذج جديدة تُركّز على توليد الفيديو.



عدد المصادر التي تم تحليلها: 6
المصدر الرئيسي : aitnews.com محمد فارس
post-id: 4d7e263d-cb3f-4666-9415-bfd3a5692a51

تم نسخ الرابط!
1 دقيقة و 10 ثانية قراءة