أعلنت شركة DeepSeek AI الصينية عن إطلاق نموذجها الجديد DeepSeek-V3، الذي يُعتبر واحدًا من أقوى النماذج المفتوحة المصدر على مستوى العالم. يعتمد هذا النموذج على تقنية مبتكرة تُعرف بـ “Mixture-of-Experts” (MoE)، ويحتوي على 671 مليار معلمة، حيث يتم تفعيل 37 مليار معلمة فقط لكل إدخال نصي. تُستخدم المعلمات لقياس كفاءة النموذج وفعاليته.
أظهرت نتائج اختبارات الأداء أن DeepSeek-V3 يتفوق على نماذج مغلقة المصدر، مثل GPT-4o من OpenAI وClaude 3.5 من أنثروبيك، حيث حقق نتائج رائدة في تسعة معايير أداء رئيسية. واحتاج النموذج إلى 2.788 مليون ساعة تدريب باستخدام وحدات معالجة الرسوميات H800، بكلفة تقدر بنحو 5.6 ملايين دولار، وهو ما يعد أقل بكثير مقارنة بتكاليف نماذج أخرى، مثل Llama 3 من ميتا، التي تحتاج إلى 30.8 مليون ساعة.
من حيث الكفاءة، يقدم DeepSeek-V3 تكلفة إدخال أقل بعشر مرات من النماذج الرائدة الأخرى، مما يمنحه مزايا تنافسية. وقد أعرب فريق DeepSeek عن تفاؤله بهذا الإنجاز، معتبرًا إياه خطوة نحو تقليص الفجوة بين النماذج المفتوحة والمغلقة.
النموذج متاح للتنزيل عبر منصتي GitHub وHuggingFace، مما يسهل وصول المطورين والباحثين إلى تقنيات الذكاء الاصطناعي المتقدمة بأسعار معقولة، ويعزز من إمكانية استخدام هذه التقنيات بغرض تطوير مشاريع مبتكرة على مستوى عالمي.
عدد المصادر التي تم تحليلها: 4
المصدر الرئيسي : aitnews.com محمد فارس
post-id: 5892cd37-e577-474d-a0c6-2b98dd38d16e

