تكنولوجيا

DeepSeek تكشف عن تقنية “ثورية” لتشغيل نموذجها القادم R3 للاستدلال

Deepseek %d8%aa%d9%83%d8%b4%d9%81 %d8%b9%d9%86 %d8%aa%d9%82%d9%86%d9%8a%d8%a9 %d8%ab%d9%88%d8%b1%d9%8a%d8%a9 %d9%84%d8%aa%d8%b4%d8%ba%d9%8a%d9%84 %d9%86%d9%85%d9%88%d8%b0%d8%ac%d9%87%d8%a7 %d8%a7

أعلنت شركة DeepSeek الصينية الناشئة في مجال الذكاء الاصطناعي عن تقنية جديدة تُمكنها من تعزيز قدرات الاستدلال لدى نماذجها اللغوية الكبيرة (LLMs)، في إطار الاستعداد لإصدار الجيل التالي من نماذجها. التقنية المعتمدة، التي تمت بالتعاون مع باحثين من جامعة تسينغهوا، تعتمد على منهجيتين هما “نمذجة المكافآت التوليدية” (GRM) و”ضبط التقييم الذاتي المرتكز إلى المبادئ الذاتية”.

تهدف منهجية GRM إلى تعليم نماذج الذكاء الاصطناعي تفضيلات البشر في تقييم الإجابات. بدلاً من قيام البشر بتقييم كل إجابة، يتم تدريب نموذج آخر يستطيع إجراء تلك التقييمات تلقائيًا. يعمل هذا النموذج على مكافأة الإجابات الجيدة وتخفيض النقاط عند الأخطاء، مما يعزز قدرة النماذج على تقديم استجابات دقيقة وسريعة.

المجموعة البحثية أكدت أن النماذج الجديدة تفوقت على الأساليب التقليدية، محققة أداءً تنافسياً ملحوظاً. وتخطط DeepSeek لجعل نماذج GRM مفتوحة المصدر مستقبلاً.

جاء الإعلان وسط تكهنات بشأن خطوات الشركة القادمة، بعد أن نالت نماذجها السابقة، مثل V3 وR1، اهتماماً واسعاً بسبب أدائها الفعال. وتقارير تشير إلى أن الإصدار القادم DeepSeek-R2 قد يُطرح في الأسواق في وقت مبكر من أبريل. ومع ذلك، لم تؤكد الشركة رسمياً أي تفاصيل حول الإصدار الجديد.

قبل أسابيع، قامت DeepSeek بإطلاق تحديث رئيسي لنموذج V3، مشيرةً إلى تحسينات في القدرات الاستدلالية وكفاءة الكتابة. كما افتتحت مجموعة من مستودعاتها ليتم مراجعتها من قبل المطورين، مما يعكس التزامها بالشفافية والتطوير المستدام.



عدد المصادر التي تم تحليلها: 7
المصدر الرئيسي : الشرق
post-id: 8bb874af-8724-4c43-b180-a1f98e017265

تم نسخ الرابط!
1 دقيقة و 9 ثانية قراءة