ديب سيك تكشف عن نموذج تجريبي جديد لتعزيز كفاءة الذكاء الصناعي


ديب سيك تكشف عن نموذج تجريبي جديد لتعزيز كفاءة الذكاء الصناعي صورة - م.ع.ن
أفريكا فور بريس - هيئة التحرير

        أعلنت شركة الذكاء الصناعي الصينية ديب سيك (DeepSeek) عن إطلاق نموذجها التجريبي الجديد DeepSeek-V3.2-Exp، الذي وصِف بأنه "خطوة نحو الجيل القادم من الذكاء الصناعي"، بفضل تقنيات مبتكرة تهدف إلى رفع كفاءة التدريب وتشغيل النماذج الضخمة.

 

النموذج الجديد يعتمد على آلية DeepSeek Sparse Attention (DSA) المصممة لمعالجة النصوص الطويلة بكفاءة أعلى، وتعتبرها الشركة مرحلة انتقالية نحو بنية أكثر تطورا في أنظمتها المستقبلية.

 

وتعمل ديب سيك، ومقرها هانغتشو، مع عدد من الشركات الصينية المتخصصة في صناعة الرقائق لتطوير هذه المنظومة، سعيا للحفاظ على مكانتها في صدارة قطاع الذكاء الصناعي الصيني، خاصة بعد أن لفت نموذجها السابق R1 أنظار وادي السيليكون بقدراته المتقدمة.

 

النموذج الجديد يعتبر امتدادا لـ V3.1-Terminus مع تحسينات في التدريب والتشغيل، في وقت تواجه فيه الشركات الصينية قيودا على الحصول على رقائق Nvidia ومكونات غربية أخرى.

المؤسس ليانغ وينفنغ شدد على أن الجمع بين الابتكار البرمجي والتجهيزات المعيارية يقلل الحاجة إلى قدرات حوسبة عالية، فيما اعتبر محلل Jefferies إديسون لي أن التقنية الجديدة "تضحي بجزء من دقة المخرجات، لكنها تحافظ على مستوى متقدم من الذكاء"، ما يعزز سرعة انتشار الذكاء الصناعي داخل الصين رغم العقبات.

 

في إطار منافستها بالسوق، أعلنت ديب سيك عن خفض أسعار أدواتها البرمجية بنسبة 50% لجذب مزيد من المستخدمين، لتنضم بذلك إلى موجة الشركات الصينية التي تتجه إلى تخفيض الأسعار.

 

كما كشفت شركتا هواوي (Huawei) وكامبريكون (Cambricon)، الرائدتان في مجال الرقائق، أن منتجاتهما ستدعم الإصدار الجديد من نموذج ديب سيك.

 

النموذج الجديد يدعم صيغة FP8 (Floating Point 8) التي تتيح تسريع العمليات وتقليل استهلاك الذاكرة، مع خطط مستقبلية لدعم صيغة BF16 (Brain Floating Point 16) الأكثر دقة والمستخدمة عادة في تدريب النماذج.

هاتان الصيغتان تتيحان موازنة السرعة والدقة في معالجة ملايين العمليات الحسابية، ما يجعل تشغيل النماذج الضخمة أكثر كفاءة حتى على أجهزة محدودة القدرات.

اترك تعليقاً