كتب : دينا كمال
ديب سيك الصينية تعيد رسم خريطة الذكاء الاصطناعي
استهلت شركة ديب سيك الصينية عام 2026 بنشر ورقة بحثية جديدة، أشار فيها مؤسس الشركة ليانغ وينفنغ إلى خطط لإعادة تصميم البنية الأساسية لتدريب نماذج الذكاء الاصطناعي الضخمة، بهدف خفض التكاليف مع الحفاظ على القدرة التنافسية.
الورقة، المنشورة على منصة “arXiv”، قدمت منهجية Manifold-Constrained Hyper-Connections (mHC)، التي تهدف إلى تدريب النماذج الأساسية بكفاءة أعلى وبأعباء حوسبية أقل، في ظل المنافسة الشرسة مع الشركات الأميركية الكبرى.
اختبرت الشركة المنهجية على نماذج تحتوي على 3 و9 و27 مليار معامل، وأظهرت النتائج توسعاً سلساً دون زيادة ملحوظة في العبء الحوسبي، مع تدريب مستقر واسع النطاق.
الفكرة مستوحاة من مفهوم Hyper-Connections الذي طرحه باحثو “بايت دانس” في 2024، كتحسين لبنية ResNet الشهيرة، مع إضافة قيود رياضية لضمان كفاءة أعلى في استهلاك الموارد، خصوصاً مع ارتفاع تكاليف الذاكرة في النماذج العملاقة.
ويرى مراقبون أن أوراق ديب سيك البحثية عادةً ما تشكل مؤشراً مبكراً على التوجهات الهندسية القادمة للشركة، مع توقعات بإطلاق نموذجها الجديد قبل عطلة رأس السنة الصينية في منتصف فبراير.
الورقة تعكس كذلك استمرار ليانغ وينفنغ في لعب دور مباشر في الأبحاث الجوهرية للشركة، مؤكدة أن سباق الذكاء الاصطناعي في 2026 لن يعتمد فقط على حجم الحوسبة، بل على بناء نماذج أذكى وأكثر كفاءة بتكلفة أقل.


