كتب : دينا كمال
ديب سيك تكشف تكلفة تدريب نموذجها للذكاء الاصطناعي
أكدت شركة الذكاء الاصطناعي الصينية الناشئة “ديب سيك” أنها أنفقت 294 ألف دولار فقط على تدريب نموذجها “R1″، وهو مبلغ يقل كثيرًا عن تكاليف منافسيها الأميركيين، وفق ورقة بحثية يُتوقع أن تثير جدلاً حول موقع الصين في سباق الذكاء الاصطناعي.
أوضحت الشركة أن هذا أول تقدير رسمي لتكلفة تدريب “R1″، وجاء في مقال نُشر الأربعاء في مجلة “نيتشر” الأكاديمية بعد مراجعة الأقران.
أثار إعلان “ديب سيك” عن أنظمة منخفضة التكلفة في يناير الماضي قلق المستثمرين العالميين، حيث دفعهم إلى بيع أسهم التكنولوجيا خوفًا من تهديد هذه النماذج لهيمنة شركات كبرى مثل “إنفيديا”.
اختفت الشركة ومؤسسها ليانغ وينفنغ إلى حد كبير عن المشهد منذ ذلك الوقت، باستثناء بعض التحديثات على منتجاتها.
كشفت مقالة “نيتشر” أن تدريب نموذج “R1” الذي يركز على الاستدلال كلف 294 ألف دولار باستخدام 512 شريحة “Nvidia H800″، فيما لم تتضمن النسخة الأولى من المقال هذه المعلومات.
تعكس تكاليف تدريب النماذج اللغوية الكبيرة حجم النفقات الناتجة عن تشغيل مئات الشرائح القوية لأسابيع أو أشهر لمعالجة كميات هائلة من البيانات النصية والرمزية.
صرح سام ألتمان، الرئيس التنفيذي لـ”OpenAI”، عام 2023 أن تدريب النماذج الأساسية تجاوز بكثير 100 مليون دولار، رغم أن شركته لم تقدم أرقامًا دقيقة.
أبدت شركات ومسؤولون أميركيون شكوكهم حول تصريحات “ديب سيك” المتعلقة بتكاليف التطوير والتقنيات المستخدمة.
أُنتجت شرائح “H800” خصيصًا للسوق الصينية بعد حظر واشنطن في أكتوبر 2022 تصدير رقائق “H100″ و”A100” الأكثر قوة.
أكد مسؤولون أميركيون في يونيو أن “ديب سيك” حصلت على كميات كبيرة من شرائح “H100” رغم القيود، فيما ردت “إنفيديا” بأن الشركة استخدمت رقائق “H800” بشكل قانوني.
أقرت الشركة لأول مرة بامتلاكها لشرائح “A100” وأوضحت أنها استُخدمت في مراحل تحضيرية من تطوير النموذج.
أشارت تقارير سابقة إلى أن امتلاك “ديب سيك” لعناقيد حوسبة فائقة قائمة على شرائح “A100” ساعدها على استقطاب أبرز العقول في الصين.
نفت “ديب سيك” اتهامات أميركية بأنها قامت بتقليد أو “تقطير” نماذج “OpenAI”، مؤكدة أن هذه التقنية تمنح كفاءة أعلى للنماذج وتقلل التكاليف بشكل كبير.
أوضحت الشركة أن تقنية التقطير تتيح للنماذج الأحدث الاستفادة من خبرات النماذج السابقة دون تحمل التكاليف الضخمة.
أعلنت “ديب سيك” في يناير أنها استخدمت نموذج “لاما” مفتوح المصدر من “ميتا” كأساس في بعض النسخ المطورة من نماذجها.


