تحتاج لعبة القوة الحاسوبية وراء ChatGPT الشركات الصينية بشكل عاجل إلى كسر قيود الولايات المتحدة

تتوقع Huaxi Securities أن يصل سوق برمجيات الذكاء الاصطناعي العالمي إلى 126 مليار دولار أمريكي في عام 2025 ، بمعدل نمو مركب يبلغ 41.02٪ من عام 2021 إلى عام 2025.

وراء ازدهار ChatGPT دعم قوة الحوسبة الفلكية.

وفقًا للتقديرات ، من حيث خوادم تدريب الذكاء الاصطناعي ، فإن نموذج تدريب لغة واحد كبير يدفع الطلب على خوادم تدريب الذكاء الاصطناعي إلى حوالي 200 مليون دولار أمريكي ؛ من حيث خوادم استدلال الذكاء الاصطناعي ، مثل ChatGPT ، يمكن أن يؤدي إلى زيادة الطلب على خوادم الاستدلال إلى حوالي 4.5 مليار دولار أمريكي في المرحلة المبكرة.

لبعض الوقت ، ظهرت ChatGPTs واحدة تلو الأخرى ، وبدأ مسار خادم AI الذي يقف خلفها أيضًا في الارتفاع وفقًا لذلك.

تحدد قوة الحوسبة ChatGPT

تعد قوة الحوسبة هي المحرك الأساسي للنموذج الكبير ، وصيغته الحسابية بسيطة للغاية: كم عدد شرائح GPU التي يمكن أن تولد قدرًا كبيرًا من قوة الحوسبة ، ويمكن أن يؤثر عدد شرائح GPU المتطورة بشكل مباشر على قوة الحوسبة.

** قوة الحوسبة المطلوبة بواسطة ChatGPT ليست ثابتة ، ولكنها تزداد خطوة بخطوة. إن ChatGPT الأكثر ذكاءً ، والثمن وراء ذلك هو الحاجة إلى المزيد والمزيد من قوة الحوسبة. **

وفقًا لتكهنات وسائل الإعلام ، من المتوقع أن تبلغ تكلفة تدريب GPT-3 5 ملايين دولار أمريكي في كل مرة ، ويحتاج نموذج GPT-3 إلى تكلف حوالي 1.4 مليون دولار أمريكي في تكاليف التدريب ، ويحتاج نموذج PaLM من Google إلى حوالي 11.2 مليون دولار أمريكي. دولار في تكاليف التدريب.

وفقًا للمسؤولين التنفيذيين في Microsoft ، فإن الكمبيوتر الفائق AI الذي يوفر دعمًا لقوة الحوسبة لـ ChatGPT هو كمبيوتر عملاق كبير الحجم تم بناؤه بواسطة Microsoft باستثمار 1 مليار دولار أمريكي في عام 2019. وهو مجهز بعشرات الآلاف من Nvidia A100 GPUs وأكثر من 60 إجمالاً ، يتم نشر مئات الآلاف من وحدات معالجة الرسومات Nvidia في مركز البيانات.

من أجل تلبية الطلب المتزايد باستمرار على قوة حوسبة ChatGPT ، أعلنت Microsoft أنها ستطلق سلسلة من الأجهزة الافتراضية Azure القابلة للتطوير AI استنادًا إلى أحدث رقاقة GPU H100 من Nvidia وتقنية الاتصال البيني لشبكة Nvidia's Quantum-2 InfiniBand لتسريع عملية التطوير بشكل كبير من نماذج الذكاء الاصطناعي.

يبدو أن خلف ChatGPT مليء بـ Nvidia و Nvidia و Nvidia.

في الواقع ، لا تشغل Nvidia ، بصفتها الشخصية الرئيسية للأجهزة ، معظم السوق في السوق الاستهلاكية فحسب ، بل إنها أيضًا الخيار الأول في مجال رقائق خادم AI.

الأشياء النادرة أغلى ثمناً. في الوقت الحالي ، زاد سعر شريحة H100 الرئيسية من Nvidia بما يقرب من 70000 يوان في الأسبوع ، والسعر بشكل عام يصل إلى 300000 يوان ؛ ارتفع اليوان على طول الطريق إلى 90.000 يوان ، بزيادة أكثر من 50٪.

ليس فقط لا يمكن شراؤها بأسعار أعلى ، ولكن حتى الولايات المتحدة منعت Nvidia من بيع الرقائق. في أغسطس من العام الماضي ، أصدرت الحكومة الأمريكية سياسة مراقبة الصادرات ، تحظر على Nvidia بيع رقائق A100 و H100 إلى الصين.

من أجل عدم خسارة السوق الصينية والامتثال لضوابط التصدير الأمريكية ، أطلقت Nvidia لاحقًا إصدارات مخصية الأداء من رقائق A800 و H800. لكن هاتين الشريحتين تم الاستيلاء عليهما من قبل السوق بسبب نقص المعروض ، وارتفع السعر أيضًا وفقًا لذلك.

بقيادة بايدو وعلي وتينسنت ، أعلنت معظم شركات الإنترنت في الصين عن دخولها في النموذج واسع النطاق. وفقًا لإحصاءات السوق ، منذ ChatGPT ، تجاوز عدد الطرز الكبيرة التي سيتم إطلاقها في الصين هذا العام 10.

إذا كنت ترغب في الوصول إلى مستوى ChatGPT ، فأنت بحاجة إلى ما لا يقل عن 3000 شريحة A100 ، أي 270 مليون يوان صيني بسعر 90،000 للقطعة الواحدة لإكمال نشر نموذج كبير ؛ 10 نماذج كبيرة تحتاج 30000 شريحة A100 ، 2.7 مليار يوان صيني .

بالإضافة إلى تكلفة التدريب اللاحق ، تعتبر الرقائق المطلوبة أكثر فلكية. ولكن انطلاقا من وقت التسليم الحالي لـ Nvidia ، ليس من السهل شراء ما يكفي من الرقائق.

في نشوة ، جاء عصر بطاقات التعدين مرة أخرى.

نفيديا جالس في الهواء مرة أخرى

عندما كانت العملة الافتراضية ساخنة في السنوات القليلة الماضية ، كمزود بطاقة رسومات ضروري للتعدين ، حققت Nvidia أرباحًا ضخمة بلغت 4.8 مليار دولار أمريكي في بضع سنوات. الآن بالاعتماد على ChatGPT لتعيش حياة ثانية ، دع التاريخ يعيد نفسه مرة أخرى.

في مواجهة زيادة الطلب في السوق ، أطلقت Nvidia ، التي استفادت من موجة الذكاء الاصطناعي للالتفاف ، خدمة تأجير طاقة الحوسبة.

في 21 مارس ، في مؤتمر 2023 GTC ، أطلق مؤسس NVIDIA والرئيس التنفيذي Jensen Huang NVIDIA DGX Cloud ، والتي يمكن أن تزود المؤسسات بالبنية التحتية والبرمجيات اللازمة لتدريب نماذج الذكاء الاصطناعي المتقدمة. تم تجهيز كل مثيل من DGX Cloud بـ 8 H100 أو A100 80GB GPU. يمكن للشركات تأجير مجموعات DGX Cloud على أساس شهري في شكل عقد إيجار سحابي. يبدأ السعر من 37000 دولار لكل مثيل شهريًا.

** ألا يوجد حقاً بديل لـ Nvidia؟ لماذا تفضل الشركات اختيار التأجير بدلاً من الشركات المصنعة لشرائح GPU الأخرى؟ **

وفقًا لبيانات IDC ، ستشكل خوادم GPU المحلية أكثر من 88.4٪ من سوق الخوادم المحلية في عام 2021 ، وستمثل المنتجات التي تستخدم NVIDIA أكثر من 80٪.

** الشريحة المطلوبة بواسطة نموذج AI الكبير لها متطلبات أعلى بشأن دقة معالجة المعلومات وسرعة قوة الحوسبة. في مجال الحوسبة الفائقة ، تعد قدرة حوسبة النقطة العائمة مزدوجة الدقة FP64 مؤشرًا صارمًا للارتفاع حسابات قوة الحوسبة. إن H100 و A100 من Nvidia هما الرقائق الوحيدة بهذه الإمكانيات حاليًا. **

إن مبيعات رقائق Nvidia ليست الشيء الوحيد العالق في الولايات المتحدة ، فالتكنولوجيا والمعدات والمواد كلها تقيد البحث والتطوير في الشركات الصينية. ومع ذلك ، في ظل القيود الشديدة التي تفرضها الولايات المتحدة ، لا تزال الشركات الصينية تنفد من العديد من الخيول السوداء تحت الضغط.

وفقًا لآخر تقرير تتبع "سوق الحوسبة المعجل بالصين (النصف الثاني من عام 2021)" الصادر عن IDC ، سيصل حجم سوق خوادم الذكاء الاصطناعي في الصين إلى 35.03 مليار يوان في عام 2021 ، بزيادة سنوية قدرها 68.6٪.

في مجال رقائق GPU على مستوى المؤسسات ، ستطلق الشركة الصينية Biren Technology شريحة BR100 في عام 2022 ، وستطلق Tianshu Zhixin شريحة Zhikai 100 ، وستطلق Cambrian شريحة Siyuan 270.

من بينها ، قالت شركة Biren Technology أن جهاز BR100 يتمتع بأعلى قوة حوسبة في العالم ، وقد وصلت ذروة قوته الحاسوبية إلى أكثر من ثلاثة أضعاف المنتجات الرائدة في السوق ، حيث تصل قوة الحوسبة إلى مستوى PFLOPS.

على الرغم من أن البيانات جيدة ، إلا أنها تفتقر إلى القدرة الحاسمة على معالجة FP64 ، ولا تزال غير قادرة على استبدال الشقيقين Nvidia H100 و A100 تمامًا.

علاوة على ذلك ، أصبحت منصة CUDA التي تستخدمها Nvidia بالفعل النظام البيئي لتطوير الذكاء الاصطناعي الأكثر استخدامًا. فهي تدعم فقط GPU المستندة إلى Tesla من Nvidia ، والتي لا يمكن استبدالها بالرقائق المحلية في هذه المرحلة.

على الرغم من أن مصنعي الرقائق الصينيين يلحقون بالركب في مجال رقائق GPU ، إلا أن الفجوة التكنولوجية و عنق الزجاجة في الولايات المتحدة لا يزالان من القضايا الرئيسية ، وسوف يستغرق الأمر بعض الوقت للعمل الجاد.

أكثر من خادم AI

ليس فقط خوادم الذكاء الاصطناعي ورقائق وحدة معالجة الرسومات ، ولكن أيضًا سوق التخزين آخذ في الارتفاع على طول الطريق بمساعدة النماذج واسعة النطاق.

** تشمل ظروف تشغيل ChatGPT بيانات التدريب وخوارزميات النموذج وقوة الحوسبة العالية. تُعد البنية التحتية الأساسية ذات قوة الحوسبة العالية أساسًا للبيانات الضخمة والتدريب. **

الميزة الأكثر وضوحًا هي أنه بعد التكرارات العديدة لـ ChatGPT ، زاد عدد المعلمات من 117 مليونًا إلى 175 مليارًا ، بزيادة تقارب ألفي مرة ، مما يجلب أيضًا تحديات كبيرة للحوسبة والتخزين.

** مع بدء العصر الجديد للذكاء الاصطناعي ، من المتوقع أن يزداد حجم إنشاء البيانات العالمية وتخزينها ومعالجتها بشكل كبير ، وستستفيد الذاكرة بشكل كبير. التخزين الحاسوبي هو حجر الزاوية المهم في ChatGPT. مع دخول عمالقة التكنولوجيا مثل Alibaba و Baidu في مشاريع ChatGPT ، سيزداد الطلب الإجمالي في سوق تخزين الحوسبة بشكل سريع. **

مع استمرار ازدهار AIGC ، أدخلت بكين وشنغهاي وقوانغتشو وغيرها من المناطق المتقدمة بالاقتصاد الرقمي سياسات لتعزيز بناء مراكز الحوسبة الذكية. على سبيل المثال ، تقترح بكين بناء مجموعة جديدة من مراكز البيانات الحاسوبية ومراكز طاقة حوسبة الذكاء الاصطناعي ، وزرعها في مراكز طاقة حوسبة الذكاء الاصطناعي بحلول عام 2023 ؛ تقترح شنغهاي بناء مجموعة من حوسبة الذكاء الاصطناعي عالية الأداء وعالية الإنتاجية مراكز الطاقة ، والترويج لبناء منصات خدمات الحوسبة العامة للطاقة ، وما إلى ذلك.

وستواجه جميع مناحي الحياة معمودية ChatGPT. في ظل الموجة الجديدة من الذكاء الاصطناعي ، ستدخل الصناعات المرتبطة بالذكاء الاصطناعي حيزًا واسعًا من السوق.

والشركات الصينية ملزمة بكسر قيود الولايات المتحدة وكسر قيود الظلم.

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت