Huaxi Securities прогнозує, що світовий ринок програмного забезпечення штучного інтелекту досягне 126 мільярдів доларів США у 2025 році, із сукупним темпом зростання на 41,02% з 2021 по 2025 рік.
За процвітанням ChatGPT стоїть підтримка астрономічної обчислювальної потужності.
Згідно з підрахунками, з точки зору навчальних серверів штучного інтелекту, одне навчання великої мовної моделі підвищує попит на сервери навчання штучного інтелекту приблизно до 200 мільйонів доларів США; з точки зору серверів міркування ШІ, таких як ChatGPT, це може стимулювати попит на сервери міркування. приблизно до 4,5 мільярдів доларів США на ранній стадії.
Певний час ChatGPT з’являлися один за одним, і кількість серверів штучного інтелекту за ними також почала зростати відповідно.
Обчислювальна потужність визначає ChatGPT
Обчислювальна потужність є основним двигуном великої моделі, і її формула розрахунку дуже проста: скільки мікросхем графічного процесора може генерувати стільки ж обчислювальної потужності, а кількість високоякісних мікросхем графічного процесора може безпосередньо впливати на обчислювальну потужність.
**Обчислювальна потужність, необхідна для ChatGPT, не є фіксованою, але збільшується крок за кроком. Чим розумнішим є ChatGPT, тим ціною є потреба в дедалі більшій обчислювальній потужності. **
Згідно зі спекуляціями ЗМІ, вартість навчання GPT-3, як очікується, становитиме 5 мільйонів доларів США за один раз, вартість навчання моделі GPT-3 повинна становити близько 1,4 мільйона доларів США, а модель Google PaLM має коштувати приблизно 11,2 мільйона доларів США. доларів на витрати на навчання.
За словами керівників Microsoft, суперкомп’ютер зі штучним інтелектом, який забезпечує обчислювальну потужність для ChatGPT, — це великий першокласний суперкомп’ютер, створений Microsoft з інвестиціями в 1 мільярд доларів США в 2019 році. Він оснащений десятками тисяч графічних процесорів Nvidia A100 і більш ніж 60 Загалом у центрі обробки даних розгорнуто сотні тисяч графічних процесорів Nvidia.
Щоб задовольнити постійно зростаючий попит на обчислювальну потужність ChatGPT, Microsoft оголосила про запуск серії масштабованих віртуальних машин зі штучним інтелектом Azure на основі останнього флагманського процесора Nvidia H100 GPU та технології мережевого з’єднання Quantum-2 InfiniBand від Nvidia для значного прискорення розробки. моделей ШІ.
Здається, за ChatGPT повно Nvidia, Nvidia і Nvidia.
Насправді Nvidia, як володар апаратного забезпечення, не тільки займає більшу частину споживчого ринку, але також є вибором номер один у сфері серверних чіпів AI.
Рідкісні речі коштують дорожче. Зараз флагманський чіп Nvidia H100 зріс у ціні майже на 70 000 юанів за тиждень, і ціна загалом сягає 300 000 юанів; юань піднявся аж до 90 000 юанів, що більше ніж 50%.
Його не тільки не можна купити за вищими цінами, але навіть США заборонили Nvidia продавати чіпи. У серпні минулого року уряд США видав політику експортного контролю, яка забороняє Nvidia продавати чіпи A100 і H100 в Китай.
Щоб не втратити китайський ринок і дотримуватися вимог експортного контролю США, Nvidia згодом випустила версії чіпів A800 і H800 із зниженою продуктивністю. Але і ці два чіпи були розхоплені ринком в дефіциті, і відповідно зросла ціна.
На чолі з Baidu, Ali і Tencent більшість інтернет-компаній у Китаї оголосили про свій прихід до великомасштабної моделі. Відповідно до ринкової статистики, після ChatGPT кількість великих моделей, які будуть представлені в Китаї цього року, перевищила 10.
Якщо ви хочете досягти рівня ChatGPT, вам потрібно принаймні 3000 чіпів A100, що становить 270 мільйонів юанів за ціною 90 000 за штуку, щоб завершити розгортання великої моделі; 10 великих моделей потребують 30 000 чіпів A100, 2,7 мільярда юанів. .
На додаток до вартості подальшого навчання, необхідні чіпи ще більш астрономічні. Але, судячи з поточного часу доставки Nvidia, купити достатню кількість чіпів нелегко.
У трансі знову настала ера карт майнінгу.
Nvidia знову сидить у повітрі
Коли віртуальна валюта була гарячою протягом останніх кількох років, як постачальник відеокарт, необхідних для майнінгу, Nvidia отримала величезний прибуток у 4,8 мільярда доларів США за кілька років. Тепер ви покладаєтеся на ChatGPT, щоб жити другим життям, нехай історія повториться знову.
Зіткнувшись зі сплеском ринкового попиту, Nvidia, яка скористалася хвилею ШІ, щоб повернути назад, запустила послугу оренди обчислювальної потужності.
21 березня на конференції GTC 2023 засновник і генеральний директор NVIDIA Джен-Хсун Хуанг запустив хмару NVIDIA DGX Cloud, яка може надати підприємствам інфраструктуру та програмне забезпечення, необхідні для навчання передових моделей ШІ. Кожен екземпляр DGX Cloud оснащений 8 графічними процесорами H100 або A100 80 ГБ. Підприємства можуть орендувати кластери DGX Cloud на місячній основі у формі хмарного лізингу. Ціна починається від 37 000 доларів США за інсталяцію на місяць.
**Чи дійсно немає заміни для Nvidia? Чому компанії віддають перевагу лізингу, а не іншим виробникам графічних процесорів? **
Згідно з даними IDC, у 2021 році вітчизняні сервери GPU становитимуть понад 88,4% внутрішнього ринку серверів, а продукти, що використовують NVIDIA, становитимуть понад 80%.
**Чіп, необхідний для великої моделі штучного інтелекту, має вищі вимоги до точності обробки інформації та швидкості обчислювальної потужності.У сфері суперкомп’ютерів можливість обчислення подвійної точності з плаваючою комою FP64 є жорстким показником для високої обчислення обчислювальної потужності. H100 і A100 від Nvidia на даний момент є єдиними чіпами з такими можливостями. **
Продажі чіпів Nvidia не єдине, що застрягло в Сполучених Штатах. Технології, обладнання та матеріали обмежують дослідження та розробки китайських компаній. Однак під жорсткими обмеженнями Сполучених Штатів у китайських компаній все одно закінчилося кілька темних конячок під тиском.
Відповідно до останнього «Звіту про відстеження ринку прискорених обчислень у Китаї (друга половина 2021 року), опублікованого IDC, масштаб китайського ринку серверів зі штучним інтелектом сягне 35,03 мільярдів юанів у 2021 році, що на 68,6% більше, ніж у минулому році.
У сфері чіпів GPU корпоративного рівня китайський виробник Biren Technology випустить чіп BR100 у 2022 році, Tianshu Zhixin випустить чіп Zhikai 100, а Cambrian випустить чіп Siyuan 270.
Серед них Biren Technology каже, що BR100 має найвищу обчислювальну потужність у світі, а його пікова обчислювальна потужність досягла більш ніж у три рази більшої, ніж у флагманських продуктів на ринку.Обчислювальна потужність досягає рівня PFLOPS.
Хоча дані хороші, їм не вистачає важливої здатності обробляти FP64, і вони все ще не можуть повністю замінити двох братів Nvidia H100 і A100.
Крім того, платформа CUDA, яку використовує Nvidia, вже стала найпоширенішою екосистемою розробки штучного інтелекту.Вона підтримує лише графічний процесор Nvidia на базі Tesla, і на даному етапі її не можна замінити вітчизняними чіпами.
Незважаючи на те, що китайські виробники чіпів наздоганяють у сфері чіпів графічних процесорів, технологічний розрив і вузьке місце в Сполучених Штатах все ще залишаються ключовими проблемами, і для роботи знадобиться деякий час.
Більше ніж сервер ШІ
Не лише сервери штучного інтелекту та чіпи графічного процесора, але й ринок сховищ постійно зростає за допомогою великомасштабних моделей.
**Умови роботи ChatGPT включають навчальні дані, модельні алгоритми та високу обчислювальну потужність Базова інфраструктура з високою обчислювальною потужністю є основою для масивних даних і навчання. **
Найбільш очевидною особливістю є те, що після кількох ітерацій ChatGPT кількість параметрів зросла зі 117 мільйонів до 175 мільярдів, збільшившись майже у дві тисячі разів, що також створює великі проблеми для обчислень і зберігання.
**Очікується, що з початком нової ери штучного інтелекту кількість глобальних даних, що генеруються, зберігаються та обробляються, зросте експоненціально, а пам’ять значно покращиться. Обчислювальне сховище є важливим наріжним каменем ChatGPT. З приходом таких технологічних гігантів, як Alibaba та Baidu в проекти ChatGPT, загальний попит на ринку обчислювальних сховищ буде ще більше швидко зростати. **
Оскільки AIGC продовжує процвітати, Пекін, Шанхай, Гуанчжоу та інші регіони з розвиненою цифровою економікою також запровадили політику сприяння будівництву інтелектуальних обчислювальних центрів. Наприклад, Пекін пропонує побудувати нову партію обчислювальних центрів обробки даних і центрів обчислювальної потужності штучного інтелекту та перетворити їх у центри обчислювальної потужності штучного інтелекту до 2023 року; Шанхай пропонує побудувати партію високопродуктивних обчислювальних систем штучного інтелекту з високою пропускною здатністю. енергетичні центри, сприяння створенню публічних платформ обчислювальної потужності тощо.
І всі сфери життя зіткнуться з хрещенням ChatGPT. Під новою хвилею штучного інтелекту галузі, пов’язані зі штучним інтелектом, відкриють широкий ринковий простір.
І китайські компанії зобов’язані подолати обмеження Сполучених Штатів і розірвати кайдани несправедливості.
Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
Гра в обчислювальну потужність, що стоїть за ChatGPT, китайським компаніям терміново потрібно розірвати кайдани Сполучених Штатів
Huaxi Securities прогнозує, що світовий ринок програмного забезпечення штучного інтелекту досягне 126 мільярдів доларів США у 2025 році, із сукупним темпом зростання на 41,02% з 2021 по 2025 рік.
За процвітанням ChatGPT стоїть підтримка астрономічної обчислювальної потужності.
Згідно з підрахунками, з точки зору навчальних серверів штучного інтелекту, одне навчання великої мовної моделі підвищує попит на сервери навчання штучного інтелекту приблизно до 200 мільйонів доларів США; з точки зору серверів міркування ШІ, таких як ChatGPT, це може стимулювати попит на сервери міркування. приблизно до 4,5 мільярдів доларів США на ранній стадії.
Певний час ChatGPT з’являлися один за одним, і кількість серверів штучного інтелекту за ними також почала зростати відповідно.
Обчислювальна потужність визначає ChatGPT
Обчислювальна потужність є основним двигуном великої моделі, і її формула розрахунку дуже проста: скільки мікросхем графічного процесора може генерувати стільки ж обчислювальної потужності, а кількість високоякісних мікросхем графічного процесора може безпосередньо впливати на обчислювальну потужність.
**Обчислювальна потужність, необхідна для ChatGPT, не є фіксованою, але збільшується крок за кроком. Чим розумнішим є ChatGPT, тим ціною є потреба в дедалі більшій обчислювальній потужності. **
Згідно зі спекуляціями ЗМІ, вартість навчання GPT-3, як очікується, становитиме 5 мільйонів доларів США за один раз, вартість навчання моделі GPT-3 повинна становити близько 1,4 мільйона доларів США, а модель Google PaLM має коштувати приблизно 11,2 мільйона доларів США. доларів на витрати на навчання.
За словами керівників Microsoft, суперкомп’ютер зі штучним інтелектом, який забезпечує обчислювальну потужність для ChatGPT, — це великий першокласний суперкомп’ютер, створений Microsoft з інвестиціями в 1 мільярд доларів США в 2019 році. Він оснащений десятками тисяч графічних процесорів Nvidia A100 і більш ніж 60 Загалом у центрі обробки даних розгорнуто сотні тисяч графічних процесорів Nvidia.
Щоб задовольнити постійно зростаючий попит на обчислювальну потужність ChatGPT, Microsoft оголосила про запуск серії масштабованих віртуальних машин зі штучним інтелектом Azure на основі останнього флагманського процесора Nvidia H100 GPU та технології мережевого з’єднання Quantum-2 InfiniBand від Nvidia для значного прискорення розробки. моделей ШІ.
Здається, за ChatGPT повно Nvidia, Nvidia і Nvidia.
Насправді Nvidia, як володар апаратного забезпечення, не тільки займає більшу частину споживчого ринку, але також є вибором номер один у сфері серверних чіпів AI.
Рідкісні речі коштують дорожче. Зараз флагманський чіп Nvidia H100 зріс у ціні майже на 70 000 юанів за тиждень, і ціна загалом сягає 300 000 юанів; юань піднявся аж до 90 000 юанів, що більше ніж 50%.
Його не тільки не можна купити за вищими цінами, але навіть США заборонили Nvidia продавати чіпи. У серпні минулого року уряд США видав політику експортного контролю, яка забороняє Nvidia продавати чіпи A100 і H100 в Китай.
Щоб не втратити китайський ринок і дотримуватися вимог експортного контролю США, Nvidia згодом випустила версії чіпів A800 і H800 із зниженою продуктивністю. Але і ці два чіпи були розхоплені ринком в дефіциті, і відповідно зросла ціна.
На чолі з Baidu, Ali і Tencent більшість інтернет-компаній у Китаї оголосили про свій прихід до великомасштабної моделі. Відповідно до ринкової статистики, після ChatGPT кількість великих моделей, які будуть представлені в Китаї цього року, перевищила 10.
Якщо ви хочете досягти рівня ChatGPT, вам потрібно принаймні 3000 чіпів A100, що становить 270 мільйонів юанів за ціною 90 000 за штуку, щоб завершити розгортання великої моделі; 10 великих моделей потребують 30 000 чіпів A100, 2,7 мільярда юанів. .
На додаток до вартості подальшого навчання, необхідні чіпи ще більш астрономічні. Але, судячи з поточного часу доставки Nvidia, купити достатню кількість чіпів нелегко.
У трансі знову настала ера карт майнінгу.
Nvidia знову сидить у повітрі
Коли віртуальна валюта була гарячою протягом останніх кількох років, як постачальник відеокарт, необхідних для майнінгу, Nvidia отримала величезний прибуток у 4,8 мільярда доларів США за кілька років. Тепер ви покладаєтеся на ChatGPT, щоб жити другим життям, нехай історія повториться знову.
Зіткнувшись зі сплеском ринкового попиту, Nvidia, яка скористалася хвилею ШІ, щоб повернути назад, запустила послугу оренди обчислювальної потужності.
21 березня на конференції GTC 2023 засновник і генеральний директор NVIDIA Джен-Хсун Хуанг запустив хмару NVIDIA DGX Cloud, яка може надати підприємствам інфраструктуру та програмне забезпечення, необхідні для навчання передових моделей ШІ. Кожен екземпляр DGX Cloud оснащений 8 графічними процесорами H100 або A100 80 ГБ. Підприємства можуть орендувати кластери DGX Cloud на місячній основі у формі хмарного лізингу. Ціна починається від 37 000 доларів США за інсталяцію на місяць.
**Чи дійсно немає заміни для Nvidia? Чому компанії віддають перевагу лізингу, а не іншим виробникам графічних процесорів? **
Згідно з даними IDC, у 2021 році вітчизняні сервери GPU становитимуть понад 88,4% внутрішнього ринку серверів, а продукти, що використовують NVIDIA, становитимуть понад 80%.
**Чіп, необхідний для великої моделі штучного інтелекту, має вищі вимоги до точності обробки інформації та швидкості обчислювальної потужності.У сфері суперкомп’ютерів можливість обчислення подвійної точності з плаваючою комою FP64 є жорстким показником для високої обчислення обчислювальної потужності. H100 і A100 від Nvidia на даний момент є єдиними чіпами з такими можливостями. **
Продажі чіпів Nvidia не єдине, що застрягло в Сполучених Штатах. Технології, обладнання та матеріали обмежують дослідження та розробки китайських компаній. Однак під жорсткими обмеженнями Сполучених Штатів у китайських компаній все одно закінчилося кілька темних конячок під тиском.
Відповідно до останнього «Звіту про відстеження ринку прискорених обчислень у Китаї (друга половина 2021 року), опублікованого IDC, масштаб китайського ринку серверів зі штучним інтелектом сягне 35,03 мільярдів юанів у 2021 році, що на 68,6% більше, ніж у минулому році.
У сфері чіпів GPU корпоративного рівня китайський виробник Biren Technology випустить чіп BR100 у 2022 році, Tianshu Zhixin випустить чіп Zhikai 100, а Cambrian випустить чіп Siyuan 270.
Серед них Biren Technology каже, що BR100 має найвищу обчислювальну потужність у світі, а його пікова обчислювальна потужність досягла більш ніж у три рази більшої, ніж у флагманських продуктів на ринку.Обчислювальна потужність досягає рівня PFLOPS.
Хоча дані хороші, їм не вистачає важливої здатності обробляти FP64, і вони все ще не можуть повністю замінити двох братів Nvidia H100 і A100.
Крім того, платформа CUDA, яку використовує Nvidia, вже стала найпоширенішою екосистемою розробки штучного інтелекту.Вона підтримує лише графічний процесор Nvidia на базі Tesla, і на даному етапі її не можна замінити вітчизняними чіпами.
Незважаючи на те, що китайські виробники чіпів наздоганяють у сфері чіпів графічних процесорів, технологічний розрив і вузьке місце в Сполучених Штатах все ще залишаються ключовими проблемами, і для роботи знадобиться деякий час.
Більше ніж сервер ШІ
Не лише сервери штучного інтелекту та чіпи графічного процесора, але й ринок сховищ постійно зростає за допомогою великомасштабних моделей.
**Умови роботи ChatGPT включають навчальні дані, модельні алгоритми та високу обчислювальну потужність Базова інфраструктура з високою обчислювальною потужністю є основою для масивних даних і навчання. **
Найбільш очевидною особливістю є те, що після кількох ітерацій ChatGPT кількість параметрів зросла зі 117 мільйонів до 175 мільярдів, збільшившись майже у дві тисячі разів, що також створює великі проблеми для обчислень і зберігання.
**Очікується, що з початком нової ери штучного інтелекту кількість глобальних даних, що генеруються, зберігаються та обробляються, зросте експоненціально, а пам’ять значно покращиться. Обчислювальне сховище є важливим наріжним каменем ChatGPT. З приходом таких технологічних гігантів, як Alibaba та Baidu в проекти ChatGPT, загальний попит на ринку обчислювальних сховищ буде ще більше швидко зростати. **
Оскільки AIGC продовжує процвітати, Пекін, Шанхай, Гуанчжоу та інші регіони з розвиненою цифровою економікою також запровадили політику сприяння будівництву інтелектуальних обчислювальних центрів. Наприклад, Пекін пропонує побудувати нову партію обчислювальних центрів обробки даних і центрів обчислювальної потужності штучного інтелекту та перетворити їх у центри обчислювальної потужності штучного інтелекту до 2023 року; Шанхай пропонує побудувати партію високопродуктивних обчислювальних систем штучного інтелекту з високою пропускною здатністю. енергетичні центри, сприяння створенню публічних платформ обчислювальної потужності тощо.
І всі сфери життя зіткнуться з хрещенням ChatGPT. Під новою хвилею штучного інтелекту галузі, пов’язані зі штучним інтелектом, відкриють широкий ринковий простір.
І китайські компанії зобов’язані подолати обмеження Сполучених Штатів і розірвати кайдани несправедливості.