Elon Musk a levé 6 milliards de dollars pour le financement de la start-up d'intelligence artificielle Grok afin d'acheter des puces Nvidia.

robot
Création du résumé en cours

Elon Musk, fondateur de Tesla et premier DOGE, XAI, sera valorisé à 50 milliards de dollars et financé à hauteur de 6 milliards de dollars. Selon CNBC, ces fonds seront disponibles la semaine prochaine, avec 5 milliards de dollars provenant de fonds souverains du Moyen-Orient et 1 milliard de dollars provenant d'autres investisseurs, pour l'achat de 100 000 puces NVIDIA.

La société de nouvelle intelligence artificielle xAI de Musk a choisi la ville de Memphis, dans le Tennessee, pour construire un superordinateur nommé Colossus. Les puces d'IA de Nvidia jouent un rôle clé, avec actuellement 100 000 GPU Nvidia H100, chacun coûtant environ 30 000 dollars. Musk prévoit de continuer à utiliser les puces Nvidia et de mettre à niveau l'installation avec le GPU H200 de Nvidia, qui peut augmenter la capacité de mémoire, mais coûte près de 40 000 dollars par unité. Cet été, Musk prévoit également d'acheter 300 000 GPU Nvidia Blackwell B200.

En novembre dernier, xAI a lancé le bot de chat Grok pour rivaliser sur le marché de l'IA avec ChatGPT de Sam Altman. Musk était à l'origine un investisseur providentiel précoce d'Open AI, mais il a quitté à la suite d'un différend avec Sam Altman et est maintenant un concurrent de l'IA de Sam Altman.

À propos de xAI Grok

Grok est une intelligence artificielle développée par xAI qui peut fournir des réponses utiles et véridiques à toutes sortes de questions. Le concept de Grok est inspiré du Guide du voyageur galactique (The Hitchhiker’s Guide to the Galaxy) et du système d'intelligence artificielle J.A.R.V.I.S. créé par Tony Stark, alias Iron Man, dans le but d'aider les utilisateurs à comprendre la science de l'univers et à répondre à toutes les questions. Selon Grok lui-même, cette explication provient de Grok, qui fournit des informations de manière honnête et non critique, se concentrant sur la compréhension et les explications détaillées, parfois même en abordant les problèmes humains de manière humoristique ou avec un point de vue externe.

Comment utiliser les puces Nvidia pour construire un superordinateur xAI

XAI utilise la puce H100 GPU pour construire Colossus, un superordinateur conçu pour la formation en intelligence artificielle. En utilisant les GPU de Nvidia, xAI obtient non seulement une puissance de calcul, mais peut également utiliser une infrastructure spécialisée pour accélérer l'intelligence artificielle et l'apprentissage automatique, permettant à xAI de repousser les limites de la recherche et du développement en intelligence artificielle.

Les six principaux cas d'utilisation de Nvidia X Grok

Traitement parallèle massif : le GPU de Nvidia (H100) est spécialement conçu pour le traitement parallèle, ce qui est crucial pour les calculs complexes nécessaires à l'entraînement des modèles d'IA. Ces puces peuvent traiter simultanément des milliers d'opérations, accélérant ainsi le processus d'entraînement du modèle de langage Grok (LLM).

Scalabilité: L'ordinateur supercalculateur Colossus est à l'origine composé de 100 000 GPU Nvidia H100, ce qui permet à xAI de gérer de nombreuses charges de travail de calcul, bien au-delà des capacités de traitement d'un CPU typique, et il est prévu de doubler ce nombre pour atteindre 200 000 GPU (y compris les puces H200).

Efficacité énergétique : Les opérations à grande échelle nécessitent une demande énergétique élevée, mais par rapport aux processeurs traditionnels, les GPU de Nvidia sont plus économes en énergie pour les charges de travail de l'xAI.

Infrastructure réseau (Network Infrastructure) : Le supercalculateur Colossus utilise la plateforme réseau Spectrum-X ETH de Nvidia pour fournir une connexion à faible latence et à large bande passante pour prendre en charge plusieurs locataires.

Fonctionnalités avancées pour l'IA : Les puces H100 et H200 de Nvidia sont équipées de fonctionnalités spécialement conçues pour l'IA, notamment une mémoire rapide (HBM3 et HBM3e respectivement), permettant de réduire le temps de transfert des données entre la mémoire et les cœurs de calcul du GPU. Cette fonctionnalité est très utile pour les charges de travail en intelligence artificielle où le déplacement des données peut devenir un goulot d'étranglement.

Support logiciel : Nvidia fournit la plateforme de calcul parallèle CUDA et le modèle de programmation, xAI utilise CUDA pour développer des algorithmes d'intelligence artificielle.

Cet article de Musk sur le financement de la start-up d'intelligence artificielle Grok pour 6 milliards de dollars afin d'acheter des puces Nvidia est apparu pour la première fois dans les nouvelles de la chaîne ABMedia.

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate.io app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)