xAI a achevé sa troisième grande installation de centre de données, Colossus 3. Lorsqu'elle est combinée avec Colossus 1 et Colossus 2, la superficie totale des centres de données de l'entreprise atteint environ 2,5 millions de pieds carrés. Les trois sites opérationnels convergent en une infrastructure de supercalcul capable de fournir près de 2 gigawatts de puissance de calcul. En termes de matériel, cela se traduit par plus de 1 million de GPU répartis dans les installations. Les estimations de l'industrie suggèrent que l'investissement en capital total sur les trois sites dépasse $35 milliards. La portée de ce déploiement d'infrastructure représente un saut significatif dans les ressources de calcul disponibles pour le développement et le déploiement de modèles d'IA à grande échelle.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
5
Reposter
Partager
Commentaire
0/400
TokenTherapist
· 01-09 02:53
35 milliards dépensés simplement pour entraîner le modèle, cette vitesse de dépense effrénée est vraiment impressionnante
Voir l'originalRépondre0
WalletDetective
· 01-09 02:52
3,5 milliards de dollars américains dépensés, juste pour entraîner cette IA... cette course aux armements ne semble jamais finir
Voir l'originalRépondre0
PrivacyMaximalist
· 01-09 02:52
Putain, 3,5 milliards de dollars dépensés juste pour entraîner cette chose ? Peut-elle surpasser GPT-4 ?
Voir l'originalRépondre0
OnlyOnMainnet
· 01-09 02:37
3,5 milliards investis, juste pour développer de grands modèles, cette mise est vraiment audacieuse
xAI a achevé sa troisième grande installation de centre de données, Colossus 3. Lorsqu'elle est combinée avec Colossus 1 et Colossus 2, la superficie totale des centres de données de l'entreprise atteint environ 2,5 millions de pieds carrés. Les trois sites opérationnels convergent en une infrastructure de supercalcul capable de fournir près de 2 gigawatts de puissance de calcul. En termes de matériel, cela se traduit par plus de 1 million de GPU répartis dans les installations. Les estimations de l'industrie suggèrent que l'investissement en capital total sur les trois sites dépasse $35 milliards. La portée de ce déploiement d'infrastructure représente un saut significatif dans les ressources de calcul disponibles pour le développement et le déploiement de modèles d'IA à grande échelle.