aXAI concluiu a sua terceira grande instalação de centro de dados, Colossus 3. Quando combinada com Colossus 1 e Colossus 2, a pegada total de centros de dados da empresa atinge aproximadamente 2,5 milhões de pés quadrados. Os três locais operacionais convergem numa infraestrutura de supercomputação unificada capaz de fornecer quase 2 gigawatts de potência computacional. Em termos de hardware, isto traduz-se em mais de 1 milhão de GPUs distribuídas pelos centros. Estimativas da indústria sugerem que o investimento de capital total em todos os três locais excede $35 biliões. A escala desta implementação de infraestrutura representa um avanço significativo nos recursos computacionais disponíveis para o desenvolvimento e implementação de modelos de IA em grande escala.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
16 gostos
Recompensa
16
5
Republicar
Partilhar
Comentar
0/400
TokenTherapist
· 01-09 02:53
35 mil milhões investidos apenas para treinar modelos, essa velocidade de gastar dinheiro é realmente impressionante
Ver originalResponder0
WalletDetective
· 01-09 02:52
3,5 mil milhões de dólares investidos apenas para treinar aquela IA... Esta corrida armamentista realmente não tem fim.
Ver originalResponder0
PrivacyMaximalist
· 01-09 02:52
Caramba, 3,5 mil milhões de dólares investidos nisso? Só para treinar esse sistema? Consegue superar o GPT-4?
Ver originalResponder0
OnlyOnMainnet
· 01-09 02:37
35 bilhões investidos, só para treinar grandes modelos, essa aposta é realmente bastante ousada
aXAI concluiu a sua terceira grande instalação de centro de dados, Colossus 3. Quando combinada com Colossus 1 e Colossus 2, a pegada total de centros de dados da empresa atinge aproximadamente 2,5 milhões de pés quadrados. Os três locais operacionais convergem numa infraestrutura de supercomputação unificada capaz de fornecer quase 2 gigawatts de potência computacional. Em termos de hardware, isto traduz-se em mais de 1 milhão de GPUs distribuídas pelos centros. Estimativas da indústria sugerem que o investimento de capital total em todos os três locais excede $35 biliões. A escala desta implementação de infraestrutura representa um avanço significativo nos recursos computacionais disponíveis para o desenvolvimento e implementação de modelos de IA em grande escala.