De acordo com os comunicados oficiais da Anthropic e com o comunicado oficial da Amazon, ambas as partes expandem a cooperação estratégica em 4/20: a Amazon adiciona um investimento de até 25 mil milhões de dólares na Anthropic, enquanto a Anthropic se compromete a que, nos próximos dez anos, a sua despesa na AWS ultrapasse os 100 mil milhões de dólares, e a obter até 5GW de capacidade de computação adicional, para treinar e implementar modelos Claude.
Esta é a segunda grande expansão de peso da corrida armamentista por capacidade computacional da Anthropic, depois da parceria de 4/7 entre a Anthropic e a Google e a Broadcom para obter capacidade de computação TPU de 3,5GW; é também o maior compromisso da Amazon com uma única empresa de IA, pelo que a avaliação da Anthropic fica fixada em 380 mil milhões de dólares.
Estrutura do investimento: 5 mil milhões para adiantamento, 20 mil milhões vinculados a marcos
O investimento da Amazon nesta ronda é dividido em duas fases: 5 mil milhões de dólares são desembolsados imediatamente na data do anúncio, e outros até 20 mil milhões de dólares são libertados faseadamente, após a sua vinculação a “marcos comerciais específicos”. Somando aos 8 mil milhões de dólares já investidos anteriormente, o limite máximo de investimento acumulado da Amazon na Anthropic ascenderá a 33 mil milhões de dólares.
Estes 5 mil milhões de dólares são feitos ao entrar na participação pela avaliação mais recente da Anthropic de 38 mil milhões de dólares; trata-se também da primeira vez que essa avaliação é confirmada por um investidor de primeira linha através de um novo contrato.
A Anthropic compromete-se com 100 mil milhões de dólares de despesa na AWS em dez anos
Como contrapartida da cooperação, a Anthropic compromete-se a que, nos próximos dez anos, a sua despesa na AWS ultrapasse os 100 mil milhões de dólares, abrangendo os chips de IA personalizados Trainium das gerações atuais e futuras, bem como CPUs de uso geral Graviton “com dezenas de milhões de núcleos”.
Andy Jassy (CEO da Amazon) afirmou no comunicado: “Ao comprometermo-nos a que, nos próximos dez anos, os grandes modelos de linguagem sejam executados na AWS Trainium, refletimos os progressos conjuntos no nosso caminho de chips personalizados.” Dario Amodei (CEO da Anthropic) acrescentou: “Os utilizadores dizem-nos que o Claude é cada vez mais importante para o seu trabalho; temos de construir uma infra-estrutura capaz de acompanhar o crescimento da procura.”
Roteiro de capacidade de computação de 5GW: toda a família Trainium2, 3 e 4 bloqueada
Este acordo abrange os três anos de chips Trainium2, Trainium3 e Trainium4, e a Anthropic mantém a opção de comprar chips personalizados das gerações subsequentes. Em termos de calendário, no 2.º trimestre de 2026 haverá uma entrada em grande escala de capacidade de Trainium2; a capacidade de Trainium3 será disponibilizada gradualmente até ao fim do ano, e a soma anual de Trainium2 e Trainium3 totalizará quase 1GW.
Project Rainier é o projeto principal de cooperação já existente entre ambas as partes; este cluster de treino já implantou cerca de 500 mil chips Trainium2, que são a infra-estrutura base principal para o treino de modelos Claude.
Receitas de 9 mil milhões a 30 mil milhões: a explosão da procura da Anthropic como força motriz da negociação
No comunicado, a Anthropic revela de forma rara o seu estado financeiro: as receitas anuais já ultrapassaram 30 mil milhões de dólares. Em comparação com os 9 mil milhões de dólares no final de 2025, é mais do que o triplo num semestre. O número de clientes empresariais que executam o Claude na AWS já ultrapassou as 100 mil empresas; e, na plataforma Amazon Bedrock, o Claude está entre as famílias de modelos com maior utilização.
A Anthropic também admite que a explosão da procura levou a que a infra-estrutura fosse submetida a pressão nos períodos de ponta, afetando a disponibilidade e a performance—e é precisamente essa a motivação direta para a expansão significativa da capacidade de computação neste momento. A recente controvérsia sobre a tokenizer do Claude Opus 4.7 e os ajustes às restrições de utilização também estão relacionados com esta realidade de “infra-estrutura mais apertada”.
Três vias de capacidade de computação acopladas: AWS, Google e chips próprios em paralelo
Além dos 3,5GW de capacidade de computação TPU da parceria entre a Anthropic e a Broadcom e a Google, anunciada mais cedo em abril, a Anthropic já está simultaneamente vinculada às duas rotas de chips personalizados, a AWS Trainium e a Google TPU, e mantém uma opção de longo prazo para aceleradores próprios. Isto contrasta com o caminho da OpenAI, que segue “principalmente dependente do Microsoft Azure e, só recentemente, expandindo para a AWS”.
Para a cadeia de abastecimento de semicondutores de Taiwan, a expansão em larga escala da produção de Trainium2 a Trainium4 significa que fornecedores de encapsulamento avançado da TSMC, fornecedores de memória HBM e a Marvell continuarão a assumir encomendas de chips personalizados da AWS nos próximos três a cinco anos.
A solidez da capacidade de computação por trás da corrida pelo IPO
O anúncio desta vez reforça também a base narrativa do IPO da Anthropic. Relatórios recentes revelam que a diferença de receitas entre a OpenAI, com receitas anuais a ultrapassar 25 mil milhões de dólares, e a Anthropic, a perseguir com 19 mil milhões, está a diminuir; com base nos comunicados oficiais, as receitas anuais da Anthropic já atingiram 30 mil milhões de dólares, e a diferença volta a estreitar-se.
Para os investidores, o significado do compromisso da Amazon não está apenas no valor de uma única transação, mas sim na profunda vinculação como “despesa de 100 mil milhões de dólares na AWS nos próximos dez anos”, que permite ao mercado fixar de forma clara um ponto de referência na oferta de capacidade de computação da Anthropic e na estrutura de custos a longo prazo. A elevada barreira do modelo Project Glasswing Mythos e a capacidade de computação subsequente para treino da série Claude 4.x serão suportadas por estas novas 5GW.
Este artigo “Amazon reforça com 25 mil milhões de dólares na Anthropic: 5GW de capacidade de computação e vinculação de mil milhões de dólares à AWS” surgiu mais cedo em 鏈新聞 ABMedia.
Related Articles
Bundesbank alerta que o modelo Mythos da Anthropic poderá expor fragilidades nos sistemas bancários europeus
As exportações de semicondutores da Coreia do Sul disparam 182,5% no início de abril com a procura de chips de IA
Economistas apontam as oportunidades de emprego após a vaga de desemprego provocada pela IA: o valor da escassez muda para os “serviços emocionais”
Artefactos do Claude Live: painel com ligação directa à aplicação, actualização automática em tempo real
Startup sul-coreana de armazenamento de IA Dnotitia angaria US$61,2 milhões na ronda de financiamento Série A
O fundador da Pi Network, a 7 de maio, na Consensus 2026, discutiu a identificação da identidade humana na era da IA