O blogue oficial da Google acaba de lançar uma nova geração de modelo de IA Gemini 3 Flash, e o seu posicionamento é apenas duas palavras: rápido + barato. Desta vez é realmente diferente – esmagar o antecessor 2.5 Pro em várias dimensões ao mesmo tempo.
Vamos primeiro analisar os números de desempenho. O benchmark GPQA Diamond obteve 90,4%, e o Humanity’s Last Exam obteve 33,7% em modo sem ferramentas. A chave é que a velocidade é muito mais rápida, o custo é mais baixo, mesmo ao nível de pensamento mais baixo, é melhor do que a versão antiga.
O aspeto do preço é atrativo: 0,50 dólares/milhão para tokens de entrada, 3 milhões de dólares por saídas (1 milhão de dólares para entradas de áudio). Mas ainda há mais. A Google também lançou cache contextual (até 90% de poupança de custos) e a API Batch (redução de custos de 50% e maior velocidade), que pode ser usada em combinação se quiser.
A experiência funcional foi melhorada. Capacidades de raciocínio visual e espacial mais fortes, e capacidades de execução de código mais estáveis. Pode ser usado para tarefas como escalar, contar e editar imagens. Para além disso, o Gemini 3 Flash foi integrado no Google AI Studio, Antigravity, Gemini CLI, Android Studio e Vertex AI, e os programadores podem agora aceder a ele.
A API e o Vertex AI já estão abertos para acesso, por isso, se quiseres experimentar, é agora.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
23 Curtidas
Recompensa
23
6
Repostar
Compartilhar
Comentário
0/400
CryptoComedian
· 2h atrás
Barato de verdade é incrível, essa estratégia de preços do Google está dizendo a outras empresas "viemos para descer o nível"
Cortar custos em 90%? Ri, ri e acabei chorando, agora outros modelos realmente terão que baixar os preços e puxar o tapete
o token custa apenas cinco centavos por um milhão, sinto que meu limite de API de repente ganhou vida
Mas pensando bem, tão barato assim, o Google com certeza vai encontrar uma maneira de fazer as pessoas de parvas em outra área
Uma palavra para descrever: competição
Ver originalResponder0
OnchainGossiper
· 8h atrás
Finalmente chegou o AI a preço baixo, esta jogada da Google é realmente incrível
Tenho que calcular isso, quanto mais barato ficou comparado ao anterior
Economizar 90% em cache? Isso é exagerado, não acredito a menos que teste pessoalmente
Vamos lá, pessoal, a guerra dos preços dos grandes modelos apenas começou
Ver originalResponder0
BlockBargainHunter
· 12-18 09:39
Rápido e barato, acabou. Desta vez, o Google realmente investiu pesado, US$0.5 por milhão de tokens, ri até chorar.
---
Cache pode economizar 90%? Essa coisa precisa ser usada urgentemente, senão vai perder dinheiro.
---
Mais uma vez, supera a geração anterior, o Google realmente colocou o custo-benefício no chão, ninguém consegue competir mais.
---
Espera aí, a API Batch quer que a gente rode dados em lote? O custo pode diminuir também?
---
A pontuação de 90,4% parece boa, só não sei como funciona na prática, dados teóricos sempre têm a menor credibilidade.
---
Só quero saber quando essa coisa vai estar disponível na China, não dá para usar de novo com VPN, né?
Ver originalResponder0
CryptoNomics
· 12-18 09:35
ngl a redução de custos de 90% através do cache de contexto é estatisticamente significativa, mas todos estão a ignorar as implicações da tokenómica aqui... se modelarmos isto como um processo estocástico de precificação de inferência de IA, estamos a olhar para uma potencial ineficiência de mercado que pode levar meses a ser corrigida
Ver originalResponder0
FreeRider
· 12-18 09:32
Esta preço está realmente incrível, muito mais barato do que antes
Espere, o cache pode economizar 90%? Isto não vai ser uma revolução
O nome Flash também é bastante adequado, é rápido
Estou um pouco preocupado se o desempenho vai diminuir, mas os números parecem bastante promissores
Desta vez, o Google finalmente fez algumas mudanças na equipe
Ver originalResponder0
EternalMiner
· 12-18 09:19
Caramba, com este preço, o 2.5 Pro pode se aposentar
Tão barato que é ridículo, não é de admirar que estejam entrando em mais uma rodada de competição
Espera aí, o cache de contexto realmente pode economizar 90%? Quão forte deve ser isso
Velocidade rápida, custo baixo, quem ainda usa outros...
Agora vou ter que revisar meu projeto de prompt novamente
Google Gemini 3 Flash lançado: modelo de IA de custo extremamente baixo, API já disponível para integração
O blogue oficial da Google acaba de lançar uma nova geração de modelo de IA Gemini 3 Flash, e o seu posicionamento é apenas duas palavras: rápido + barato. Desta vez é realmente diferente – esmagar o antecessor 2.5 Pro em várias dimensões ao mesmo tempo.
Vamos primeiro analisar os números de desempenho. O benchmark GPQA Diamond obteve 90,4%, e o Humanity’s Last Exam obteve 33,7% em modo sem ferramentas. A chave é que a velocidade é muito mais rápida, o custo é mais baixo, mesmo ao nível de pensamento mais baixo, é melhor do que a versão antiga.
O aspeto do preço é atrativo: 0,50 dólares/milhão para tokens de entrada, 3 milhões de dólares por saídas (1 milhão de dólares para entradas de áudio). Mas ainda há mais. A Google também lançou cache contextual (até 90% de poupança de custos) e a API Batch (redução de custos de 50% e maior velocidade), que pode ser usada em combinação se quiser.
A experiência funcional foi melhorada. Capacidades de raciocínio visual e espacial mais fortes, e capacidades de execução de código mais estáveis. Pode ser usado para tarefas como escalar, contar e editar imagens. Para além disso, o Gemini 3 Flash foi integrado no Google AI Studio, Antigravity, Gemini CLI, Android Studio e Vertex AI, e os programadores podem agora aceder a ele.
A API e o Vertex AI já estão abertos para acesso, por isso, se quiseres experimentar, é agora.