Google Gemini 3 Flash release : modèle d'IA à coût ultra faible, API désormais accessible

robot
Création du résumé en cours

Le blog officiel de Google vient de publier une nouvelle génération de modèle IA Gemini 3 Flash, et son positionnement ne se résume qu’à deux mots : rapide + bon marché. Cette fois, c’est vraiment différent – écraser le prédécesseur 2.5 Pro en plusieurs dimensions en même temps.

Regardons d’abord les chiffres de performance. Le benchmark GPQA Diamond a obtenu 90,4 %, et le Humanity’s Last Exam a obtenu 33,7 % en mode sans outils. L’essentiel est que la vitesse est bien plus rapide, le coût est plus bas, même au niveau de réflexion le plus bas, c’est meilleur que l’ancienne version.

L’aspect prix est attractif : 0,50 $/million pour les jetons d’entrée, 3 $/million pour les sorties (1/million $ pour les entrées audio). Mais ce n’est pas tout. Google a également lancé la mise en cache contextuelle (jusqu’à 90 % d’économies) et l’API batch (réduction de 50 % des coûts et vitesse accrue), qui peuvent être combinées si vous le souhaitez.

L’expérience fonctionnelle a été améliorée. Capacités de raisonnement visuel et spatial plus fortes, et des capacités d’exécution de code plus stables. Il peut être utilisé pour des tâches telles que l’étalonnage, le comptage et l’édition d’images. De plus, Gemini 3 Flash a été intégré à Google AI Studio, Antigravity, Gemini CLI, Android Studio et Vertex AI, et les développeurs peuvent désormais y accéder.

API et Vertex AI sont déjà accessibles, donc si vous voulez essayer, c’est maintenant.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 6
  • Reposter
  • Partager
Commentaire
0/400
CryptoComedianvip
· Il y a 2h
C'est vraiment incroyable à ce prix-là, la stratégie de tarification de Google est en train de dire aux autres fabricants "Nous venons de frapper en dessous de la ceinture" Réduire les coûts de 90 % ? En riant, on finit par pleurer, maintenant d'autres modèles devront vraiment baisser leurs prix, ou faire un Rug Pull. Le token à cinq centimes pour un million, j'ai l'impression que mon quota d'API vient de revivre. Mais en y réfléchissant, à ce prix-là, Google va sûrement trouver un moyen de prendre les gens pour des idiots ailleurs. Un mot pour décrire : compétition.
Voir l'originalRépondre0
OnchainGossipervip
· Il y a 8h
Enfin, j'ai trouvé l'AI à bas prix, Google a vraiment frappé un grand coup Je dois faire le calcul, combien moins cher que précédemment Économiser 90% sur le cache ? C'est exagéré, je ne le croirai que si je le teste moi-même C'est parti tout le monde, la guerre des prix des grands modèles vient à peine de commencer
Voir l'originalRépondre0
BlockBargainHuntervip
· 12-18 09:39
Rapide et bon marché, c'est tout. Cette fois, Google a vraiment mis le paquet, 0,5 dollar pour un million de tokens, ça fait rire. --- Le cache peut économiser 90 % ? Il faut vraiment l'utiliser rapidement, sinon on va perdre gros. --- Encore une fois, il écrase la génération précédente. Google a vraiment mis la barre très haut en termes de rapport qualité/prix, on ne peut plus suivre. --- Attendez, le Batch API, c'est pour que nous puissions traiter des données en batch ? Le coût peut-il encore baisser ? --- Un score de 90,4 % a l'air pas mal, mais je ne sais pas comment ça se comporte en pratique. Les données sur papier ont toujours la crédibilité la plus faible. --- Je veux juste savoir quand cette technologie sera disponible en Chine. On ne peut pas encore utiliser un VPN à chaque fois, non ?
Voir l'originalRépondre0
CryptoNomicsvip
· 12-18 09:35
ngl la réduction de 90 % des coûts via la mise en cache du contexte est statistiquement significative mais tout le monde ignore les implications en termes de tokenomics ici... si nous modélisons cela comme un processus stochastique de tarification de l'inférence AI, vous envisagez une inefficacité potentielle du marché qui pourrait prendre des mois à corriger
Voir l'originalRépondre0
FreeRidervip
· 12-18 09:32
Ce prix est vraiment incroyable, il est bien moins cher qu'avant Attendez, la mise en cache peut économiser 90 % ? Ce n'est pas une révolution Le nom Flash est aussi approprié, c'est vraiment rapide Je suis un peu inquiet que les performances ne soient réduites, mais les chiffres semblent assez solides Google a enfin fait quelque chose cette fois-ci
Voir l'originalRépondre0
EternalMinervip
· 12-18 09:19
Putain, ce prix, la Pro 2.5 peut prendre sa retraite Tellement pas cher que c'en est abusé, pas étonnant qu'une nouvelle vague de compétition arrive Attends, le cache de contexte peut vraiment économiser 90 % ? Ça doit être vraiment puissant Rapide et à faible coût, qui utiliserait encore autre chose... Cette fois, je vais devoir modifier mon projet de prompt
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)