Google Gemini 3 Flashリリース:超低コストAIモデル、APIの接続が可能に

robot
概要作成中

【比推】Google公式ブログは新世代AIモデルのGemini 3 Flashを発表しました。特徴は二つ:高速+低コスト。今回は本当に違います——複数の側面で前代の2.5 Proを圧倒しています。

まず性能の数字をご覧ください。GPQA Diamond基準テストは90.4%、Humanity’s Last Examはツールなしモードで33.7%を記録。重要なのは速度が大幅に向上し、コストもより低くなったことです。最低思考レベルでも旧版より優れています。

価格設定も魅力的です:入力トークン$0.50/百万、出力$3/百万(音声入力$1/百万)。しかし、それだけではありません。Googleは同時にコンテキストキャッシュ(最大90%のコスト削減)とBatch API(コスト半減、速度向上)もリリースし、必要な方は組み合わせて利用可能です。

機能と体験も向上しました。視覚と空間推論能力が強化され、コード実行も安定しています。画像の拡大、カウント、画像編集などのタスクに利用できます。さらに、Gemini 3 FlashはGoogle AI Studio、Antigravity、Gemini CLI、Android Studio、Vertex AIに統合されており、開発者はすぐにアクセス可能です。

APIとVertex AIも公開されているので、試してみたい方は今すぐどうぞ。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • 6
  • リポスト
  • 共有
コメント
0/400
CryptoComedianvip
· 4時間前
安くて本当にすごい、Googleのこの価格戦略は他のメーカーに"私たちは次元を下げて攻撃する"と告げている コストが90%削減できる?笑っているうちに泣いてしまった、これで他のモデルは本当に値下げしてラグプルしなければならない tokenはたったの五毛で一百万、突然私のAPIの枠が生き返ったように感じる しかし考えを変えてみると、ここまで安くなったら、Googleは次に他の場所から人をカモにする方法を考えるに違いない 一言で表現すると:競争が激しい
原文表示返信0
OnchainGossipervip
· 10時間前
ついに低価格のAIが登場した、Googleは本当にすごい このコストを計算しなければならない、以前よりどれだけ安いのか キャッシュが90%節約できる?大げさだろう、試さない限り信じない みんな、始まったぞ、大規模モデルの価格戦争はまだ始まったばかりだ
原文表示返信0
BlockBargainHuntervip
· 12-18 09:39
あっという間に終わりました。今回はGoogleが多額の費用を使い、0.5ドルと何百万ものトークンを笑い飛ばしました --- キャッシュは90%節約できますか? この装置は早く使わなければ、損をする --- またしても前世代を圧倒しています。Googleはコストパフォーマンスを極端に落とし、あなたを巻き上げることもできません --- ちょっと待って、Batch APIはデータをバッチで実行させたいのか、それともコストを抑えられるのか? --- 90.4%のスコアは良好に見えますが、実際にどのように使われているのか分かりませんし、紙のデータは常に最も信頼性が低いです --- 中国でいつ使えるのか知りたいだけで、もうはしごは手に入らない
原文表示返信0
CryptoNomicsvip
· 12-18 09:35
ngl コンテキストキャッシングによる90%のコスト削減は統計的に有意ですが、ここでのトークノミクスへの影響については誰も気づいていません... これをAI推論価格の確率過程としてモデル化すると、市場の非効率性が潜在しており、修正には数ヶ月かかる可能性があります
原文表示返信0
FreeRidervip
· 12-18 09:32
この価格は本当に絶妙で、以前よりずっと安いです ちょっと待って、キャッシュで90%節約できる?これは革命的じゃないですか Flashという名前もぴったりで、やっぱり速い 性能が低下しないか少し心配だけど、数字を見るとかなり期待できそうです Googleもついに人事を動かしましたね
原文表示返信0
EternalMinervip
· 12-18 09:19
うわっ、この価格、2.5 Proで引退できるね 安すぎて信じられない、やっぱりまた競争が激しくなるね ちょっと待って、文脈キャッシュは本当に90%節約できるの?どれだけすごいんだ 速度が速くてコストも低い、他のを使う必要はないね... これでまた私のpromptエンジニアリングをやり直さないといけないね
原文表示返信0
  • ピン