top of page

Google、高速・低コストなAIモデル「Gemini 3.1 Flash-Lite」を発表

  • 執筆者の写真: 白石 奈々
    白石 奈々
  • 3月5日
  • 読了時間: 2分

Google、高速・低コストなAIモデル「Gemini 3.1 Flash-Lite」を発表
image : ‎⁨Google


入力100万トークン0.25ドル、ベンチマークでも高水準を示す軽量AIモデル


 米Googleは現地時間3月3日、AIモデル「Gemini 3.1 Flash-Lite」を発表した。Gemini 3シリーズの中で最も軽量かつコスト効率を重視したモデルで、高頻度・大規模ワークロード向けに設計されている。現在はプレビュー版として、Google AI StudioおよびVertex AI経由で提供中だ。


処理速度と価格効率を両立

 Gemini 3.1 Flash-Liteは、従来のFlash系モデルより応答開始までの時間を短縮し、生成速度も向上したとされる。リアルタイム性が求められるチャットボットや自動応答、大量テキストのバッチ処理などで効果が見込まれる。

 価格は入力トークン100万あたり0.25ドル、出力トークン100万あたり1.50ドル。大量リクエストを前提とするサービスでもコスト管理がしやすい水準に抑えられている。


軽量ながら競争力あるベンチマーク

 ベンチマークでは、総合評価指標であるEloスコアで1400台を記録。推論性能を測るGPQA Diamondでは80%台後半、マルチモーダル理解テストMMMU Proでも70%台後半のスコアを示している。軽量モデルながら、従来の中位クラスモデルに匹敵する性能を確保している点が特徴だ。


Gemini 3.1 Flash-Lite 軽量ながら競争力あるベンチマーク
image : ‎⁨Google

Gemini 3.1 Flash-Lite 軽量ながら競争力あるベンチマーク
image : ‎⁨Google

推論深度を調整可能

 本モデルは「思考レベル」の設定により、推論の深さを制御できる。単純な分類や要約では高速・低コスト設定を、複雑な生成や分析ではより深い推論を選択可能だ。用途ごとに品質とコストを最適化できる設計は、API経由で複数機能を展開する開発環境と相性が良い。


 高速化と価格最適化が進む生成AI市場において、Flash-Liteは“軽量モデルの実用域”を一段引き上げる存在といえそうだ。



参照サイト

Google The Keyword

Gemini 3.1 Flash-Lite: Built for intelligence at scale


TAGs


bottom of page