Google、軽量LLM「Gemma 4」公開 2B〜27Bで実用強化
- 白石 奈々

- 8 時間前
- 読了時間: 2分

Apache 2.0採用、画像対応やローカル実行に対応した開発者向けモデル群
米Google DeepMindは現地時間4月2日、軽量オープンモデル「Gemma」シリーズの最新版「Gemma 4」を公開した。大規模モデルGeminiと同系統の技術をベースに、開発者向けに最適化されたモデル群として提供される。
2B・9B・27Bの3モデル構成
Gemma 4は、2B・9B・27Bのパラメータ規模で構成される。小規模な2Bモデルはローカルやエッジ環境での動作を想定し、9B・27Bモデルはより高精度な生成や推論用途に対応する。同一系列でスケール違いのモデルを用意することで、用途や計算資源に応じた使い分けが可能だ。
一部モデルで画像入力にも対応
Gemma 4では、テキスト生成に加え、一部モデルで画像入力に対応する。これにより、視覚情報を含むアプリケーションへの応用が可能となり、従来のテキスト中心のユースケースから拡張が図られている。また、指示追従に最適化されたモデルも提供され、追加学習なしでチャット用途などに適用できる。
Apache 2.0で商用利用・改変が可能
GemmaシリーズはApache License 2.0で提供される。商用利用や改変、再配布が可能で、クローズドなプロダクトへの組み込みにも制約が少ない。ライセンスの自由度は、企業導入を後押しする要素となる。
ローカル実行とクラウド利用に対応
Gemma 4は、モデルをダウンロードしてローカル環境で実行できるほか、Vertex AIを通じたクラウド利用にも対応する。ローカル処理によるデータ管理やコスト最適化と、クラウドのスケーラビリティを用途に応じて選択できる。
実用志向の軽量LLMとして位置付け
生成AIでは大規模モデルの高性能化が進む一方、コストやレイテンシを重視した軽量モデルの需要も拡大している。Gemma 4は、ローカル環境でも扱える性能と自由度の高いライセンスを両立したモデルとして、開発者の実装選択肢を広げる存在となる。
参照サイト
Google DeepMind
Our most intelligent open models, built from Gemini 3 research and technology to maximize intelligence-per-parameter

