Meta、次世代AI「Llama 4」シリーズを発表
- 桜井 未来
- 4月7日
- 読了時間: 2分

テキスト、画像、音声、動画を統合処理するマルチモーダルAIの革新
米Metaは4月5日(現地時間)、大規模言語モデル (LLM) の最新バージョンのAIモデル「Llama 4」を発表した。 このモデルは、テキスト、画像、音声、動画など、多様なデータ形式を処理・翻訳するマルチモーダルAIシステムとして設計されており、今後WhatsApp、Messenger、Instagram、ウェブなど、Metaの複数のプラットフォームでAIアシスタントとして統合される予定。
Llama 4シリーズには、以下の3つのモデルがある。それぞれサイズ、性能、必要なハードウェアリソースが異なり、用途や環境に応じて最適なモデルを選択できる。
Scout
コンパクトなモデルで、Nvidia H100 GPU上で動作する。16のエキスパートと1000万トークンのコンテキストウィンドウを持ち、ベンチマークではGoogleのGemma 3や、Mistral AIのMistral 3.1などの競合モデルを上回る性能を示した。
Maverick
128のエキスパートを持つより大規模なモデルで、ベンチマークではOpenAIのGPT-4oやGoogleのGemini 2.0 Flashを上回り、推論とコーディングではDeepSeekのDeepSeek-V3と同等の性能を持ちながら、より少ないアクティブパラメータで動作した。
Behemoth
現在開発中のモデルで、2880億のアクティブパラメータを持ち、OpenAIのGPT-4.5やAnthropicのClaude Sonnet 3.7を超えるSTEM分野のベンチマーク性能を持つとされている。
ScoutとMaverickモデルは、llama.comとHugging Faceからダウンロードすることができる。今後、Metaが4月29日(現地時間)に開催するLlamaConカンファレンスで、さらなる詳細が発表されるだろう。
参照サイト
Meta公式サイト