top of page
&SMART - ガジェット・IT・AI・FinTechに関するWebメディア

Meta、次世代AI「Llama 4」シリーズを発表

  • 執筆者の写真: 桜井 未来
    桜井 未来
  • 4月7日
  • 読了時間: 2分

image:Meta
image:Meta

テキスト、画像、音声、動画を統合処理するマルチモーダルAIの革新


 米Metaは4月5日(現地時間)、大規模言語モデル (LLM) の最新バージョンのAIモデル「Llama 4」を発表した。 このモデルは、テキスト、画像、音声、動画など、多様なデータ形式を処理・翻訳するマルチモーダルAIシステムとして設計されており、今後WhatsApp、Messenger、Instagram、ウェブなど、Metaの複数のプラットフォームでAIアシスタントとして統合される予定。


 Llama 4シリーズには、以下の3つのモデルがある。それぞれサイズ、性能、必要なハードウェアリソースが異なり、用途や環境に応じて最適なモデルを選択できる。



  • Scout

    コンパクトなモデルで、Nvidia H100 GPU上で動作する。16のエキスパートと1000万トークンのコンテキストウィンドウを持ち、ベンチマークではGoogleのGemma 3や、Mistral AIのMistral 3.1などの競合モデルを上回る性能を示した。


  • Maverick

    128のエキスパートを持つより大規模なモデルで、ベンチマークではOpenAIのGPT-4oやGoogleのGemini 2.0 Flashを上回り、推論とコーディングではDeepSeekのDeepSeek-V3と同等の性能を持ちながら、より少ないアクティブパラメータで動作した。


  • Behemoth

    現在開発中のモデルで、2880億のアクティブパラメータを持ち、OpenAIのGPT-4.5やAnthropicのClaude Sonnet 3.7を超えるSTEM分野のベンチマーク性能を持つとされている。



 ScoutとMaverickモデルは、llama.comとHugging Faceからダウンロードすることができる。今後、Metaが4月29日(現地時間)に開催するLlamaConカンファレンスで、さらなる詳細が発表されるだろう。



参照サイト

Meta公式サイト





TAGs


bottom of page