東大発ELYZA、日本語特化の思考型LLMを一般公開
- 桜井 未来
- 5月4日
- 読了時間: 1分

商用利用可能な形で公開、GPT-4oに迫る性能も実現
東京大学発のAIベンチャー・株式会社ELYZAは5月1日、日本語における論理的思考能力を強化した大規模言語モデル(LLM)「ELYZA-Thinking-1.0-Qwen-32B」を開発し、商用利用可能な形式で一般公開したと発表した。
このモデルは、中国Alibabaが公開している「Qwen2.5-32B-Instruct」をベースに、日本語での追加事前学習と、複雑な思考プロセスを必要とするデータによるSupervised Fine Tuning(SFT)を施した「Reasoning Model」。特に数学系のベンチマークにおいて高い性能を示しており、日英両方でOpenAI社の「o1-mini」を上回るスコアを達成したという。

さらに、開発過程で得られた成果として「Shortcut Model」も併せて公開された。 このモデルは、Reasoning Modelが深く思考して辿り着いた回答を、反射的に答えられるよう暗記したモデルであり、320億パラメータのモデルと70億パラメータのモデルの2種類が公開されている。とりわけ320億パラメータ版は、非Reasoning型モデルながら、OpenAIの「GPT-4o」と同等レベルの性能を発揮しているとされている。

公開された各モデルはApache 2.0ライセンスのもと提供されており、研究用途に加えて商用利用も可能だ。
参照サイト
株式会社ELYZAプレスリリース