top of page
&SMART - ガジェット・IT・AI・FinTechに関するWebメディア

東大発ELYZA、日本語特化の思考型LLMを一般公開

  • 執筆者の写真: 桜井 未来
    桜井 未来
  • 5月4日
  • 読了時間: 1分

image : 株式会社ELYZA プレスリリース
image : 株式会社ELYZA プレスリリース

商用利用可能な形で公開、GPT-4oに迫る性能も実現


 東京大学発のAIベンチャー・株式会社ELYZAは5月1日、日本語における論理的思考能力を強化した大規模言語モデル(LLM)「ELYZA-Thinking-1.0-Qwen-32B」を開発し、商用利用可能な形式で一般公開したと発表した。


 このモデルは、中国Alibabaが公開している「Qwen2.5-32B-Instruct」をベースに、日本語での追加事前学習と、複雑な思考プロセスを必要とするデータによるSupervised Fine Tuning(SFT)を施した「Reasoning Model」。特に数学系のベンチマークにおいて高い性能を示しており、日英両方でOpenAI社の「o1-mini」を上回るスコアを達成したという。



「ELYZA-Thinking-1.0-Qwen-32B」と「o1-mini」の性能比較
「ELYZA-Thinking-1.0-Qwen-32B」と「o1-mini」の性能比較


 さらに、開発過程で得られた成果として「Shortcut Model」も併せて公開された。 このモデルは、Reasoning Modelが深く思考して辿り着いた回答を、反射的に答えられるよう暗記したモデルであり、320億パラメータのモデルと70億パラメータのモデルの2種類が公開されている。とりわけ320億パラメータ版は、非Reasoning型モデルながら、OpenAIの「GPT-4o」と同等レベルの性能を発揮しているとされている。



「ELYZA-Shortcut-1.0-Qwen-32B」と「GPT-4o/4」の性能比較
「ELYZA-Shortcut-1.0-Qwen-32B」と「GPT-4o/4」の性能比較


 公開された各モデルはApache 2.0ライセンスのもと提供されており、研究用途に加えて商用利用も可能だ。



参照サイト

株式会社ELYZAプレスリリース


 

TAGs


bottom of page