初の“長考”できる国産フルスクラッチLLM「PLaMo 3.0 Prime」 Qwen3-235Bやgpt-oss-120bに肉薄 PFN

ITmedia AI+ / 3/23/2026

📰 NewsSignals & Early TrendsIndustry & Market MovesModels & Research

Key Points

  • Preferred Networksが、既存モデルを転用せずゼロベースで構築した国産LLM「PLaMo 3.0 Prime」のβ版をリリースし、無償利用のモニター企業を募っている
  • 「長考(reasoning)」によって回答品質を高める機能を国内で初めて搭載し、DeepSeek R-1などの開発手法を参考にしたとしている
  • ベンチマークでは日本語/英語指示追従や対話能力でQwen3-235B系やgpt-oss-120bに優位を示し、医療・法令分野も高い水準にある
  • 一方で数学や、英語ツールを複数段階で多数選択して使う能力では劣っており、苦手タスクへの改善と継続開発を見込む
  • コンテキスト長は入力64K・出力20Kへ拡大したが、DeepSeek V3.2やGPT-5.2には依然劣るため、今後の性能強化が課題となっている

 Preferred Networksは3月19日、既存モデルを下敷きにせず、ゼロベースで構築した大規模言語モデル「PLaMo 3.0 Prime」のβ版をリリースした。中国産モデル「DeepSeek R-1」などの開発手法を参考に、同様の形で開発したモデルとしては国内で初めて、長考によってクオリティーの高い回答(reasoning)が可能な機能を搭載した。現在、無償利用を前提にモニター企業を募っている。

photo ベンチマーク(ニュースリリースから引用)

 ベンチマークでは日本語・英語による指示への追従性能や対話能力で「Qwen3-235B-A22B-Thinking-2507」や「gpt-oss-120b」(長考の程度は3段階で中)に勝り、医療・法令分野も肉薄。ただし数学や、英語ツールの利用性能のうち、複数の段階で多数のツールから選んで使う能力は大きく劣った。

 コンテキスト長は入力64Kトークン・出力20Kトークンと、旧モデル「PLaMo 2.2 Prime」の入力32Kトークン・出力4Kトークンから拡大した。ただしこちらも「DeepSeek V3.2」や「GPT-5.2」といったモデルには劣るため、苦手なタスクへの対応能力と合わせて今後の改善を目指す。

関連記事

関連リンク

Copyright © ITmedia, Inc. All Rights Reserved.

続きを読むには、コメントの利用規約に同意し「アイティメディアID」および「ITmedia AI+メールマガジン」の登録が必要です