AI Navigate

MoRI: 大規模言語モデルにおける科学的アイデア創出のための動機づけに基づく推論の学習

arXiv cs.CL / 2026/3/20

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • MoRIは、研究動機から科学的な方法論に至る推論過程を、LLMsが明示的に学習できるようにするフレームワークを導入します。
  • 本手法は、まず文脈から研究動機を生成するために教師付きファインチューニングを用い、続いてエントロピーを考慮した情報利得を組み合わせた複合報酬を用いた強化学習で、高度な複雑性を有するground-truthに基づく技術的詳細を引き出し、推論を科学的に妥当な解と整合させるための対照的意味的利得を併用します。
  • 実証的な結果は、MoRIが新規性、技術的厳密さ、実現可能性といった観点で、強力な商用LLMや複雑なエージェント系ベースラインを顕著に上回ることを示しています。
  • 著者らは、再現性と広範な導入のために、GitHubでコードを公開します。

要旨: 科学的発想は、与えられた科学的文脈の中で新しい解決策を提案することを目指します。既存のLLMベースのエージェント型アプローチは人間の研究ワークフローを模倣しますが、科学的推論を十分にモデル化できず、技術的深さと科学的基盤を欠く表層的な概念の再結合を招く結果となります。これらの問題に対処するため、\textbf{MoRI} (\textbf{Mo}tivation-grounded \textbf{R}easoning for Scientific \textbf{I}deation) は、研究動機から方法論までの推論過程を明示的に学習できるようにするフレームワークです。基盤となるLLMは、与えられた文脈から研究動機を生成するよう、教師あり微調整によって初期化され、その後、科学的厳密さを近似する複合的な強化学習報酬の下で訓練されます: (1) エントロピーを意識した情報利得は、真実の方法論に根ざした高度に複雑な技術的詳細を発見・詳述するようモデルを促し、(2) 対比的意味利得は、推論の軌道を科学的に妥当な解と概念的に整合させるよう制約します。実証的な結果は、MoRI が新規性、技術的厳密さ、実現可能性を含む複数の次元で強力な商用LLMや複雑なエージェントベースのベースラインを大幅に上回ることを示しています。コードは \href{https://github.com/ECNU-Text-Computing/IdeaGeneration}{GitHub} にて公開されます。