AI Navigate

LatentChem: テキストによる連鎖思考(CoT)から化学推論の潜在的思考へ

arXiv cs.CL / 2026/3/16

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • LatentChemは、化学計算と言語生成を切り離す潜在推論インターフェースを導入し、明示的なテキストCoT(連鎖思考)ではなく、連続的な潜在空間で多段階の推論を可能にする。
  • このアプローチは、タスクの成功を最適化した場合、推論を内部化し、冗長なテキストの導出を削減して、暗黙の潜在計算を優先するという出現的挙動を生み出す。
  • ChemCoTBenchの評価では、LatentChemは強力なCoTベースラインに対して59.88%の非引き分け勝率を達成し、推論オーバーヘッドを約10.84倍削減しており、効率の向上を示している。
  • 本研究は、化学推論を離散化された言語的軌跡としてではなく、連続的な潜在ダイナミクスとして捉えることを支持しており、化学における効率的なAI推論の新たな方向性を示唆している。

要約:化学系大規模言語モデル(LLMs)は、複雑な推論を行うために主に自然言語での明示的な思考過程(CoT)に依存しています。しかし、化学的推論は本質的に連続的で構造的であり、それを離散的な言語トークンへ強制すると、効率と性能の両方を制約する根本的な表現の不一致を招きます。我々は LatentChem を導入します。潜在的推論インターフェースとして、化学計算を文本生成から切り離し、モデルが連続的な潜在空間で多段階推論を直接実行し、最終出力のためだけに言語を出力できるようにします。驚くべきことに、一貫して現れる挙動を観察します。タスクの成功のみを最適化した場合、モデルは自発的に推論を内部化し、冗長な文本推論を段々と潜在計算に置き換えていきます。この変化は単なるスタイルの問題ではなく、計算的に有利です。多様な化学推論ベンチマークにおいて、LatentChem は ChemCoTBench 上で、強力な CoT ベースのベースラインに対して 59.88\% の非引き分け勝率を達成し、推論オーバーヘッドを平均で 10.84\times 削減します。我々の結果は、化学的推論は離散的な言語的軌道よりも、連続的潜在ダイナミクスとしてより自然かつ効果的に実現されるという実証的根拠を提供します。