共通する論理サブスペースの発見:自然言語と記号的ビューを整合させることでLLMの論理推論を操る

arXiv cs.CL / 2026/4/22

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、LLMに自然言語の推論と記号的言語の推論を同一の内部で整合できる「共通の内的論理サブスペース」があるかどうかを検証し、両者を別手法として扱うのではない方向性を探ります。
  • 自然言語と記号的な推論チェーンにおける対応する残差活性を用いてカノニカル相関分析を行い、ビュー間で相関が最大となる低次元サブスペースを学習します。
  • 学習を要しない(training-free)手法として、この論理サブスペースに沿ってLLMの推論チェーンを誘導し、自然言語ビューと記号ビューの相補的な推論シグナルを活用します。
  • 4つの論理推論ベンチマークで評価した結果、精度は最大11ポイント向上し、さらにドメイン外の問題でも良好に一般化することが示されています。
  • 総じて、異なる「見え方」(ビュー)で表現された同一の推論タスクに対して、内部表現を整合させることで多段の論理推論を改善できる可能性を示しています。

要旨: 大規模言語モデル(LLM)は、依然として多段の論理推論に苦戦しています。既存のアプローチは、自然言語の形で推論連鎖を単に洗練するものか、あるいは象徴的なソルバを外部モジュールとして付加するもののいずれかです。本研究では代わりに、LLMが推論過程の自然言語と象徴言語の見方を同時に整合させる共通の内部論理部分空間を含んでいるのかどうかを問いかけます。私たちの仮説は、この論理部分空間が、表層形式には依存せずに、複数の見方をまたいで共有されるLLM内の論理推論能力を捉えているというものです。これを検証するために、自然言語推論連鎖と象徴言語推論連鎖から得られた対になった残差活性に対して正準相関分析(Canonical Correlation Analysis)を用い、最大のクロスビュー相関を持つ低次元の部分空間を学習します。さらに、この論理部分空間に沿ってLLMの推論連鎖を導く、学習不要の手法を設計し、それによって両方の見方からの補完的な推論シグナルを活用します。4つの論理推論ベンチマークに対する実験により、本手法の有効性が示され、精度は最大で11パーセントポイント向上し、領域外の問題に対しても良好に一般化することが確認されました。