要旨: 大規模言語モデル(LLM)が事実確認(ファクトチェック)パイプラインにますます統合されるにつれ、バイアス、誤り、そしてこれらのモデルの出力における幻覚を軽減するための厳密な手段として、形式論理がしばしば提案されている。たとえば、ある種の神経記号論的(neurosymbolic)システムでは、LLMを用いて自然言語を論理式へ翻訳し、その提案された主張が論理的に健全であるか、すなわち真であると検証されている前提から、妥当な形で導出可能かどうかをチェックすることで、主張を検証する。われわれは、このようなアプローチは、論理的に健全な結論と、人間が典型的に行い、かつ受け入れる推論との間に存在する体系的な相違によって、誤解を招く主張を構造的に検出できないことを論じる。認知科学および語用論の研究に基づき、論理的に健全な結論が、基となる前提によって支持されない人間の推論を体系的に喚起する事例の類型論を提示する。その結果として、われわれは補完的なアプローチを提案する。すなわち、LLMの人間らしい推論傾向を「バグ」ではなく「特徴」として活用し、これらのモデルを用いて、神経記号論的システムにおける形式的コンポーネントの出力を、潜在的に誤解を招く結論に対して検証する、という方法である。
Position: LLMによる神経記号的ファクトチェックにおいて論理的健全性は信頼できる基準ではない
arXiv cs.CL / 2026/4/7
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、主張を論理式に翻訳し、その後に論理的健全性を検証するタイプの神経記号的ファクトチェック手法は、誤解を招く記述を系統的に見落とし得ると主張している。
- 論理的に健全な結論であっても、検証済みの前提に実際には支持されていない推論が、人間にとって受け入れ可能な推論として導かれてしまう可能性があることを説明している。これは、形式的含意と人間の推論の間にずれが生じるためである。
- 認知科学およびプラグマティクスに依拠し、形式的妥当性が人間が推論して信頼する内容と対応しない状況の類型(タイポロジー)を提示している。
- 本論文は補完的な戦略を提案する。すなわち、LLMを用いて、形式的コンポーネントの出力を、誤解を招き得る結論に対してテストし、人間らしい推論を「健全性のみに依存する」のではなく利点として扱うべきだと述べている。




