Pramana:Navya-Nyayaによる認識論的推論のための大規模言語モデルのファインチューニング
arXiv cs.AI / 2026/4/8
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、LLMの「認識論的ギャップ」を減らすことを目的としたファインチューニング手法「Pramana」を提案し、流暢だが根拠のない主張ではなく、明示的で証拠に基づいた推論をモデルに学習させる。
- PramanaはNavya-Nyaya論理を活用し、6つの段階(SAMSHAYA、PRAMANA、PANCHA AVAYAVA、TARKA、HETVABHASA、NIRNAYA)からなる構造化された手順を強制することで、知識と仮説を区別し、誤謬を検出する。
- 実験では、Llama 3.2-3BおよびDeepSeek-R1-Distill-Llama-8Bを、Navya-Nyaya形式で55件の問題でファインチューニングし、厳格な推論形式への遵守が完全ではないにもかかわらず、保持した評価データで意味的正しさ100%を達成した。
- アブレーション結果から、フォーマットのプロンプト提示と生成温度が性能に大きく影響し、学習段階ごとに最適な設定が異なることが示されている。
- 著者らは、AIの認識論的推論フレームワークに関するさらなる研究を支援するため、Hugging Faceにモデル、データセット、学習インフラを公開している。



