Joint Knowledge Base Completion and Question Answering by Combining Large Language Models and Small Language Models
arXiv cs.AI / 4/8/2026
💬 OpinionIdeas & Deep AnalysisModels & Research
Key Points
- 本論文は、知識ベース完成(KBC)と知識ベース質問応答(KBQA)を同時に扱い、互いを強化し合う“joint”設定の有効性を示しつつ、従来は小型言語モデル(SLM)中心でLLMの推論力が活かされていない点を指摘しています。
- 提案フレームワークJCQLは、LLMとSLMの強みを組み合わせ、両タスクを反復的に相互強化する設計により、KBCとKBQAの相補性を利用します。
- KBCがKBQAを強化するために、SLMで学習したKBCモデルをLLMエージェント型KBQAの“行動”として組み込み、推論経路を拡張することで、幻覚(hallucination)とKBQAの高計算コストの課題を緩和します。
- KBQAがKBCを強化するために、KBQAの推論経路を補助学習データとして用いてKBCモデルを段階的に微調整し、KBC側(SLM)の能力を高めます。
- 2つの公開ベンチマークデータセットでの実験結果では、JCQLがKBCとKBQAの双方で既存ベースラインを上回ると報告しています。
Related Articles
Meta's latest model is as open as Zuckerberg's private school
The Register
Why multi-agent AI security is broken (and the identity patterns that actually work)
Dev.to
BANKING77-77: New best of 94.61% on the official test set (+0.13pp) over our previous tests 94.48%.
Reddit r/artificial
A Comprehensive Implementation Guide to ModelScope for Model Search, Inference, Fine-Tuning, Evaluation, and Export
MarkTechPost
Harness Engineering: The Next Evolution of AI Engineering
Dev.to