ART:LLMの事実性を改善するためのAttention Replacement Technique
arXiv cs.CL / 2026/4/9
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、LLMの各層・各ヘッド内部における注意(attention)パターンと幻覚(hallucinations)の関係を調査し、浅い層では一様で均等に分布したattentionが用いられることが多く、関連する文脈を見落としうることを見出している。
- 一切の追加学習を行わない手法として、Attention Replacement Technique(ART)を提案し、浅い層の一様なattentionを局所的なattentionに置き換えることで、適切なセグメントへの焦点を促す。
- 複数のLLMアーキテクチャに対する実験により、ARTは質問応答および事実性に敏感な関連タスクにおいて、幻覚を大幅に低減することが示されている。
- このアプローチは一般化可能であり、微調整や追加の学習データを必要としないため、既存の導入環境に採用しやすい設計となっている。
- 全体として、本研究は幻覚の低減を、出力レベルのデコーディングの小技だけではなく、内部のattention挙動によって左右されうるものとして捉え直している。



