インコンテキスト例はLLMにおける科学的知識の想起を抑制する
arXiv cs.AI / 2026/5/1
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本研究では、インコンテキスト例を追加すると、LLMが潜在的な構造を復元する課題で科学的知識を想起して利用する能力が抑制され得ることが示された。
- そのインコンテキスト例が、モデルの事前学習で想定される同一の基礎式から生成されている場合でも、モデルは知識に基づく導出ではなく経験的なパターン当てに計算を振り向ける。
- 5つの科学分野・60のタスク、6,000回の試行、4つのモデルにわたって、「知識の置換(displacement)」が起きる方向性は一貫している。
- 精度への影響は、置換される戦略(知識ベース)と置き換わる戦略(例ベース)の相対的な優劣によって変わり、精度低下・不変・改善に見える場合まであり得る。
- 科学的タスクでLLMを運用する実務者にとっての教訓として、インコンテキスト例は補強を意図していても、逆に知識を損なう可能性があることが示唆される。