大規模言語モデルにおけるルールレベル知識の分散マルチレイヤ編集
arXiv cs.CL / 2026/4/10
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- 本論文は、大規模言語モデルにおけるルールレベル知識の編集方法を研究し、事実レベルの編集とは異なり、ルールの編集は複数の相互に依存する表現にわたって一貫性を保たなければならないと主張する。
- 数学および物理の手動で検証済みルールを80から200へ拡張したRuleEditベンチマークを用い、きめ細かな因果トレーシングによって、ルール知識が層ごとに「形式(form)」に応じたやり方で整理されていることを示す。
- 著者らは、式や自然言語による説明はより初期の層に集中しやすい一方で、具体的な事例は中間層により整合する傾向を見出す。これにより、ルール編集は単一層、または連続するブロックに対する介入だけでは信頼できないことが示唆される。
- 分散マルチレイヤ編集(DMLE)を提案し、複数層に対して協調的な更新を行う。具体的には、式/説明には共有された初期層の更新を用い、事例には中間層の別個の更新を適用することで、ルールレベル編集の改善を図る。
- GPT-J-6B、Qwen2.5-7B、Qwen2-7B、LLaMA-3-8Bにまたがる実験により、DMLEは標準指標において競争力を維持しつつ、ルールレベルの性能を大幅に向上させることが示される。特に、事例の移植性やルール理解に関して大きな改善が得られる。



