LLMの推論力の低下と壊滅的忘却は、同じ根本原因を共有している可能性がある。

Reddit r/LocalLLaMA / 2026/4/15

💬 オピニオンIdeas & Deep AnalysisModels & Research

要点

  • この記事では、LLMの推論劣化と壊滅的忘却が、継続学習および推論における構造的な持続(structural persistence)に関連した共通の根本原因を持つかもしれないと提案している。
  • この考えを「構造的持続のための最小モデル(minimal model of structural persistence)」として形式化し、2つの状況で検証する。1つは、蓄積する矛盾によって推論が破綻することに焦点を当てた設定、もう1つは、LoRAベースの継続学習における忘却を扱う設定である。
  • 推論の設定では、会話内で矛盾が蓄積すると論理的推論が難しくなるが、矛盾を外部的に整理する(例:真であるものを「前」と「後」に分ける)ことで性能は安定する。
  • 継続学習の設定では、新しい学習が、変化した前提に結び付いた依存関係を上書きしがちであり、依存する知識を更新する必要がある場合に、整合性(coherence)が崩れてしまう。
  • 著者は、単なる学習の工夫(training tricks)だけでなく、アーキテクチャの変更が、両方の問題を大幅に軽減しうると主張する。ただし、過去の知識を完全に保持することは依然として非常に難しい。

LLMを見ると、それらは、推論時に与えられた特定の前提、ルール、文脈に基づいて、一貫した推論の流れを生成し維持する構造として捉えられます。LoRAベースの継続的学習フェーズでは、前提が更新されるにつれて、古い情報と新しい情報の間の依存関係を絶えず再編する知識構造として働きます。

この観点から私は、推論性能の劣化と壊滅的忘却の問題が、実は同じコインの裏表なのではないかと疑い始めました。どちらかを解決すればもう一方も解決できるかもしれない、と感じ、それを試したうえで、2つの設定でこの考えを検証しました。

問題の核心は、どんな構造であれそれを保持するには、それを維持するために必要な特定の条件を満たさなければならない、という点です。
私はこれを構造的永続の最小モデルとして形式化し、その後2つの設定でテストしました。

LLM推論の劣化
この実験は、会話の中で矛盾する情報が蓄積されていくほど、LLMが論理的な推論を維持することがますます難しくなることを示しています。

それらの矛盾を外部で整理し—「以前に真だったもの」と「今は真であるもの」に分けて—提示すると、整理せずに放置した場合と比べて、性能が大きく安定しました。

言い換えると、要点は、破綻の原因はテキストの長さそのものではなく、未解決の矛盾が蓄積されていくことにあるのかもしれない、ということです。

LLMの壊滅的忘却
LLMに新しいことを教えると、古い知識を新しい情報で段階的に積み上げるというより、古い知識を上書きしてしまう傾向があります。基本的には上書き処理です。

前提が変わる更新では、その前提に依存している関連知識すべてを修正する必要があるため、モデルの首尾一貫性が大きく崩れます。

私たちの実験では、関連する知識をモデルにまとめて再学習させると結果がわずかに改善することが分かりました。しかし、以前の知識を完全にそのまま保ちながらモデルを更新することは、依然として非常に困難です。

私の見解では、これらの問題は、より良い学習テクニックだけでなく、アーキテクチャ自体を変えることで、大幅に軽減できる可能性があります。

---
英語が少し不自然ならすみません—これはもともと日本語で書かれました。

submitted by /u/IndividualBluebird80
[link] [comments]