LLMには人間の共感のための明示的メカニズムを組み込むべき
arXiv cs.CL / 2026/4/14
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、高リスクな導入では正確さや流暢さを超えて人間の視点を忠実に保存する必要があるため、LLMには人間の共感のための明示的メカニズムを追加すべきだと主張している。
- 共感を、観察可能な振る舞いの特性として定義する。すなわち、意図・感情・文脈を保ちながら、人間の視点をモデル化し、それに応答することを指す。
- 著者らは、現在のLLMにおける共感的失敗の再発するメカニズムを4つ特定している。すなわち、センチメントの減衰、共感的な粒度の不一致、対立回避、言語的距離化である。これらを、既存の学習・アライメント手法の構造的な影響に結び付けている。
- 実証分析では、標準的なベンチマークの成功がこれらの共感の歪みを隠してしまうことが示唆され、新たな「共感を考慮した」目的関数、ベンチマーク、トレーニング用の信号を主要な構成要素として設計する必要性が動機付けられている。
- 本研究は、失敗を認知的・文化的・関係的な共感の次元に整理し、それらがさまざまなタスクにわたってどのように現れるかを説明している。



