概要: 感情的サポート会話(ESC)は、現実世界のアプリケーションにおいてアクセス可能な心理的支援を提供することで、メンタルヘルス支援において重要な役割を果たします。大規模言語モデル(LLM)は、ESCタスクにおいて強い共感能力を示してきました。しかし、既存の手法は、支援を求める側の表現における認知の歪みの問題を見落としています。その結果、現在のモデルは、基礎的な感情的安心を提供するにとどまり、支援を求める側がより深い認知レベルで心理的苦痛に対処できるようには支援できません。この課題に対処するため、私たちは CogBiasESC データセットを構築します。これは、認知の歪みに関するラベルを追加することで既存のESCデータセットを拡張する、初のデータセットであり、歪みの種類、強度、ならびに安全リスク水準を含みます。さらに、支援を求める側における認知の歪みを診断し介入するLLMの能力を高めるための、認知ポリシー駆動型大規模言語モデルの枠組み(CoPoLLM)を提案します。加えて、理論的観点からCoPoLLMの安全性における利点を分析します。実験結果は、CoPoLLMが、歪み診断の正確さ、介入戦略の有効性、安全リスク制御の観点で、15の最先端ベースラインを有意に上回ることを示しています。
認知バイアスを診断・介入するための、認知ポリシー駆動型LLM(感情的サポート会話における枠組み)
arXiv cs.CL / 2026/4/21
📰 ニュースIdeas & Deep AnalysisModels & Research
要点
- この論文は、感情的サポート会話(ESC)において、支援を求める人の発言に含まれる認知の歪み(認知のバイアス)を明示的に扱うLLM手法を提案し、感情面の慰めに留まらない深い介入を目指します。
- CogBiasESCデータセットを提示し、認知の歪みの種類、強度、そして安全リスクレベルのラベルを追加することで、既存のESCデータセットを拡張します。
- 支援者側の認知の歪みを診断し、より効果的な介入戦略を生成するためのフレームワークとしてCoPoLLM(Cognitive Policy-driven Large Language Model)を提案します。
- 実験では、CoPoLLMが歪みの診断精度、介入戦略の有効性、安全リスク制御の各面で、15の最先端ベースラインを大きく上回ると報告されています。
- 理論的な観点からCoPoLLMの安全性に関する利点も分析されています。
関連記事

新しいモデルが出るたびに、当然ながら古いモデルは時代遅れになる
Reddit r/LocalLLaMA

NVIDIA DGX SparkフルスタックAIハッカソンで作ったものが総合1位に—『Starfire』から『Molecules AI』へ
Dev.to

進捗を失わない:VS Codeでプロ仕様のJupyterワークフローをセットアップする(Colabのタイムアウトともおさらば!)
Dev.to

AgentOSを作る:保険請求の「AWS Lambda」を目指している理由
Dev.to

状況はここまで来た——1年で何もかも変わった:Kimi、Minimax、Qwen、Gemma、GLM
Reddit r/LocalLLaMA