AI Navigate

言語モデルを用いた実践は人間の共感的コミュニケーションを育む

arXiv cs.CL / 2026/3/17

📰 ニュースIdeas & Deep AnalysisTools & Practical UsageModels & Research

要点

  • ブラインド評価では、LLMs(大規模言語モデル)は人間よりも共感的だと判断されることがあるが、AIであると帰属されると知覚される共感は低下する。
  • Lend an Earプラットフォームは、共感表現を研究するために構築され、968名の参加者とそのLLMパートナーを含む2,904回の会話において、33,938件のメッセージを収集した。
  • 本研究は、自然対話で用いられる慣用的共感表現のデータ駆動型分類法を導出した。
  • 事前登録済みのランダム化実験は、共感的コミュニケーションを改善する個別化された短時間のコーチングが、対照条件および非個別化の動画ベースのフィードバックと比較して、規範的共感パターンへの一致を有意に高めることを示した。
  • 沈黙の共感効果が観察される。人は共感を感じてもしばしばそれを表現せず、観察者は規範的共感コミュニケーションに沿った応答を確実に識別できる。これにより、共感を育むAIベースのトレーニングをスケール可能にすることが支持されている。

要旨: 共感は人間のつながりの中心であるが、人々はしばしばそれを効果的に表現するのに苦労している。ブラインド評価では、巨大言語モデル(LLMs)は人間が書いたものより共感的であると判断される応答を生成することが多い。しかし応答がAIによるものとみなされると、受け手は人間が同等の応答とみなされた場合より、より聞かれている感覚や検証されている感覚を得られなくなる。共感的コミュニケーション能力のギャップを探り、対処するために、私たちは Lend an Ear を構築した。これは、参加者が個人および職場の問題を演じるLLMに対して共感的な支援を提供するよう求められる実験的な対話プラットフォームである。968人の参加者と彼らのLLM対話パートナー間で、33,938件のメッセージにわたる2,904のテキストベースの会話から、私たちは自然主義的対話における慣用的な共感表現のデータ駆動型分類法を導出した。あらかじめ登録された無作為化実験に基づき、共感を効果的に伝える方法について個別フィードバックを提供する短時間のLLMコーチング介入が、対照群およびビデオベースだが個別化されていないフィードバックを受けたグループと比較して、参加者のコミュニケーションパターンを規範的な共感的コミュニケーションパターンに一致させる効果を有意に高めるという証拠を提示する。さらに、人々が共感を感じる一方で系統的にそれを表現できない“サイレント・エンパシー”効果の証拠の証拠を見つけている。それにもかかわらず、参加者は規範的な共感コミュニケーション基準に沿った応答をより多くの共感を表現していると確実に識別する。総じて、これらの結果は共感がどのように表現され、評価されているかという科学的理解を前進させ、共感を支援・育成するためのスケーラブルなAIベースの介入を実証している。

返却形式: {"translated": "翻訳されたHTML"}