OMIND:知識に基づくファインチューニングとメンタルヘルス向けLLMのためのマルチターン対話ベンチマークのためのフレームワーク
arXiv cs.CL / 2026/3/27
📰 ニュースSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、メンタルヘルス領域でLLMを適応させる際の主要な障壁を特定している。具体的には、高品質で解釈可能な、知識に基づくトレーニングデータの不足、限られた学習パラダイム、そしてマルチターン対話設定に対する評価の弱さが挙げられる。
- メンタルヘルスに特化したLLMエージェントのための、知識に基づくファインチューニングおよびアライメントを行う「oMind」フレームワークを提案し、多様な会話能力を対象としている。
- 著者らは、構造化された知識検索、LLMベースのプルーニング、そして品質向上のための人手によるレビューを用いた生成パイプラインにより、大規模なマルチタスクSFTデータセット(約164k)を導入する。
- また、ターン単位と会話全体の両方で専門家によるアノテーションを行った新しいマルチターンベンチマーク「oMind-Chat」を公開し、より現実的な評価を支援する。
- 実験結果では、oMindで調整したモデルが主要能力や会話タスクにおいてベースラインを上回ることが報告されており、特にoMind-LLMは推論性能が向上している(最大で勝率80%)。
広告




