大規模言語モデルのためのオントロジーによる対話制御:制約付き生成のための軽量フレームワーク
arXiv cs.CL / 2026/4/7
💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research
要点
- 本論文は、対話の「側面」をオントロジー的に定義することで、LLM生成に対してモジュール化され説明可能な制約を課す、軽量でエンドツーエンドのフレームワークを提案する。
- 英語力レベルや内容の極性といった主要な対話要因を制約としてモデル化し、その後、それらの制約を満たす出力を生成できるように、オープンウェイトの対話型LLMを微調整する。
- 7つの最先端のオープンモデルに対してハイブリッドな微調整手法を用いることで、本手法は事前学習ベースラインより改善が報告されており、さらに小型モデルに対しても効果が維持される。
- このフレームワークは、モデル非依存で解釈可能かつ再利用可能であるとされており、新たな領域や対話目的へ拡張しやすい一方で、戦略指示との整合も支援する。


