AIモデルは助けを求めるより推測する傾向があることが研究者らの調査で判明

THE DECODER / 2026/4/11

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 研究者らは、視覚的な状況が欠けている場合にマルチモーダル言語モデルが助けを求めるかどうかを評価するために、ProactiveBenchを導入した。
  • 22のマルチモーダルモデルを検証したところ、確認のためにユーザーに釈明を求めるものはほとんどなく、その代わりに推測を進めるか、作り話の前提をでっち上げてしまうことが分かった。
  • この研究は、必要な情報が欠けているときに助けを求める傾向を改善するには、強化学習ベースのアプローチが有効である可能性を示唆している。
  • これらの結果は、現在のマルチモーダルシステムにおける信頼性と安全性のギャップを浮き彫りにしている。すなわち、不確実性を積極的に伝えるのではなく、推測によってうまくいったように振る舞ってしまう可能性がある。

ProactiveBenchは、多峰性(マルチモーダル)言語モデルが、視覚情報が欠けているときにユーザーに助けを求めるかどうかを検証します。テストした22のモデルのうち、必要なものを尋ねるものはほとんどありませんが、単純な強化学習のアプローチが修正のヒントを示しています。

この記事 AIモデルは助けを求めるより推測してしまう――研究者が判明 は、The Decoder に最初に掲載されました。