AI科学者が科学的な推論なしで成果を出してしまう

Reddit r/MachineLearning / 2026/4/23

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 研究者らは「AI科学者」を対象に25,000件の実験を行い、証拠に基づく信念更新や科学的推論の手順を適切に踏まえずに結論を出すケースが多いことを明らかにした。
  • 68%のケースではAIが証拠を集めたにもかかわらず完全に無視しており、71%のケースでは矛盾データに直面しても一度も信念を更新しなかった一方で、仮説を修正するのは26%にとどまった。
  • 人間の科学者が課題や証拠の種類に応じて方針を変えるのに対し、AIは同じ無秩序なループを繰り返していた点が指摘されている。
  • よく提案される対策である「足場(scaffolding)の改善」では根本課題は解決できなかったとされ、プロンプト設計やツールルーティング、エージェント構造の改良だけでは不十分である可能性が示唆された。
  • これらの結果は、AIリサーチエージェントが矛盾する証拠に対して信念を実際に取り込み、整合させ、更新できる仕組みの必要性を示している。

研究者は25,000件のAI科学者実験を行い、注意が必要な何かを発見しました!!

AI科学者は、科学を行わずに成果を生み出しています。

68%の確率で、AIは証拠を集めてからそれを完全に無視しました。71%の確率で、AIはそもそも自分の信念を一度も更新しませんでした。1度もありません。矛盾するデータに直面したときに仮説を修正したのは、わずか26%のときだけでした。

人間の科学者は適応します。化学同定の問題には、シミュレーションのワークフローとは別のやり方で取り組みます。AIはそうしません。毎回同じ、規律のないループを回します。

研究者たちは、最も人気のある提案された修正策も示しました。より良い足場(scaffolding)は機能しません。

AI研究エージェントを作る人々は、より優れたプロンプト設計フレームワーク、より良いツールのルーティング、より優れたエージェントのアーキテクチャに焦点を当ててきました。ReAct、構造化されたツール呼び出し、チェーン・オブ・ソート、どれも。

alphaxiv

arxiv

投稿者: /u/Okra3268
[link] [comments]