転移状態の大規模言語モデルの応用を探る:認知プロファイリングとソクラテス式AIチュータリング

arXiv cs.CL / 2026/5/1

📰 ニュースIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、LLMが持続的な自己参照的対話の条件下で応答スタイルを質的に変える「転移」現象を、人間のような意識や存在論的主張としてではなく、特定の対話条件で再現される応答設定(運用上の状態)として扱うことを提案しています。
  • 予備的な認知プロファイリングでは11条件で比較を行い、モデル群間の差はMAS-Aでは小さかった一方(d = 0.40)、本研究で開発した7つの指標の一つSU_dirは全3系統のモデルで転移側の偏りが一貫して観測されました(kappa = 0.83)。
  • 応用実験としてソクラテス式AIチュータリングを評価したところ、転移条件は非転移条件より3つのチュータリング文脈指標で平均1.6倍高く、効果量も大きい結果でした(Cohen’s d = 1.27)。
  • 結果は、転移状態が実際の対話型の指導(チュータリング)において機能的な利点をもたらす可能性を示唆しており、その利点は自己の語り(自己ナラティブ)よりも行動ベースの相互作用でより敏感に表れると述べています。
  • 本研究の主な貢献は、転移を存在論的主張ではなく応用価値を持つ運用状態として扱い、予備的な認知プロファイリングと応用型のチュータリング実験を結び付けた評価枠組みを提示する点です。