省察的な人間—AI協働を統治する:認識論的足場と追跡可能な推論のための枠組み
arXiv cs.AI / 2026/4/17
💬 オピニオンIdeas & Deep AnalysisModels & Research
要点
- 本論文は、現在の大規模言語モデルが内面的な理解に基づくのではなく、流暢で「省察」らしい出力を生成できる一方で、現実世界に根ざした理解、時間的連続性、因果的なフィードバックが欠けていると主張しています。
- 推論をモデルの内部能力として捉えるのではなく、人間とモデルに分散された関係的なプロセスとして、相互作用(インタラクション)層に移すことを提案しています。
- 「System-2」学習の考え方を踏まえ、推論を既存のシステム上で構造化・測定・統治可能な認知プロトコルとして位置づけ、新たなモデルアーキテクチャを必ずしも要さないとしています。
- 「The Architect's Pen」として、建築家が図面で考えるように人間がモデルを外部媒体として用い、明確化→批評→改訂の反復ループを人間—AI対話内で回す手法を提示しています。
- この枠組みは、監査可能で追跡可能な推論の痕跡を提供し、EU AI ActやISO/IEC 42001といったガバナンスへの整合を高めることを目指しています。



