広告

LLM支援によるコンピュータサイエンス教育における目的逸脱(objective drift)のHuman-in-the-Loop制御

arXiv cs.AI / 2026/4/2

💬 オピニオンSignals & Early TrendsIdeas & Deep AnalysisModels & Research

要点

  • 本論文は、コンピュータサイエンス教育におけるLLM支援によるプログラミングが、「目的逸脱(objective drift)」に悩まされうることを論じている。これは、出力がもっともらしいままである一方、タスクの仕様とはもはや一致しなくなる状態である。
  • 人間を介在させる(Human-in-the-Loop: HITL)ことを、完全なAI自律性へ向けた一時的な段階ではなく、システム工学や制御理論の考え方を用いて、持続可能で教えられる制御問題として再定義する。
  • 提案される学部向けCSラボのカリキュラムでは、「計画」と「実行」を明確に分離し、コード生成の前に学生が受け入れ基準とアーキテクチャ上の制約を設定することを訓練する。
  • また、一部のラボでは、仕様違反の診断と回復を学生ができるようにするために、意図的かつ概念に整合した目的逸脱を導入する。
  • 3群からなるパイロット研究(非構造的なAI利用 vs. 構造化された計画 vs. 構造化された計画に目的逸脱を注入)では、現実的な授業条件下で検出可能な効果量を見積もるための感度に基づくパワー分析を含む。

要旨: 大規模言語モデル(LLM)は、AI支援によるプログラミングツールを通じて、計算機科学教育にますます組み込まれつつある。しかし、そのようなワークフローではしばしば客観(目的)ドリフトが見られ、局所的にはもっともらしい出力が、明示された課題の仕様から逸脱する。既存の指導用の応答は、ツール固有のプロンプト実践を強調することが多く、AIプラットフォームが進化するにつれて耐久性が制限される。本論文は、人間中心の立場を採用し、人間を介したループ(HITL)による制御を、AIの自律性へ向かう移行段階というよりも、安定した教育上の問題として扱う。システム工学および制御理論の概念を手がかりに、目的と世界モデルを、学生がAI支援作業を安定化させるために設定する運用上の成果物として位置づける。計画(プランニング)と実行(エクセキューション)を明示的に切り離し、コード生成の前に、受け入れ基準およびアーキテクチャ上の制約を指定することを学生に訓練する、試行的な学部CSラボのカリキュラムを提案する。選定したラボでは、仕様違反の診断と回復を支えるために、意図的で概念に整合したドリフトも導入する。本論文では、3群からなる試行設計について、非構造化のAI利用、構造化された計画、さらに構造化された計画に注入したドリフトを比較する感度パワー分析を報告し、セクション単位の現実的な制約の下で検出可能な効果量を確立する。提案する貢献は、理論に基づき、方法論的に明示されたHITL教育のための基盤であり、進化し続けるAIツールにまたがって制御の技能を教えられるものにする。

広告