VS Code Weekly: AIに「推論の工数」ダイヤルとネスト型サブエージェント

Dev.to / 2026/4/7

📰 ニュースDeveloper Stack & InfrastructureTools & Practical Usage

要点

  • MicrosoftはVS Code 1.113をリリースし、モデルピッカーに新しいインUI「Thinking Effort(推論の工数)」セレクタを追加しました。これにより、グローバル設定を変更せずに、Claude Sonnet 4.6やGPT-5.4のような推論モデルごとに、リクエスト単位で推論の強度(Low/Medium/High)を設定できます。
  • この更新では、既存の「thinking-effort」関連のCopilot設定を新しいピッカーに非推奨化して統合し、以前の設定が入っているユーザーには、それらを削除するよう促します。
  • VS Codeは、オプトイン設定によりネスト型サブエージェントをサポートします。サブエージェントが他のサブエージェントを呼び出せるようになり、以前の再帰制限を緩和する一方で、深さ制限などの安全策が必要になります。
  • MCPサーバー連携が、エディタ内チャットを超えてCopilot CLIおよびClaudeエージェントにも拡張されました。これにより、設定済みのMCPサーバー(workspace mcp.jsonを含む)を、より広い範囲でカスタムMCPワークフローに活用できます。
  • CLIおよびClaudeエージェントにセッションのフォーキング(枝分かれ)機能が追加されました(CLIは実験的)。ユーザーはAI会話を分岐させ、別案を探索しつつ元のコンテキストを保持できます。

Microsoftは先週VS Code 1.113を出荷しました。新しい毎週のリリース・ペースに基づく3回目のリリースで、エディタが新しいリズムに馴染んできたように感じられます。単にリリースのリズムだけでなく、製品のリズムです。1.113の機能は派手ではありませんが、AI支援型のワークフローに深く入っている人にとっては、日々の作業をなめらかにするタイプの改善です。

実際に出荷されたもの

目玉機能は、モデルピッカー内にあるThinking Effort(思考の手間)セレクタです。Claude Sonnet 4.6やGPT-5.4のような推論モデルを使っている場合、設定を触ることなく、リクエストごとに推論の強さをLow/Medium/Highのいずれかに調整できるようになりました。ピッカーには現在のレベル(例:「GPT-5.3-Codex · Medium」)が表示されるので、常に自分がどの状態で動かしているかが分かります。

これが重要なのは、推論の手間がコストと品質のトレードオフになるからです。素早くコードの説明がほしい?手間をLowにすれば、より速い応答が得られます。複雑な設計を行いたい?Highまで上げて、モデルにしっかり考えさせます。私はこの機能を約1週間使っていますが、すでにプロンプトの出し方が変わりました。素早いリファクタリングはLow、システム設計の質問はHigh。シンプルですが、UIのそこにそのままあることで「別のツールを使っている」ような感覚になります。

非推奨となった2つの設定—github.copilot.chat.anthropic.thinking.effortgithub.copilot.chat.responsesApiReasoningEffort—は、今回で非推奨扱いとなり、ピッカーに統合されました。設定に入れている場合は、削除して整理してください。

ネストされたサブエージェントとMCPがどこでも

ネストされたサブエージェントは、オプトインの設定 chat.subagents.allowInvocationsFromSubagents によって可能になりました。以前は、再帰地獄を防ぐためにサブエージェントは他のサブエージェントを呼び出せませんでした。今は呼び出せるため、あるエージェントが別のエージェントに委任する、という形の、 genuinely(本当に)複雑なマルチステップ・ワークフローが解放されます。まるでチームメンバーにタスクを手渡すようなイメージです。

強力ですがリスクもあります。無限ループは現実に起こり得ます。Microsoftがそれをオプトインにしたのにはちゃんと理由があります。有効にするなら、ワークフロー内で明確な深さの制限を設定してください。

MCPサーバーのサポートも、Copilot CLIとClaudeエージェントに拡大されました。これまでは、VS Codeで設定したMCPサーバーは、エディタ内のローカルなエージェントでのみ動作していました。今では、ワークスペース単位の mcp.json 設定を含め、CLIやClaudeセッションへ自動的にブリッジされます。カスタムMCP連携を作ってきたなら、これはエディタのチャットだけでなく、あらゆる場面で活用できるようになります。

セッションのフォークも、CLIとClaudeエージェントに対して導入されました(CLIは github.copilot.chat.cli.forkSessions.enabled を介した実験的対応)。これで、会話の任意の時点で分岐し、元のコンテキストを失わずに別のアプローチを探れます。AI会話におけるGitブランチです。

その他の改善

Chat Customizations(チャットのカスタマイズ)エディタは、エージェントのセットアップ全体—カスタム指示、プロンプトファイル、エージェント、スキル、MCPサーバー、プラグイン—を、タブと埋め込みのコード編集付きで1箇所に集約します。Ctrl+Shift+P →「Chat: Open Chat Customizations(チャット: チャットのカスタマイズを開く)」で開けます。散らばった設定に不満を持っていたなら、これは救いになります。

チャット添付のための画像ビューアには、ズーム、パン、ナビゲーション、サムネイルの帯が追加されました。スクリーンショットを添付したときや、エージェントが画像を生成したときに、ちいさなプレビューを目を細めて見る必要はもうありません。さらに、画像ファイルについてはExplorerのコンテキストメニューからも利用できます。

統合ブラウザは、自己署名証明書にも対応するようになりました。実際のブラウザと同じように、ローカルのHTTPS開発の間だけ一時的に信頼できます(1週間)。些細に見えるかもしれませんが、SSLテストのためにChromeへ切り替える際の手間を取り除いてくれます。

MicrosoftはデフォルトのテーマをVS Code LightVS Code Darkに置き換えました。よりすっきりしていて、現代的で、画面の種類を問わずまとまりが良いです。OSのテーマ同期は、新しいユーザーではこれらがデフォルトになるため、エディタがシステムのライト/ダークモードに自動的に合わせてくれます。

毎週のペースが意味するもの

VS Code 1.111(3月9日)は、最初の毎週の安定リリースでした。1.112は3月18日に続き、1.113は3月25日にリリースされています。これは、専用のEndgameテスト週を含む旧来の月次サイクルから大きく変わることです。Kai MaetzelがGitHubで変更を発表し、品質保証は「別個のフェーズ」ではなく、「継続的デリバリー」に組み込まれると述べています。

開発者の中には、このペースに不安を感じている人もいます。安定性のために数バージョン分後ろに留まる方法はないのか、といった質問もあります。それは理解できます。Microsoftは、CursorやWindsurfのような競合が連続的に出荷している開発反復の速さに合わせようとしているのは明らかです。

ただ、重要な点があります。1.113の機能は、急いで出したという感じはしません。このリリースには「早すぎるタイミングで出してしまったぞ」と叫ぶようなものはありません。Thinking Effortセレクタは単純なUX改善です。ネストされたサブエージェントはオプトインです。MCPブリッジは明らかな穴埋めです。これらは、「エージェント型ワークフローにしばらく取り組んできていて、何を改善すべきかを分かっているチーム」から期待するようなタイプの改善です。

真の試験は、毎週出荷できるかどうかではありません。問題は、回帰の爆発をせずに毎週出荷できるかどうかです。これまでのところ順調です。でも、まだ3週間しか経っていません。

結論

VS CodeでAIエージェント—Copilot、Claude、またはカスタムツール—を使っているなら、1.113はあなたの生活を確実に良くします。トークン予算を管理している場合でも、単に些細なタスクでの応答を速くしたい場合でも、Thinking Effortのダイヤルだけでもアップデートする価値があります。ネストされたサブエージェントと「どこでもMCP」によって、複雑なワークフローがようやく実用的になります。

もしエージェントを使っていないなら、このリリースはスキップして構いません。新しいテーマは良いですが見た目の話です。ブラウザの証明書信頼はニッチな修正です。ここでの中身の大部分は、エージェント体験にあります。

私は以前、モデル選びよりもコンテキスト・エンジニアリングのほうが重要だということを書きました。1.113のツール群—セッションのフォーク、思考の手間の制御、サブエージェントの構成—はすべて、そのコンテキストに対するより細かな制御をあなたに提供するためのものです。あなたは単にAIに質問を投げているのではなく、答える前にAIがどう考えるかを調整しているのです。

ここから向かう先は、そういう方向です。より大きなモデルではありません。より良い制御です。