親愛なる皆さん、
2025年も急速なAIの進歩が続き、初心者を含む誰にとってもソフトウェアを構築する絶好の機会がこれまでになく広がっています。実際、多くの企業が高度なAI人材を十分に見つけられていません。毎年の冬休みには学習や構築に時間を割き、自分のスキルを磨き、新しい知識を得ています。これが皆さんのテック分野でのキャリア成長にも役立つことを願っています。
AIシステムの構築に習熟するには、以下をお勧めします:
- AI関連の講座を受講すること
- AIシステムを実際に構築してみること
- (任意で)研究論文を読むこと
なぜこれらが重要なのかお話ししましょう。
経験豊富なAI開発者のコミュニティに囲まれていない限り、学習を無視して何かを作り始めるのは良くないアドバイスです。基礎を理解せずに飛び込むと、車輪の再発明、あるいはもっと悪くひどい再発明をしてしまう危険があります。
私が採用面接で話した候補者の中には、標準的なRAG文書チャンク戦略を再発明したり、既存のAgentic AIの評価手法を複製したり、乱雑なLLMコンテキスト管理コードを書いてしまった人々もいました。関連講座を数回受講していれば、既存の構成要素をよりよく理解できたはずです。もちろん、それらを一から作り直すか、または既存の解決策を上回る何かを発明することも可能ですが、無駄な時間を数週間も避けられたでしょう。つまり体系的な学習が重要です!さらに、講座を受けることは本当に楽しいと感じています。Netflixを見る代わりに、知識豊富なAI講師による講座を観る方がずっと好みです!

講座だけでは不十分です。実践からしか得られない教訓が数多くあります。飛行機の仕組みを学ぶ理論はパイロットになるには重要ですが、講座だけでパイロットになれる人はいません。ある時点でパイロット席に座ることが不可欠です!朗報は、非常にエージェント的なコーダーの使い方を学べば、構築作業はこれまでで最も簡単になりました。AIの基本構成ブロックを知ることで、新たに構築したくなるアイデアが湧くこともあります。私もプロジェクトにインスピレーションを感じない時は、講座を受けるか研究論文を読むことが多く、それを続けるうちにいつも多くの新しいアイデアが得られます。また、構築作業は本当に楽しいと感じており、皆さんもそう感じることを願っています!
最後に、必ずしも全員がやる必要はありませんが、今日の採用市場で最も有力な候補者の多くは少なくとも時々研究論文を読みます。論文は講座よりずっと消化が難しいですが、まだ簡単に理解できる形に翻訳されていない多くの知識が含まれています。講座受講や実践より優先度は低いですが、論文を読む力を強化できる機会があればぜひ挑戦してください。(論文の読み方についての昔の動画もあります。)私は講座受講や構築は楽しく感じますが、論文を読むのは苦労もあります。しかし、論文から得られるひらめきはとても貴重です。
素晴らしい冬休みと新年をお迎えください。学習や構築に加えて、家族や大切な人と過ごす時間も重要です!
心を込めて、
アンドリュー
2025年のトップAIストーリー

時代の新たな幕開け
2025年はAIの産業時代の夜明けとして記憶されるでしょう。革新がモデル性能を新たな高みへ押し上げ、AI駆動のアプリケーションが不可欠となり、大手企業は優秀な技術者の獲得競争を繰り広げ、インフラ建設は米国の国内総生産を牽引しました。過去の冬の休暇シーズンと同様に、この特別号のThe Batchは過去12か月の主要テーマを追い、来年はこれらの変化を統合しテクノロジーを日常生活に一層組み込んでいくことを約束します。

推論モデルが大きな課題を解決
ステップ・バイ・ステップで考える。推論を説明する。答えから逆算する。2025年の初めには、モデルはこれらの推論戦略を促されなければ実行しませんでしたが、今ではほとんどの新しい大規模言語モデルが標準として活用し、幅広いタスクで性能向上を実現しています。
何が起こったか:昨年末、OpenAIは初の推論(「思考」)モデルo1を発表し、エージェント的な推論ワークフローを組み込みました。1月にはDeepSeek-R1がこれを世界に示しました。結果は、数学やコーディングの性能向上、質問への正確な回答、より高機能なロボット、急速なAIエージェントの進展でした。
背景:推論の初期形態は、「Large Language Models Are Zero-Shot Reasoners」という論文から火が付いたと言えます。著者らは「let's think step by step」というフレーズをプロンプトに手動で追加するとモデルの出力が改善することを発見しました。研究者たちはこの能力を明示的な促しなしにモデルに学習させることができると気づきました。キーは強化学習(RL)によるファインチューニングでした。正しい出力を生成したモデルに報酬を与えることで、出力前に“考える”よう訓練されたのです。
- 初期の推論モデルは、数学問題を正しく解く、科学の質問に正確に答える、ユニットテストを通過するコードを生成することを目的にRLで訓練されました。例えばo1-previewは、非推論モデルのGPT-4oよりもAIME 2024(数学競技問題)で43ポイント、GPQA Diamond(博士レベルの科学問題)で22ポイント上回り、Codeforcesのコーディング問題では人間の競技者と比較して62パーセンタイルの成績を示しました(GPT-4oは11パーセンタイル)。
- 推論モデルは、電卓や検索エンジン、bash端末などのツール利用を学習することでさらに性能が向上しました。例えば100ドメインのマルチモーダル理解と技術専門知識の難問テストで、OpenAIのo4-miniはツール使用時に17.7%の正答率を記録し、ツールなし時より3ポイント以上高い成績を達成しました。
- ロボットの行動モデルもRLによる推論で訓練されています。例えば目標位置到達に報酬を与えたThinkActは非推論モデルOpenVLAと比較しロボットタスクで約8%の性能向上を示しました。
- 推論モデルは難しい課題に挑むエージェントも支援します。例えばAlphaEvolveはGoogle Geminiを用いてコードを生成・評価・改良し、現実問題向けに高速なアルゴリズムを生み出しました。同様にAI Co-ScientistはGeminiを使い科学的研究提案を生成、評価、順位付け、改善しました。ある仮説は細菌の抗生物質耐性に関する長年の疑問に答えるもので、人間の科学者が時期を同じくして独立に提唱し検証を終えました。
しかし:推論モデルは必ずしも理性的とは言えません。
- Appleの物議を醸す論文では、推論モデルは与えられたアルゴリズムで解決可能な複雑なパズルを解けないと結論づけられています。モデルのアルゴリズム適用不能が、機械と人間の推論の類似性に疑問を投げかけました。
- Anthropicは発見しました。推論モデルの思考過程は結論に至る説明に役立つ一方で、重要な情報が抜け落ちる場合があります。たとえばプロンプトのヒントによって特定の出力を導けても、思考過程にはそのヒントが記載されないことがあります。
現状:推論はLLMの性能を劇的に向上させます。しかしより良い出力には代償があります。推論を有効にしたGemini 3 Flashは人工知能指標ベンチマークで約1億6千万トークンを消費しスコア71を記録、一方推論を無効にした場合7.4百万トークンでスコア55でした。推論トークン生成は応答遅延を生み、LLMの高速提供に課題を与えますが、効率化の取り組みも進んでいます。Claude Opus 4.5とGPT-5.1は同じスコアでも、前者は4800万トークン、後者は8100万トークンの使用で済みます。

大手AI、巨額報酬で人材を誘致
大手AI企業は熾烈な人材争奪戦を繰り広げ、プロスポーツ選手に匹敵する高額給与で競合他社のトップ人材を引き抜きました。
何が起きたか:7月、Metaは新設したMeta Superintelligence Labsの人員確保のため採用活動を展開し、OpenAI、Google、Anthropicなどのトップ企業の研究者に数億ドル規模の報酬を提示しました。多額の現金ボーナスや他社退職時の株式権利放棄補填も含まれていました。対抗する各社もMetaのキーパーソンを引き抜き報酬競争は激化、AI人材の市場価値はかつてない高水準となりました。
背景:Metaは従来の給与体系を覆し、4年間で3億ドルに達する報酬パッケージを提示、現金報酬は他社の数年かけて付与されるストックオプションを大きく上回りました。Scale AIのCEOアレクサンダー・ワン氏とその主要チームを採用したマークリーダーは、欲しい人材リストを作成したとThe Wall Street Journalが報じています。
- ザッカーバーグは引き抜きのために自ら家訪することもあり、時には自家製スープを持参したこともありました。結果としてOpenAIの研究者ジェイソン・ウェイとハング・ウォン・チャンらを獲得しています。
- Thinking Machines Labの共同創設者アンドリュー・タラチ氏は、初めは15億ドル相当の報酬パッケージを辞退したものの、数か月後に方針を変えMetaに参加しました。
- MetaはAppleでAIモデルを担当していたルーミング・パン氏も数億ドル規模のパッケージで採用しました。Bloombergの報道によれば、MetaのオファーはAppleの役員報酬を上回り、Appleはそれに対抗しませんでした。
- 人材流動の渦中、Microsoft AI CEOムスタファ・スレイマンはGoogleから20人以上の研究者・エンジニアを引き抜き、その中にはエンジニアリング副社長のアマル・スブラマニヤ氏も含まれていました。
- イーロン・マスク率いるxAIはMetaから十数名のAI研究者とエンジニアを採用。マスクは競合の「狂気じみた」オファーを非難し、同社の「超実力主義」文化と株式成長の潜在力を強調しました。
背景:AIエンジニアの給与推移は、AIが学術的好奇心から革命的技術へと進化したことを反映しています。
- 2011年、Google Brainがアンドリュー・ングの指導で始まった当初は、AI人材は学術界に集中していました。ニューラルネットワークが検索エンジンやAIアシスタントなど商用製品に採用されるに従い、機械学習エンジニアの役割は企業一般に普及しました。
- 2014年、GoogleがDeepMindを買収した頃、AI人材の給与は一般ソフトウェアエンジニアより大きく上回りました。ニューヨーク・タイムズはスタッフ1人当たり約34.5万ドルと推計。2017年のトランスフォーマーアーキテクチャ導入時にはトップ報酬は50万ドルに達しました。
- 2023年頃、ChatGPTの普及で報酬はさらに跳ね上がり、一部報告によると最上級ソフトウェアエンジニアの給与は70万ドルを超えました。
現状:2026年を迎え、AI人材採用の状況は大きく変わりました。リクルーター対策としてOpenAIは競合より多くの株式報酬を提供し、新規社員の権利確定期間を短縮、最大150万ドルのリテンションボーナスも支給しています。2025年のAIバブル論もある中、高額給与は数十億ドル規模のAIデータセンター構築計画を支える合理的支出と言えます。

データセンター建設が巨大化
トップAI企業は今後数年で数兆ドル、数ギガワットの電力を消費する大規模データセンターの建設計画を発表しました。
何が起きたか:今年だけでAI業界の資本支出は3,000億ドルを超え、その多くはAI処理向けの新たなデータセンター建設に振り向けられました。まだ概算予算ですが、施設は小さな町の規模で電力需要は中規模都市に匹敵します。McKinsey & Companyの予測によれば、2030年までに推論・トレーニング用処理能力のニーズを満たすための投資総額は5.2兆ドルに達すると見込まれています。
背景:世界各地で大型データセンター計画が相次ぎ発表されました。1ギガワットの能力構築には約500億ドルを要します。
- 1月、OpenAIはOracle、SoftBank、アラブ首長国連邦の投資会社MGXと連携し、5,000億ドル規模のStargateを開始。最終的に世界で20ギガワットの能力構築計画を発表し、需要は5倍になると予想。OpenAI CEOサム・アルトマンは最終的に週あたり1ギガワット増設を目指しています。
- Metaは2025年に約720億ドルを主に米国内のインフラ事業に投じ、翌年はさらに増加予定。大規模なHyperion事業には、ルイジアナ州の地方に270億ドル、5ギガワットのデータセンターが含まれ、資産と負債はMetaの簿外となる資金調達契約を結びました。
- Microsoftは2025年に世界中で800億ドルを投資。ウィスコンシン州とアトランタの施設を専用光ファイバーネットワークで接続し巨大なスーパーコンピューターとして運用。電力供給のためペンシルベニア州のスリーマイル島原子力発電所を再稼働する20年契約を締結し、2028年から835メガワットを供給予定。欧州のクラウド・AI能力も200のデータセンターに拡大予定です。
- Amazonは2025年に1,250億ドル、翌年以降も追加投資予定。インディアナ州の2.2ギガワットのデータセンター、プロジェクトRainierには50万個のAmazon Trainium 2チップを採用。オーストラリアで約140億ドル、ドイツで2025~29年に210億ドルを投じデータセンターを拡張します。
- Alphabetは投資予測を従来の750億ドルから930億ドルに増額。テキサス州の3箇所のデータセンターに400億ドル超を投資し2027年までに完成予定。インド、ドイツ、オーストラリア、マレーシア、ウルグアイにも新規・拡張プロジェクトを展開しています。
課題:米国経済とインフラがこれほどの投資を支えられるのか疑問もあります。
- Bain & Coの推計では、データセンター建設費は2030年までに年商2兆ドル超のAI収益を必要とし、これはAmazon、Apple、Alphabet、Microsoft、Meta、Nvidiaの2024年合計収益を上回ります。
- 現在の電力網はこれらの施設に電力供給しきれない可能性があります。シリコンバレーの2施設は地域電力会社の接続能力不足で稼働休止しています。Bloomberg報道によります。
- 12月中旬、オラクルとOpenAIが10億ドルのデータセンター資金調達で交渉していたBlue Owl Capitalが契約から撤回。Financial Timesはオラクルの負債増大を懸念すると報じました。ただしBlue Owlは他のオラクル・OpenAIプロジェクトへの資金提供を継続しています。
現状:AIバブルへの懸念があるものの、このインフラ建設ブームは冷え込みがちな経済で実際の雇用と売上増を生み出しています。ハーバード大学の経済学者ジェイソン・ファーマンによれば、2025年前半の米GDP成長はデータセンター・AI投資がほぼ全てを占めました。現段階で、2025年は新しい産業時代の幕開けを告げたと言えそうです。

エージェントがコードをより速く安価に生成
コーディングアプリは、単なるオートフィル型のコード補完から脱却し、幅広いソフトウェア開発タスクを管理するエージェントシステムへと進化しました。
何が起きたか:コーディングはエージェント的ワークフロー適用の中で最も即効性のあるビジネス価値を持つ分野となりました。Claude Code、Google Gemini CLI、OpenAI Codexなどが激しい競争を繰り広げ、小規模競合も独自のエージェントモデルを開発ししのぎを削りました。
背景:2024年に先駆者であるDevinというエージェントコード生成機が登場し、SWE-Benchの挑戦課題で1.96%から13.86%へ水準を引き上げました。2025年には最新の大規模言語モデルを使うエージェントは80%以上の課題を定常的に完遂。開発者は、エージェントプランナーや批評家と連携し、Web検索や端末エミュレーションなどのツールを使い、コードベース全体を扱う高度なフレームワークを受け入れました。
- 2024年末に推論モデルが登場し、エージェントのコーディング力を即座に高め、コストも削減。推論によって安価なモデルに分割タスクを任せることが可能になりました。可変推論予算の導入で、代理人は計画に多くトークンを使い単純な編集には少なく割り当て、一つのモデル使用を容易化。2025年末にはGemini 3 Pro、Claude Opus 4.5、およびGPT-5.2がコード生成とエージェント的ワークフローのトップモデルとして登場。
- オープンウェイトモデルも急速に追随。Z.ai GLM-4.5やMoonshot Kimi K2が人気となり、自動化コーディング系スタートアップのコスト削減に貢献。7月にリリースされたQwen3-Coderは4,800億パラメータで5兆トークン超のコードを学習し、Claude Sonnet 4に匹敵する性能を示しました。
- AnthropicはClaudeをエージェント的フレームワークで包み込み、アプリケーションClaude Codeを開発。2月に公開され即ヒット。OpenAIはGPT-5系列で開発したCodexアプリケーションで対抗し、クラウド上でのコード生成エージェントを普及させました。年末までに、これらエージェントは複数サブエージェントで長期課題を管理可能に。通常、イニシャライザーがタスク開始と進行管理を担当し、各種エージェントが異なる仕事を遂行、各々が独立したコンテキストウィンドウを持ちます。
- モデルメーカーと統合開発環境(IDE)提供者間の競争により、有力IDEプロバイダーAnysphere(Cursor)やCognition AI(Windsurf)は独自モデルを構築。逆にGoogleは11月に独自IDE「Antigravity」を発表しました。
背景:エージェントシステムは人気のSWE-Benchコーディングベンチマークで段階的に性能向上を達成し、別の評価手法の模索を促しました。
- SWE-Bench Verified、SWE-Bench Pro、LiveBench、Terminal-Bench、𝜏-Bench、CodeClashなどがそれに該当します。
- 提供者ごとに評価基準が違い、評価結果が分散・選別されているため、タスクに適したエージェントの選択は依然として課題です。
しかし:2025年初頭には、多くの観測者はエージェントは定型的なコードやドキュメント、ユニットテストの生成に適していると認めつつ、高度な戦略問題では熟練エンジニアやプロダクトマネージャーに及ばないと考えていました。しかし年末までに企業は上級レベルのタスク自動化を報告。Microsoft、Google、Amazon、Anthropicはコードの自社生成量増加を公表しました。
現状:短期間でエージェントによるコーディングは流行語から新興産業へと成長。Loveable、Replit、Vercelのようなスタートアップは、初心者でもウェブアプリをスクラッチから構築可能にしました。AIによる初級開発者の代替懸念はありますが、むしろAI活用スキルのある開発者は速くより良くプロトタイプを作成できることがわかっています。近い将来、AI支援コーディングはスペルチェックや自動補完と同様、単なるコーディングと見なされるでしょう。

中国のAIチップ産業が根付く
米国政府の中国からAI計算能力を奪う試みは裏目に出て、中国は逆に米国設計のチップを禁止しました。
何が起こったか:中国政府は、国家資金が投入される新設のデータセンターに国内サプライヤー製チップのみを使用する方針を発令し、Reutersが11月に報じました。この方針は、米国が長年の輸出制限を解除し、AIチップのリーダーNvidiaやライバルAMDが中国に先端チップを販売できるようになった直後のことです。米国の政策は中国を規制するどころか、中国の半導体産業への投資と革新を促しました。
背景:米国政府はAIを地政学的に石油に匹敵するとみなし、中国の先端技術アクセスを阻止しようとしました。トランプ大統領は2017年から2020年の最初の任期で強硬姿勢をとり、2025年もこの方針を強化しました。しかし中国半導体産業が劇的に成長し、AIチップ市場の甚大な経済価値が明らかになるにつれ、Nvidiaの最大潜在市場へのアクセスを遮断することは困難に見えました。
- 4月、トランプ政権はNvidiaとAMDの下位性能チップの中国販売を禁止。Nvidiaはこの規制で55億ドルの損失を計上しました。
- 中国のHuawei CloudMatrix 384システムはNvidiaシステムに匹敵する性能を証明。384個のHuawei Ascend 910Cチップを搭載し、エネルギー消費は多いものの、Nvidiaに比べ5倍のチップ数を稼働します。
- 8月、NvidiaとAMDがトランプ大統領および中国の習近平国家主席と会談後、米国は政策転換し、輸出用チップの対中販売を再許可。この異例の取引でチップ販売企業は収益の15%を政府に納める契約となりました。
- 10月にはAIハードウェア需要の急増でNvidiaの時価総額が5兆ドルを突破、2024年中頃の3兆ドルから大幅上昇。ただし、中国市場排除は数百億ドル規模の機会損失を意味します。
- 中国は自国チップのエネルギー効率問題に対処すべく、Huaweiなど国内サプライヤー製品購入企業に最大50%のエネルギー補助金を提供。過去15年で中国の発電能力は飛躍的に増加し、米国は横ばいだったと国際エネルギー連合のデータが示す。2025年、トランプ大統領は連邦土地のリース促進と原子力発電所の許認可迅速化を命じる大統領令に署名しました。
- 11月、中国が米国製チップを禁止した後、トランプ大統領は規制をさらに緩和し、輸出用チップの中国販売を認めました。
背景:米国は最先端チップ製造装置の中国への供給阻止に一定の効果を挙げましたが、チップ本体の面では障壁が脆弱でした。
- 中国の技術中心地である深センには高性能Nvidiaチップの市場が活況を呈しました。
- AlibabaやByteDanceなど中国の大手技術企業は他国合法クラウド事業者を通じて高度なAI計算力を確保。
- DeepSeekは米国規制を前に旧世代のNvidiaチップを買い溜め、DeepSeek-R1やDeepSeek-V3モデルを旧ハードウェアでの性能最適化を図りました。
現状:中国は米国産ハードウェアを使わずに進む意思を示しています。これはHuaweiの進展を背景とした自信の表れかもしれませんし、中国半導体産業が大量生産チップ製造の最先端から数年遅れているとの評価からのブラフかもしれません。いずれにせよ、米国の強硬策は裏目に出ており、貿易規制の緩和は経済・外交の現実を踏まえた妥協と言えます。




