親愛なる皆さま、
米国および多くの国での求職者の状況は厳しいものです。一方で、AIによる職の喪失に対する恐怖は、これまでのところ誇張されていると言えます。しかし、AIスキルの需要が求職市場に変化をもたらし始めています。私が現場で見ていることを共有したいと思います。
まず、多くのテック企業が昨年にかけて従業員を解雇しました。一部のCEOは理由としてAIの普及を挙げました—AIが仕事をこなすため、人間は不要になったというのです。ですが現実には、AIはまだ十分には機能していません。多くの解雇はパンデミック期の過剰採用の調整や、コスト削減、組織再編の一環であり、現代のAIが登場する前からたびたび行われてきたものです。ごく一部の職種を除いて、AIによる自動化が原因での解雇はほとんど見られません。
将来的には変わるかもしれません。コールセンターオペレーター、翻訳者、声優といったAI自動化に特に露出している職種の人々は、職探しで苦戦を強いられたり、給与が低下したりする可能性があります。しかし、広範な職の喪失は誇張されています。
代わりに広く言われているのは、「AIが労働者を置き換えるのではなく、AIを使う労働者が使わない労働者に取って代わる」ということです。例えば、AIコーディングツールのおかげで開発者ははるかに効率的に仕事ができるため、それを使いこなせる開発者の需要が高まっています。(こうした人材を目指すならば、ぜひ私たちの短期講座Claude Code、Gemini CLI、およびAgentic Skillsを受講してください!)
つまり、AIは職の喪失を引き起こしていますが、その形は微妙です。適応しない従業員を手放し、AIに適応できる人材に置き換える企業が増えています。この傾向はソフトウェア開発で既に明らかであり、多くのスタートアップの採用状況からも、従来は非技術職と考えられてきたマーケター、採用担当者、アナリストなどでコードとAIを使える者の方が非適応者より生産性が高いため、徐々に適応できない従業員と別れるケースが見られます。この流れは加速すると予想されます。

同時に、企業がAIネイティブな新チームを構築する際、新しいチームは従来より小さくなることがあります。AIが個々の能力を高めることで、チーム規模の縮小が可能になるのです。例えば、AIがソフトウェア構築を簡単にした結果、現状のボトルネックは何を作るかの決定に移っており、これはプロダクトマネジメント(PM)ボトルネックと呼ばれています。かつては8人のエンジニアと1人のPMが担当していたプロジェクトが、2人のエンジニアと1人のPM、あるいは1人のエンジニア兼プロダクト担当が担当するようになっていることもあります。
従業員にとっての朗報は、多くの企業が大量の仕事を抱えており、それをこなす人手が不足していることです。適切なAIスキルを持つ人々は昇進やより多くの仕事への挑戦の機会を得て、AI活用によって迅速化されたためこれまで手がつけられなかった多くの企画を実現できるようになっています。多くの従業員が新たな価値を創出して企業を助けています。機会は豊富です!
これらの変化はストレスを伴うことを私も理解しています。解雇に直面したご家族、望む仕事を探す求職者、そして自分の将来の仕事に不安を抱える多くの方に心からお見舞い申し上げます。幸いなことに、まだ学び、職市場の動向に適応する時間は残されています。AIに関しては、技術者、非技術者を問わず、ほとんどの人がまだ出発点に立っているか、ごく最近その段階にありました。したがって、学び続け、構築し続けるのは今が絶好の機会であり、それを行う人には多くのチャンスがあります!
アンドリュー
DEEPLEARNING.AI からのメッセージ

「Document AI: OCRからエージェント式文書抽出へ」では、文書システムがテキスト抽出を超えた機能をどう実現しているかを探ります。視覚優先・エージェント型パイプラインがPDFを構造化されたMarkdownやJSONに変換しつつ、レイアウト、表、グラフも保持します。LandingAIとの協力で構築されました。今すぐ登録
ニュース

Agents Unleashed
オープンクロー(OpenClaw)というオープンソースのAIエージェントが突如話題となり、エージェント未来への期待と懸念、そして過剰な期待を巻き起こしました。
何が起きたか: 11月、開発者ピーター・スタインバーガーはOpenClawをリリースしました。これは、かつてWhatsApp Relay、Clawdbot、Moltbotと呼ばれ、個人用AIエージェントとしてカレンダー管理、メール要約、リマインダー送信などを行います。クラウドソーシング技術ニュースサイトで1月下旬に取り上げられ、瞬く間に人気が急上昇し、GitHubで最速成長スター数を集め、Claude Codeを超えるGoogle検索も記録しました。
- 数日で当初MacOSやLinuxのローカルで動かすために設計されたこのプロジェクトは200万人の訪問者と何百万ものインストール数を記録。趣味人たちはエージェントを24時間稼働させる専用マシンとしてMac Miniの売り切れを招きました。
- ユーザーはOpenClawエージェントにスケジュール管理やバイブコーディングの監視、個人のWebサイトやニュースレターの投稿を指示。一人はサブエージェントを構築させ、1週間以内に代理が電話で起こすという事態に。本人曰く、エージェントが独自に電話番号を登録し、音声APIに接続して朝まで待機した上で「どうした?」と尋ねてきたとのこと。
- テック起業家マット・シュリヒトがMoltbookというReddit風のオープンクローエージェント主体のソーシャルネットワークを立ち上げました。1週間も経たずにユーザーは100万個ものエージェントを作成。プロンプトや作成者がデフォルトメモリーに書いた説明文で、サイトはマニフェスト、人生の物語、スパムで溢れました。
- 一方で、エージェントの活動はコストの超過、プライベート認証情報の漏洩やセキュリティ侵害を引き起こし、ユーザーはシステムの脆弱性を対応に追われました。
仕組み:OpenClawはローカルPCかクラウド内の仮想マシンで動作する設定可能なエージェントフレームワークです。ユーザーはローカルファイルシステムの閲覧・書き込みや、あらかじめ定義されたサンドボックス内での操作をするエージェントを構築可能。メール、カレンダー、音声認識・合成などAPIで応答するクラウドサービスの使用許可も可能。Claude Codeのようなコーディングツール使用、SNS上でのインタラクション、ウェブサイトのスクレイピング、さらには使用者の代わりに金銭を支出することもできる。
- アーキテクチャ:中央ゲートウェイサーバーとチャット、ブラウザ、クラウドサービスなど複数のクライアントアプリで構成。起動時に動的なシステムプロンプト生成し、Markdownファイルによる永続メモリーを維持。
- メモリー:デフォルトのメモリーファイルにはUSER.md(ユーザー情報)、IDENTITY.md(エージェント情報)、SOUL.md(エージェント行動規則)、TOOLS.md(利用可能なツール情報)、HEARTBEAT.md(接続管理)があり、ユーザーとエージェントの双方が編集可能。
- モデル:ユーザーは自由にAI APIを選択しAnthropic Claude OpusやMeta Llama 3.3 70Bがデフォルト。他にGoogle、OpenAI、Moonshot、Z.ai、MiniMaxなどのモデルも対応。OpenClaw自体は無料だが、モデルホスティングはトークンごとに課金される場合あり。
- ユーザーインターフェース:チャットボットやTelegram、WhatsApp、Slack、iMessage、Google Chatなどのメッセージングサービスを介してエージェントと対話可能。
- スキル:メールの送受信やカレンダー招待操作、家庭用スピーカーや照明制御など数十種類を標準搭載。コマンドラインかClawHubから拡張可。多くはオープンソースCLIアプリや公開API連携。
しかし:OpenClawとMoltbookはローンチ時、多くのセキュリティ欠陥や問題を抱え、執筆時点でいくつかは修正済みです。オープンエンドシステムと設計上の不備、そして初心者ユーザーの組み合わせが脆弱性を生み、誤設定のOpenClawはAPIキーなどの機密情報を漏洩。Moltbookも数百万件を暴露。悪意あるデータ盗用スキルも急増。多くのユーザーはプライベート情報漏洩防止のために専用マシンでの運用を選択。
重要な理由:OpenClawは大きな注目を浴び、著名なAIコミュニティメンバーの間でその新規性や重要性について議論を巻き起こしました。開発者にとっては高度なカスタマイズが可能な強力AIアシスタントでありながらも、慎重なセキュリティ対策が必要とされます。また、人間の最小限の介入で独立して活動する自律エージェントの未来を垣間見せる事例とも言えます。
私たちの見解:創造的で野心的なオープンソースプロジェクトとして、OpenClawは多大な期待と誇張を生み出しました。報道では、Moltbook— GPT-3以降、世界を驚かせ楽しませてきた大規模言語モデルの出力と大差ないメッセージを保持—をAGIやシンギュラリティ到来に例えていますが、現状はまだそこには程遠いことを断言します。OpenClawはエージェントが非常に有用であること、活用事例を模索中であること、セキュリティに注意を払う必要があることを示しています。そして、あなたのオープンソースプロジェクトが突然ブレイクする可能性だってあります!

Kimi K2.5が独自の労働力を創出
オープンソースの視覚言語モデルが小型エージェントを解放し、より迅速かつ効果的にタスクを遂行可能にしました。
新情報:Moonshot AIは、視覚機能を追加し、著者がサブエージェントと呼ぶタスクを実行する独立したモデル群をスポーンし、それらに仕事を割り当てる機能を持つKimi K2大規模言語モデルの最新版Kimi K2.5をリリースしました。
- 入出力:テキスト、画像、動画入力(最大256,000トークン)、テキスト出力(毎秒109.5トークン)
- アーキテクチャ:MoonViT視覚エンコーダー(4億パラメータ)、専門家混合トランスフォーマー(総計1兆パラメータ、1トークンあたり320億パラメータ稼働)
- 性能:人工分析インデックスで全オープンウェイトモデル中トップ
- 提供:無料のWeb UI、非商用および商用用途にて帰属下でダウンロード可能(修正版MITライセンス)、APIは入力/キャッシュ/出力トークンあたり$0.60/$0.10/$3.00、コーディングアシスタントは月額$15~$200
- 特徴:ツール呼び出し、Web検索、任意の推論モード、サブエージェント機能
- 非公開:訓練データ、訓練手法
仕組み:MoonshotはKimi K2.5の具体的構築方法についてはほとんど明かしていませんが、以下を明示しています。
- Kimi K2.5は今年7月にリリースされたテキストオンリーのKimi K2-Baseに視覚エンコーダーを追加、そして15兆の画像・テキストトークンで追加事前学習しました。
- 強化学習により、Kimi K2.5はプロンプトを受けると並行的にタスクを実行するサブエージェントを生成し、それらに仕事を割り当て出力を回答に統合。サブエージェントを生成し正確に問題解決すると報酬を得ました。例えば100のドメインでYouTubeトップ3チャンネルを特定せよとの指示で、各ドメインの情報収集、100のドメイン特化サブエージェントによるYouTube検索を行い、結果をスプレッドシートにまとめることを学びました。
結果:独立AIテスト機関の人工分析インテリジェンス指数(10ベンチマーク重み付け平均)では、思考モード起動時のKimi K2.5がテストした全てのオープンウェイトモデルを上回ります。Moonshotの独自テストでは:
- 思考モードのKimi K2.5は推論、視覚、コーディング、エージェント動作の各指標でGPT 5.2 xhigh、Claude 4.5 Opus拡張思考、Gemini 3 Pro高思考を含む独自モデルを一部ベンチマークで凌駕しました。
- 画像・動画ベンチマーク17種中9種で最高得点を獲得、競合モデルを上回りました。
- サブエージェントはパフォーマンスを3~4.5倍加速し、エージェントベンチマークBrowseCompとWideSearchでそれぞれ18.4ポイントと6.3ポイントの向上を実現。
しかし:サブエージェント利用による処理負荷とメモリ消費量は公開されておらず、速度・性能とコストのトレードオフは不明です。
背景:Kimi K2.5は16億パラメータと小規模だったMoonshot初の視覚言語モデルKimi-VL(MoonViT搭載)の7か月後に登場しました。
重要な理由:エージェント方式のワークフロー構築によりモデルの特定タスク性能が向上します。あらかじめ定義したワークフローと異なり、Kimi K2.5はサブエージェントの必要性・内容・業務委任の判断を自動で行い、並列処理が容易なタスクで性能を上げています。
私たちの考え:Kimi K2.5は思考の連鎖からエージェントチームワークへとタスク遂行をシフトさせています。従来の逐次応答ではなく、様々なワークフローやモデルを管理して並行して仕事をさせるスタイルです。

AI大手がウィキペディアの費用を分担
創設25周年を迎えたウィキペディアは、データをAI企業がモデル学習に使いやすくする高額な提携契約で祝いました。
新しい動き:ウィキメディア財団はAmazon、Meta、Microsoft、Mistral AI、PerplexityなどAI企業とのパートナーシップを発表。Wikimedia Enterpriseとしてウェブページをスクレイピングするより高速かつ大量にウィキペディアのデータアクセスを許諾。金銭条件は非公開。
仕組み:ユーザー寄付に加え、企業パートナー契約がウィキメディア財団の主要収入源。Wikimedia EnterpriseはAPI経由で百科事典記事や他のWikimediaデータ(Commons画像、Wiktionary辞書、Wikidata構造化知識)にアクセス可能。無料プランは更新範囲とサポートポータルに制限あり。有料プラン(非公開条件)は毎日のスナップショット提供、データリクエスト無制限(支払額に応じ制限変動)、リアルタイム編集ストリーミング、人間スタッフによる技術サポート含む。
- ウィキペディアのデータはクリエイティブ・コモンズライセンスで無料で商用・非商用利用可能。無料で高品質なためAIモデル学習の重要データ源となっている。財団は非商用AI学習用にKaggleデータセットも公開。
- ウィキペディアには人間ユーザーより自動クローラーからのアクセスが多い。創設者ジミー・ウェールズはAI学習用クローラーがホスティング・メモリ・サーバーコスト急増の要因とし、AI開発者に財政支援、API利用、適切な記事引用を呼びかけ。
- Microsoft、Mistral AI、Perplexityは昨年中に企業パートナーに加盟。AmazonとMetaとの既存契約は当初公表されていなかったもの。Googleは2022年に参加。
- 財団は環境配慮を売りにするEcosia(検索)、Pleias(LLM構築)、ProRata(AI検索・広告・帰属エンジン)ともパートナーシップを発表。
背景:AI学習で広く使われる他の出版社も報酬要求に取り組み、成功はまちまち。2023年にはRedditとStack OverflowがAIクローラーからデータ保護とライセンス交渉を発表。RedditはGoogleやOpenAI等とライセンス合意に至ったが、Stack Overflowはサイト内の質問数が2014年の月20万件から2025年末に5万件に激減。技術相談からAIモデルへの質問シフトにともない、収益源を広告からAI学習用データの再パッケージに転換した。
重要な理由:AI企業はAPI経由でのウィキペディアデータ取得を望んでいます。APIはウェブスクレイピングより遥かに高速で、大量かつ更新の速い百科事典の改訂にも対応可能。一方、ウィキペディアも存続には収益が必要で、API販売は開発者支援と財政基盤強化の両立を可能にします。
私たちの見解:これらの契約は双方に利益をもたらします。オンライン百科事典を旧来通り利用したい人も継続でき、AIモデルを構築する人々は重要な学習データ源を失う不安が減るでしょう。

小型で高性能なモデルのレシピ
MistralはMistral Small 3.1を大幅に小型化し、同程度のサイズの競合モデルより一部性能で優れた14B、8B、3BパラメータのMinistral 3ファミリーを作り出しました。手法はプルーニングと蒸留の組み合わせです。
新情報:Mistral AIはMinistral 3ファミリーの重みを公開し、それぞれ14B、8B、3Bパラメータ。各サイズはベース、指示調整版、推論仕様版があり、蒸留プロセスを論文で詳細説明しています。
- 入出力:テキスト・画像入力(最大256,000トークン、推論版は最大128,000トークン)、テキスト出力
- アーキテクチャ:デコーダー専用トランスフォーマー
- 性能:Ministral 3 14BベースはMistral Small 3.1(24B)に匹敵し、小型モデルも追随
- 特徴:ツール使用、多言語対応(英語、フランス語、スペイン語、ドイツ語、イタリア語、ポルトガル語、オランダ語、中国語、日本語、韓国語、アラビア語)
- 提供:重みはApache 2.0ライセンスで無料ダウンロード可能、APIは14Bで入力/出力トークン各$0.20、8Bは$0.15、3Bは$0.10
- 非公開:訓練データ
仕組み:チームはカスケード(段階的)蒸留を用い、より大きな親モデルからプルーニング(重要度低いパラメータ削除)と蒸留(小型モデルに親の出力を模倣させる訓練)を交互に進め、順次小さな子モデルを作成。
- Mistral Small 3.1(24B)をプルーニングしMinistral 3 14Bを作り、次に8B、3Bへと続く。
- 入力変化が少ない層から削除し、内部表現のサイズや全結合層幅も縮小。
- プルーニング後、Mistral Small 3.1を模倣するよう事前訓練。Mistral Medium 3(パラメータ数非公開)を模倣するよりも良好な結果。微調整段階ではMedium 3の模倣で改善も。
- 指示従順化は望ましい振る舞い例による訓練を経て、LLMを使ったODPO手法で応答良し悪しを比較し好ましい出力へ誘導。
- 推論モデルは数学、コーディング、多言語、ツール使用、視覚推論のステップバイステップ例で学習後、GRPO法でさらなる性能向上。
性能:Ministral 3 14B(バージョン未詳)は人工分析インテリジェンス指数でMistral Small 3.1および3.2を上回る。MistralはMinistral 3を24BのMistral Small 3.1や同等サイズのオープンウェイト競合と比較。Ministral 3 14Bベースは数学・多モーダル理解で1~12ポイント上回り、Pythonコーディングでは互角。GPQA Diamondでも親モデルを上回った。主な比較:
- TriviaQAではMinistral 3 14B(74.9%)はQwen 3 14B(70.3%)より高評価も、Gemma 3 12B(78.8%)には及ばず。MATHではMinistral 3 14B(67.6%)がQwen 3 14B(62%)を上回り、他分野ではほぼ互角。AIME 2025(高校生数学コンテスト)での推論は85%の正解率で、Qwen 3 14B Thinkingの73.7%上回る。
- Ministral 3 8BベースはTriviaQAを除き上位モデルGemma 3 12Bを凌駕。
- Ministral 3 3BベースはGemma 3 4BやQwen 3 4Bと競合、特にMATHで強み。
重要な理由:カスケード蒸留は単一の親モデルから、高性能なファミリーを従来より低コストで生産可能。Ministral 3の訓練トークンは1〜3兆、Qwen 3やLlama 3の同等サイズモデルの15〜36兆より少なく、訓練時間も短く、訓練アルゴリズムは比較的シンプル。この手法により開発者は高コストを伴わず複数サイズモデルを構築できます。
私たちの考え:Ministral 3モデルは汎用ノートPCやスマホで実行可能。エッジでのオンデバイスAIがますます高性能かつ競争力を高めています!
