過去2年間、開発者エコシステムは、オープンウェイトモデルの旗手としてMetaに大きく依存してきました。私たちは、オープンソースの学習が今後も継続すると見込んで、ローカルのパイプラインをLlama 2およびLlama 3の周りに構築しました。
その時代は、公式に終わりを迎えました。
MetaはオープンソースのLlama戦略から方向転換し、Muse Sparkというクローズドな独自AIモデルを導入しました。これは単なるバックエンドの更新ではありません。新しいMeta Glassesにネイティブに結び付く、根本的なアーキテクチャの転換であり、エージェント型ワークフローの作り方そのものを大きく変えます。
業界で12年以上を過ごし、従来のMicrosoftサーバーアーキテクチャから現代の分散システムへの移り変わりを経験してきた私から言えるのは、この規模のプラットフォーム転換が、今後5年間のエンジニアリングを左右するということです。大規模なデータ基盤やML最適化システムを管理していると、マーケティングの話題だけでなく、根底にあるアーキテクチャの変化を見に行くことになります。
以下は、Muse Spark、新しい「Contemplating Mode」、そしてTypeScriptアプリを新しい独自APIへ移行する方法についての深掘りです。
1. オープンウェイトの終わり
まずは、部屋の隅にある象に正面から向き合いましょう。実用上の観点では、MetaはフロンティアのLlamaモデルを開発することをやめ、クラウド専用のMuse Sparkに注力しています。
Muse Sparkは、MetaのSuperintelligence Labsによって最初からゼロベースで構築され、まったく新しいインフラとデータパイプラインが用意されました。ダウンロード可能なウェイトはなく、自社ホスティングもできず、既存のローカルLlama環境からの明確な移行手順もありません。
企業向けアプリケーションを構築している場合、いま直面している選択肢は次の3つです。古いオープンソースモデルを使い続けるか、MistralやQwenのような競合に移行するか、あるいはMetaの新しい独自エンドポイントを採用するためにベンダー固有のAPIを書き換えるかです。
2. 「Contemplating Mode」:ML最適化のマスタークラス
オープンウェイトの喪失は痛いものの、Muse Sparkの裏にあるエンジニアリングは間違いなく非常に優れています。
大規模なMLシステムを最適化する際、私たちは常に推論コストとレイテンシと戦っています。Metaは単にパラメータをスケールするだけでなく、モデルがどのように推論するかを変えることで対処しました。Muse SparkにはContemplating Modeという機能が導入されています。
単一で直線的な思考の連鎖に頼るのではなく、Contemplating Modeは複数のエージェントを立ち上げ、それらが解決策を提案し、内容を洗練させ、結果を並列に集約します。さらにMetaは、過剰な推論トークンを使ったことに対してモデルを罰するために強化学習を活用しました(彼らはこれを「thought compression(思考の圧縮)」と呼んでいます)。
この並列エージェントのオーケストレーションにより、Muse Sparkは、はるかに単純なモデルと同程度のレイテンシを発生させながら、複雑なタスクでより良いパフォーマンスを実現できます。
️ 3. Meta Glasses & ボイスモード統合
Muse Sparkの真の強みは、ブラウザタブの中にあるのではありません。ハードウェアに直接統合されている点です。
Muse Sparkで構築されたMeta AIは、Meta Ray-Banスマートグラスの音声およびマルチモーダル・インターフェースを支える中核エンジンです。これらのグラスには、12 MPカメラ、6マイクロホンアレイ、Qualcomm Snapdragon AR1 Gen1プロセッサが搭載されています。
Muse Sparkはネイティブにマルチモーダル(262,000トークンまでのテキスト、画像、音声入力を処理)なので、グラスはリアルタイムのコンピュータビジョンと音声推論を実行できます。単にテキストを口述しているだけではありません。AIがあなたの視覚環境を能動的に処理し、オープンイヤーのスピーカーを通じて文脈に応じて応答します。
4. コード:新しいAPIを実装する
この移行に踏み切る準備ができているなら、Metaは新しいAPI向けの公式クライアントSDKを提供しています。npmで利用できる専用のllama-api-typescriptパッケージも含まれます。
新しい独自TypeScript SDKを使って、マルチモーダル要求をどのようにオーケストレーションするのかの簡単な例はこちらです。
import { LlamaAPIClient } from 'llama-api-typescript'; // 公式Meta SDK
// クライアントを初期化(環境にLLAMA_API_KEYが設定されていることを確認してください)
const client = new LlamaAPIClient();
export async function analyzeVisualEnvironment(base64Image: string) {
console.log(" Muse Spark マルチモーダル分析を開始...");
try {
const response = await client.chat.completions.create({
model: 'muse-spark-preview',
messages: [
{
role: 'system',
content: 'You are an autonomous visual assistant. Analyze the provided image and outline a step-by-step physical action plan.'
},
{
role: 'user',
content: [
{ type: "text", text: "What is the fastest way to disassemble the hardware shown in this image?" },
{ type: "image_url", image_url: { url: `data:image/jpeg;base64,${base64Image}` } }
]
}
],
// 新しい並列推論アーキテクチャを活用
extra_body: {
enable_contemplating_mode: true,
},
});
return response.choices[0].message.content;
} catch (error) {
console.error("Muse Spark APIとの通信エラー:", error);
throw error;
}
}
注: APIはSDKで「Llama」という命名規則を維持していますが、バックエンドは新しい独自アーキテクチャへルーティングしています。
要点
AIラッパーを作るための参入障壁が、いま高くなりました。Muse Sparkのようなモデルが複雑でマルチエージェントのオーケストレーションをネイティブに処理するようになると、開発者はプロンプトエンジニアリングだけでなく、深いシステム統合に注力する必要があります。
ローカルのLLMをハックして組み上げる時代から離れ、独自のクラウドホスト型モデルが、私たちの身につける端末(ハードウェア)のエコシステムを決めるフェーズへ移行しています。
あなたは新しいMuse Spark APIへアプリケーションを移行する予定ですか?それとも残っているオープンソースの代替案にとどまりますか? 下のコメントで教えてください!
この技術的な解説がお役に立てば、❤️を付けてこの記事をブックマークしてください!新しいSDKとエージェント・オーケストレーションのパターンについて、完全な手を動かす形の分解(teardown)を近日中に**AI Tooling Academy*チャンネルでお届けする予定なので、お楽しみに。



