Intercomの新たなポスト学習モデル「Fin Apex 1.0」が、カスタマーサポートの解決精度でGPT-5.4およびClaude Sonnet 4.6に勝利

VentureBeat / 2026/3/27

📰 ニュースSignals & Early TrendsIndustry & Market MovesModels & Research

要点

  • Intercomは、週200万件以上の会話に使用されている既存のFin AIエージェントの中で、カスタマーサービスにおける解決結果の向上を目的とした、小型の特化型AIモデル「Fin Apex 1.0」を発表した。
  • 共有ベンチマークでは、Fin Apex 1.0は顧客課題の解決率73.1%に到達し、GPT-5.4(71.1%)やClaude Sonnet/Opus系(69.6〜71.1%)を上回るとされており、同等のフロンティアモデルに対して約2ポイントの優位性があると主張している。
  • 同社はまた、応答が速い(3.7秒)ことや、幻覚(ハルシネーション)がClaude Sonnet 4.6比で65%削減されることも主張しており、Apexをサポート業務においてより正確で効率的な選択肢として位置づけている。
  • Intercomによれば、Apexはフロンティアモデルを直接使う場合の約5分の1のコストで動作し、既存の「1アウトカムあたり」の価格設定に組み込まれているという。企業の導入しやすさと統合上のメリットを強調している。
  • IntercomはApexの基盤モデルやパラメータ数は開示しておらず(「数千億」の範囲にあると言うにとどまる)、また時間の経過に伴い基盤モデルを切り替える可能性があると述べている。そのため、顧客サポート領域以外でも同程度の改善がどれほど一般化できるのかといった点は未解決のままだ。

Intercom は、レガシーのソフトウェア企業としては異例の賭けに出ています。自社のAIモデルを構築するのです。

15年の歴史を持つ巨大なカスタマーサービス基盤である 同社は木曜日、同社によれば、顧客サポートで最も重要な指標において、OpenAI と Anthropic の主要なフロンティアモデルを上回るという、小規模で用途に特化したAIモデル「Fin Apex 1.0」を発表しました。

このモデルは Intercom の既存の Fin AIエージェント を動かしており、同エージェントはすでに週あたり200万件超の顧客との会話を処理しています。

VentureBeat に共有したベンチマークによれば、Fin Apex 1.0 は解決率 73.1%(人の介入なしに、顧客の問題を完全に解決できた割合)を達成しています。これは、GPT-5.4 と Claude Opus 4.5 の双方が 71.1%、Claude Sonnet 4.6 が 69.6% であるのに対し、という数値です。この、おおよそ2ポイントの差は控えめに聞こえるかもしれませんが、連続するフロンティアモデル同士で見られる典型的なギャップよりも広いのです。

「大規模に大きなサービス運用を回していて、顧客が1000万人もいる、あるいは売上が10億ドルあるような状況で、2% か 3% のデルタは、本当に大きい。顧客の数や、やりとりの量、そして売上の面でね」と、Intercom CEO の Eoghan McCabe は、今週初めに行われたビデオ通話のインタビューで VentureBeat に語りました。

このモデルは、速度と正確性でも大きな改善を示しています。Fin Apex の応答は 3.7秒で、次に速い競合より 0.6秒速く、さらに Claude Sonnet 4.6 と比べて幻覚(ハルシネーション)を 65% 削減したことを示しています。

おそらく最も注目すべきなのはエンタープライズの購買側にとっての点でしょう。このモデルは、フロンティアモデルを直接使う場合のコストの約5分の1で動作し、さらに既存の顧客向けプランに対して Intercom がすでに提供している「成果(アウトカム)あたり」の価格設定構造に含まれます。

ベースモデルは何?そもそも重要なの?

しかし、落とし穴があります。Apex がどのベースモデルの上に構築されたのか、そしてパラメータ規模はどれくらいなのかを指定するよう求められた際、Intercom は明らかにしませんでした。

「競争上の理由に加えて、時間の経過とともにベースモデルを切り替える予定があるため、Apex 1.0 に使用したベースモデルは共有していません」と、同社の広報担当者は VentureBeat に伝えました。同社が確認できたのは、モデルが「数百億パラメータの規模にある」ことだけでした。

For 比較すると、Meta の Llama 3.1 は 80億から4050億パラメータの範囲です。そして GPT-5.4 のようなより大きいフロンティアモデルは、兆(トリリオン)規模であると推測されています。

Apex の性能主張が、その文脈の中で実際にどこまで裏付けられるのか、あるいは、そのベンチマークが狭い領域特化のアプリケーションでのみ可能な最適化を反映しているのか――それは現時点では未解決の問いです。

Intercom は、Cursor が受けた反発 から学んだと述べています。反発の対象は、批評家がコーディング支援ツールが、Composer 2 モデルが独自技術ではなくファインチューニングされたオープンウェイトモデルに基づいて構築されている事実を隠していると非難したことでした。しかし Intercom が得た教訓は、懐疑的な人々を必ずしも納得させないかもしれません。同社は、どのベースモデルかは明かしていないものの、オープンウェイトのベースを使用したこと自体は透明性がある、としているからです。

「私たちがオープンウェイトのモデルを使っていることについては、非常に透明性があります」と、広報担当者は述べました。それでも、透明性をうたいながらモデル名を挙げないのは矛盾であり、注目を集めることになるでしょう。とりわけ、「事後学習したオープンソースの土台に過ぎない」AIに対して、より多くの企業が「プロプライエタリ(独自)」だと宣伝するようになってきているからです。

新しいフロンティアはポストトレーニング

Intercom の主張は、ベースモデル自体はもはやあまり重要ではない、というものです。

「事前学習は、いまや一種のコモディティみたいなものになっています」と McCabe は言いました。「で、フロンティアがあるとすれば、それは実はポストトレーニングです。ポストトレーニングのほうが難しい。必要なのはプロプライエタリなデータです。必要なのはプロプライエタリな“真実の源”です。」

同社は、Fin を通じて蓄積されてきた数年分のプロプライエタリなカスタマーサービスデータを使って、選んだ基盤モデルをポストトレーニングしました。Fin は現在、週あたり 200万件の顧客問い合わせを解決しています。このプロセスは、単にトランスクリプトをモデルに投入するだけではありませんでした。Intercom は、実際の解決という成果に基づいた強化学習システムを構築し、成功する顧客対応が実際にどのようなものかをモデルに教えました。つまり、適切なトーン、判断の仕方、会話の構造、そして決定的に重要なのは、問題が本当に解決されたのか、それとも顧客がまだ不満を抱いているのかを認識する方法です。

「一般的なモデルは、インターネット上の一般的なデータで学習します。一方で、特定のモデルは、超具体的な領域データで学習します」と McCabe は説明しました。「だから当然、一般的なモデルの“知性”は一般的であり、特定のモデルの“知性”は領域に特化している。その結果、当該のユースケースにおいては、はるかに優れた形で動作するということになります。」

もし McCabe の言うとおり“魔法”が完全にポストトレーニングにあるのなら、ベースモデル名を明かしたがらない姿勢はより正当化しにくくなります。基盤が本当に取り替え可能なら、機密性が守っている競争優位とは一体何なのでしょうか。

1億ドルの賭けが報われる

今回の発表は、Intercom の「AIファースト」への転換が機能しているように見えるタイミングで行われました。Fin は年次経常収益で約1億ドルに近づき、伸び率は 3.5倍です。これにより、同社の 4億ドル規模の ARR ビジネスの中で最も成長が速いセグメントになっています。Fin は、来年の早い時期に Intercom の総収益の半分を占めると見込まれています。

この成長軌道は驚くべき立て直しを示しています。Fin がローンチした当時、解決率はわずか 23% でした。現在では顧客全体で平均 67% となっており、規模の大きいエンタープライズの一部導入では 75% まで到達するケースもあります。

その実現のために Intercom は、この3年間でAIチームを、当初の約6人の研究者から 60人へと増やしました。これは、McCabe が「AI転換前は本当に悪い状態」だったと認めるような会社にとって、大きな投資です。上場ソフトウェア企業の平均的な成長率はおよそ11%です。Intercom は今年、37% 成長を達成すると見込んでいます。

「私たちはカテゴリーの中で断トツで、自分たちで自社モデルを学習させている最初の存在です」と McCabe は言いました。「これを(誰かが)1年以上手元に置ける人はいないはずです。」

AIの“棲み分け”と専門化

McCabe の見立ては、最近 Andrej Karpathy(Tesla と OpenAI の元AIリーダー)が「AIモデルの“棲み分け(speciation)”」として説明した、より大きなトレンドとも一致しています。すなわち、一般的な知能ではなく狭いタスクのために最適化された、専門特化型システムの増殖です。

McCabe は、カスタマーサービスはこのアプローチにとって独特に適していると主張します。エンタープライズ向けAIのユースケースとして、実際に十分な経済的な勢いを得たものは、現時点では2つか3つしかない。その中には、コーディング支援と、場合によってはリーガルAIが含まれます。これが、Decagon や Sierra のような競合に対して10億ドル超のベンチャー資金を呼び込み――そして、McCabe の言葉を借りれば、この領域を「容赦なく競争が激しい」ものにしてきました。

問題は、領域特化型モデルが持続可能な優位性をもたらすのか、それともフロンティアの研究所が最終的に埋めてしまう一時的な裁定なのか、という点です。McCabe は、研究所には構造的な制約があると考えています。

「将来は、Anthropic がさまざまな専門特化モデルを大きく提供している状態になっているかもしれません。たぶんそういう姿になるでしょう」と彼は言いました。「でも現実には、少なくとも今の時点では、汎用モデルが領域特化モデルに追いつけるとは思っていません。」

効率を超えて“体験”へ

最初期のエンタープライズでのAI導入は、コスト削減に大きく焦点が当たっていました。高価な人間のエージェントを、より安価な自動化へ置き換えるのです。しかし McCabe は、議論の焦点が体験の質へと移っていると見ています。

「もともとは、'クソ、これだけ安く実現できるんだ。'って感じだった。ところが今は、'待って、いや顧客にとってもっとずっと良い体験を提供できる。'と考えているんだ」と彼は言った。

その構想は単なる問い合わせの解決を超えて広がる。マケイブは、AIエージェントがコンサルタントのように機能する世界を思い描いている。例えば靴の小売業者のボットが、配送に関する質問に答えるだけでなく、スタイリングの助言をし、顧客に対して異なる選択肢がどのように見えるかを示す、といった具合だ。

「カスタマーサービスって、ずっとかなりひどいんだよ」とマケイブは率直に言った。「どれほど最良のブランドでも、電話を待たされるし、部署をたらい回しにされる。今こそ、本当に完璧な顧客体験を提供するチャンスがある。」

料金と提供状況

既存のFinの顧客にとって、Apexへのアップグレードは追加コストなしで提供される。Intercomは、顧客の価格が変わらないことを確認した。利用者はこれまで通り、解決されたやり取り1件あたり0.99ドルを成果ごとに支払い、新しいモデルを自動的に利用できる。

Apexは単体のモデルとして、または外部API経由では提供されない。Fin経由でのみ利用可能であるため、企業はモデルを独自にライセンスしたり、自社製品に統合したりできない。この制約は、Intercomが既存の顧客基盤以外でモデルを収益化する能力を制限する可能性があるが、それでも、基盤となるベースモデルが何であろうと、技術を実務上の意味でプロプライエタリ(独自の所有物)として保つことにはつながる。

次に何が起こるか

Intercomは、Finをカスタマーサービスの領域を超えて、営業やマーケティングへと拡大する計画だ。これは、顧客ライフサイクル全体にわたってAIエージェントを提供することを目指すSalesforceのAgentforce構想に対する、直接の競合として位置づける。

より広いSaaS業界にとって、Intercomの動きは気まずい問いを投げかけている。もし15年選手のカスタマーサービス企業が、自社の領域でOpenAIやAnthropicを上回るモデルを構築できるのだとしたら、汎用的なAPI呼び出しに依存し続けるベンダーには何が意味するのか。さらに、マケイブが主張するように「事後学習が新たなフロンティア」だとすれば、ブレイクスルーをうたう企業は、自分たちの作業を示すことを迫られるのか。それとも、透明性を標榜しつつ、競争上の秘匿の背後に隠れ続けるのか。

最初の問いへのマケイブの答えは、