AIが安く使えるのは今だけなのか?
今や、私たちの生活に「AI が無いなんて考えられない」。
そんな折に、以下のような書き物を見つけました。
Claude Opus 4.6やGPT-5.4のような超性能LLMが月額数千円で使用できている時代はそんなに長く続かない。この状況は原価と提供価格が整合していない異常状態だからだ。
Opus4.6のパラメータ値は推定5.8兆。この重みをただメモリに格納するだけで、10-20TBくらいの容量が必要。
それだけのVRAMを持った計算サーバーを用意するとなると、NVIDIAの超高性能GPUを複数台積んだモンスター級サーバーが必然的に必要になる。例えば、NVIDIA GB200 NVL72のようなシステム。これは72台のBlackwell GPUを連結した激ヤバマシンで、1台、約300万ドル=5億円。もちろん、消費電力は100kW級で、それをまともに動かせる設備を含めると2ケタ億は当然になる。
それだけの設備で、同時に処理できるのは数百リクエスト程度。同時にこのAIを触っている人間が1000人いたら?これだけで3ケタ億円に近いコストになってしまう。
その1000人が月額3000円を払っているとしたら?月の収入は300万円、年収で3600万円にしかならず、サーバー1台の価格すらまかなえない。この規模のインフラを月額3000円で「元を取る」のは不可能に近い。
じゃあなぜ成立しているのか。答えは単純で、今の価格はサービスの原価を反映していないから。
苛烈なAI競争に生き残った者が価格を「正常化」する。今のAI業界は、このサイクルのど真ん中にいる。OpenAIが勝とうと、Anthropicが勝とうと、Googleが勝とうと、いずれ正常化する。(後略)
──なんだか、正しいような、微妙にズレているような。
もちろん、「誰が正解」もないのですが、以下で少しばかり検証・考察を進めていきたいと思います。
▶ レトリックによる欺瞞
大前提、上記文章におけるレトリックは見逃せません。
まず、序文の駆け出しは「モデルが巨大になるほど、等比級数的に推論コストも巨大になる」という雰囲気の共有から始まっています。
しかしながら、「それが真実か否か」を具体的に示す証左は見受けられません。
Mixture of Experts(MoE)のように一部のパラメータのみを動かす設計や、量子化・蒸留といった最適化により、「見かけのモデルサイズと実際の計算コストが大きく乖離する」ことも 理論上は充分に考えられます。
側面的な雰囲気の共有をした時点で、「コストが意図的に最大化されている」と疑わざるを得ません。
また、「大人数が同時に高負荷で利用する」という極端な状況が想定されており、これも 平均利用率や非同期処理といった現実の運用条件を悉く無視しています。
つまり、「常識的に考え得る状況」ではなく、「最もコストが膨らむ状況」が恣意的に採用されており、議論全体がその上に構築されている──ということです。
(もちろん、処理のキャパシティを考慮するのは 大切なことではありますが)

さらに、収益構造についても 類似のレトリックが見られます。
個人向けサブスクリプションのみを切り出し、それがあたかも唯一の収益源であるかのように扱うことで、「(将来においても) 絶対に採算が合わない」という印象を作り出しています。
しかしながら、実際には API課金や法人契約といった高単価の収益源が存在しているのも事実で、個人に対しての廉売は「市場獲得のための導線」と供給各社が位置付けている点には留意が必要です。
斯かるビジネス構造を無視した、側面的な批判は生産性がありません。
……以上を踏まえると、当該文章は「コストが高く見える条件だけを選び、そのうえで "破綻" を作為的に証明する仕立て」になっている──と評価が下せそうです。
▶ 価格は原価超に収束するのか?
また、上記文章における議論の中核には、「価格は原価超に収束していく」という常識的前提が置かれています。
しかしながら、特に デジタルプラットフォームの領域では「この常識が当てはまらない」可能性について検討が必要です。
そもそも、デジタルプラットフォームは 当該基盤で儲けるというより、そこから数多派生するサービスにより "幾何級数的な収益" を狙うビジネスです。
そのためには "デファクトスタンダード" の認知を獲得しなければならず、斯様な市場総取りを成し遂げるにあたって 莫大なコストを投下し続けるのは、「望む or 望まない」に関わらず、もはや絶対不可避的な戦略とすら言えます。
つまり、各LLMサービス単体を切り出して「事業単体黒字化からは程遠く、ゆえに継続性がなさそう → だから恐らくとんでもない値上げをするはずだ!」と判断すること自体がナンセンスで 経営的理路を欠いている……ということ。

事業者が競争する限り、技術レベルは高位に収斂し続ける慣性が働きます。
だとすれば、シェア1位のサービサーが価格を極端に引き上げたところで、シェア2位以下のサービサーに顧客は遷移するだけでしょう。
ゆえに、"デファクトスタンダード" の実現・維持が叶わなくなるので、シェア1位のサービサーほど価格を引き上げられないジレンマに陥りやすくなります。
百歩譲って、「圧倒的技術を持った、独占的シェアを誇るサービサー」が生まれたとしましょう。
そのようなサービサーが「苛烈に価格を引き上げる」ことをしたらどうなるか?──答えは、「独占禁止法に抵触する恐れがある」です。
AI は「社会インフラに等しく成長する」と仮定すれば、独占的事業者がその価格を恣意的に吊り上げた場合、搾取類型に当てはまり、独占禁止法の対象となり得ます。
以上を整理すると、シェア確保の観点からも、法律の縛りからも、供給各社は「一度廉価で売り出した AIサービスを恣意的に(過度な)値上げをするのは困難」と結論付けられます。
▶ 返答としての結び:蓋然性高く、あり得る未来
しかしながら、上記文章は 的を射ている部分も確かにあります。
LLM の供給各社が「半導体等のアセット制約」で供給余力を失っているのは間違いなく、何かしら合理的な需給制限を設けなければ、利用者全員が「遅いな、使えないな」と感じるシロモノに落ちぶれ、結果 "デファクトスタンダード" から遠のく……ことが想定されます。
斯かる議論を一旦やわらかくすると、「AI は無形ながらも、供給制約のある商材」と見て取れます。
すなわち、AI は「単純に金銭で得られる商品」ではなく、「適切に配分すべき計算資源」としての性格を強めつつある──ということです。
実際、足許においては 多くの AIサービスが "トークン" や "クレジット" によって利用量を管理しており、これは単なる課金単位ではなく、近い将来を見据えた「計算資源の割当メカニズム」として機能している事実は見逃せません。
その際に重要なのは、斯かる配分が「中立的に行われるとは限らない」という点です。
供給各社は、①より高い付加価値を生む用途 や ②エコシステムの拡張に寄与する開発者、③継続的な利用が見込まれる(ロイヤルティが高い)主体 に対して、優先的に計算資源を配分するインセンティブを持ちます。
この構造のもとでは、たとえ同じ価格を支払っていたとしても、実際に利用できる計算資源の量や質には差が生じ得ることになります。
したがって 将来的に生じる格差は、「高価な AIにアクセスできるか否か」という単純な定量的資本差ではなく、「どのような条件を満たせば、より多くの計算資源が割り当てられるか」という定性的能力差の結果として現れる蓋然性が高い──と言えるでしょう。

供給各社間における競争は、単なるコストメリットの問題ではなく、資源配分・エコシステム創造・インフラ拡張・再帰的成長……といった複数のレイヤーで同時進行するものです。
つまるところ、その中で 価格調整は "1つの手段" に過ぎず、本質は「誰にどれだけの計算資源を使わせるか」という配分設計にあることは 論を俟ちません。
以上より、最も蓋然性の高い筋書きは、基盤的な AI機能は低価格で広く提供され続ける一方で、特別な性能 や 一定量を超える利用に関しては、単純な価格のみならず、「何らかの配分ルールによって供給制約される」というもの。
よって、真に問うべきは「AI が安く使えるのは今だけなのか (いくらになるのか)」ではなく──「誰が、如何なる条件で、どれだけの計算資源にアクセスできるのか」となってきます。
……そのうえで、「アクセスできる側」に回るためには、AI 利用の地力(定性的能力)を今から磨いておくべきなのは(どう転んでも)1つ疑いようもない事実です。
なお 余談ですが、「AI は計算資源」となる以上、国家はそれを自立調達できなければ、外交戦略上ひいては安全保障上 極めて厳しい立場に置かれることは目に見えています。
ゆえに、"国産 AI" は斯かる文脈からも成長実現が急がれる分野であり、また当然、大元の素材となる半導体やレアメタル、機械装置の技術や潤沢な水資源を押さえることも "未来を握る最重要戦略" と今一度理解しておくべきでしょう。

▼過去の「日経平均ハイライト」はマガジンからどうぞ!

ここから先は
メンバーシップ ¥ 1,100 /月〜
でこいそうけん が たれながす じょうほう を あますことなく うけとめる ため の めんばーしっぷ…
応援プラン
KOMMON petit
応援して頂けると幸いです🦆🦆🦆





