
●この記事のポイント
OpenAIがアマゾンとソフトバンクグループから総額1100億ドル(約17兆円)の追加投資を受ける見通しとなり、AI業界の勢力図が大きく動いている。一方で、同社のフリーキャッシュフローは2027年に最大570億ドルの赤字に達する可能性が指摘されている。背景には、次世代AIモデル開発に必要なGPU、電力、データセンターなどの巨額インフラ投資がある。マイクロソフトやエヌビディアとの関係変化、2026年IPO観測を含め、生成AIビジネスが「ソフトウェア産業」から「インフラ産業」へ変質しつつある実態を読み解く。
AI業界の覇権争いが新たな局面に入った。米OpenAIが、アマゾンとソフトバンクグループから総額1100億ドル(約17兆円)に及ぶ追加投資を受ける見通しとなり、市場では同社の企業価値が8000億ドル(約130兆円)規模に達するとの観測が広がっている。
同時に、2026年内の新規株式公開(IPO)の可能性も取り沙汰されている。AI企業としては史上最大級となる上場案件になる可能性が高く、ウォール街でも注目度は極めて高い。
しかし、その華々しいニュースの裏側で、米国の機関投資家やアナリストの間ではある「不都合な数字」が議論されている。
それが、2027年に最大570億ドル(約8.5兆円)のフリーキャッシュフロー赤字に達する可能性という試算だ。つまり、17兆円という巨額資金ですら、わずか数年で消費される可能性があるというのである。
なぜAI企業は、これほどまでに資金を燃やすのか。その理由は、生成AIの進化が突き当たる「物理の壁」にある。
●目次
OpenAIのビジネスモデルは、従来のソフトウェア企業とは根本的に異なる。SaaS企業の場合、最大のコストは開発人件費であり、一度ソフトウェアが完成すれば、追加ユーザーは比較的低コストで獲得できる。しかし、生成AIは事情がまったく違う。
モデルを進化させるたびに、計算能力・電力・インフラが指数関数的に増えるからだ。AI投資の大半は、次の三つに集中している。
(1)GPUコスト
次世代モデル(GPT-6以降)では、NVIDIAのH100やB200などの高性能GPUを数万〜数十万台単位で稼働させる必要があるとされる。
現在、H100の市場価格は数万ドル規模。AIクラスタの構築費用は、一つの巨大データセンターで数十億ドルに達する。
(2)電力コスト
AIモデルの訓練には、都市レベルの電力が必要とされる。米国のAIデータセンターでは、一拠点で1GW(原発1基分)に迫る電力需要が議論されている。
AIはもはやソフトウェア産業ではなく、巨大なエネルギー産業の一部になりつつある。
(3)インフラ投資
OpenAIは近年、データセンターの自前構築やAI専用チップ開発にも関与している。これは長期的にはコスト削減につながる可能性があるが、短期的には巨額の設備投資(CAPEX)を伴う。
結果として、アナリストの一部は次のように予測する。
2027年:フリーキャッシュフロー −570億ドル
この数字が現実になれば、OpenAIは史上最大級の「キャッシュバーン企業」になる。
もう一つ興味深いのは、OpenAIを取り巻く同盟関係の変化だ。
かつて同社の最大のパートナーは、マイクロソフトだった。同社はOpenAIに累計100億ドル以上を投資し、ChatGPTを自社のクラウド「Azure」に統合。CopilotなどのAIサービスの基盤にもOpenAIモデルを採用している。