ゼファーネットのロゴ

ジェネレーティブ AI プラットフォームの所有者は誰ですか?

日付:

技術スタックの非常に初期の段階が、生成型人工知能 (AI) で出現し始めています。 何百もの新しいスタートアップが、基盤モデルの開発、AI ネイティブ アプリの構築、インフラストラクチャ/ツールの立ち上げのために市場に殺到しています。

多くのホットなテクノロジー トレンドは、市場が追いつく前に誇大宣伝されます。 しかし、ジェネレーティブ AI ブームには、実際の市場での実際の利益と、実際の企業からの実際の牽引力が伴いました。 Stable Diffusion や ChatGPT などのモデルは、ユーザー数の増加の歴史的な記録を打ち立てており、いくつかのアプリケーションは、発売後 100 年足らずで年間収益が XNUMX 億ドルに達しています。 AI モデルを並べて比較 人間を凌駕する いくつかのタスクでは、桁違いに。 

したがって、大規模な変革が起こっていることを示唆する十分な初期データがあります。 私たちが知らないこと、そして現在重要な問題になっていることは次のとおりです。 この市場のどこで価値が発生しますか?

昨年、私たちはジェネレーティブ AI を直接扱う大企業の数十人のスタートアップの創業者やオペレーターに会いました。 私たちはそれを観察しました インフラベンダー これまでのところ、この市場で最大の勝者である可能性が高く、スタックを流れるドルの大部分を獲得しています。 アプリケーション会社 トップラインの収益を非常に急速に伸ばしていますが、多くの場合、保持、製品の差別化、および粗利益に苦労しています. そしてほとんど モデル プロバイダー、この市場の存在そのものに責任がありますが、まだ大きな商業規模を達成していません.

つまり、生成 AI モデルをトレーニングして新しいアプリに適用するなど、最大の価値を生み出している企業は、そのほとんどを獲得できていないということです。 次に何が起こるかを予測することは、はるかに困難です。 しかし、理解すべき重要なことは、スタックのどの部分が真に差別化され、防御可能であるかということです。 これは、市場構造 (つまり、横型企業と縦型企業の発展) と長期的な価値の原動力 (利益率と維持率など) に大きな影響を与えるでしょう。 これまでのところ、構造的な防御可能性を見つけるのに苦労してきました どこにでも 現職者のための伝統的な壕の外にある、スタック内。

私たちはジェネレーティブ AI に対して非常に強気であり、それがソフトウェア業界だけでなく、それを超えて大きな影響を与えると信じています。 この記事の目的は、市場のダイナミクスを明らかにし、ジェネレーティブ AI ビジネス モデルに関する幅広い質問に答え始めることです。

高レベルの技術スタック: インフラストラクチャ、モデル、アプリ

ジェネレーティブ AI 市場がどのように形成されているかを理解するには、まずスタックが現在どのように見えるかを定義する必要があります。 これが私たちの暫定的な見解です。

スタックは次の XNUMX つの層に分けることができます。

  • アプリケーション 独自のモデル パイプライン (「エンド ツー エンド アプリ」) を実行するか、サードパーティ API に依存して、生成 AI モデルをユーザー向け製品に統合する
  • Models プロプライエタリ API またはオープンソースのチェックポイント (ホスティング ソリューションが必要) として利用できる AI 製品を強化する
  • インフラ 生成 AI モデルのトレーニングおよび推論ワークロードを実行するベンダー (つまり、クラウド プラットフォームおよびハードウェア メーカー)

注意することが重要です: これは市場マップではなく、市場を分析するためのフレームワークです. 各カテゴリでは、よく知られているベンダーの例をいくつか挙げています。 包括的であることや、リリースされた驚くべきジェネレーティブ AI アプリケーションのすべてをリストすることは試みていません。 また、MLops や LLMops ツールについてもここでは詳しく説明しません。これらはまだ高度に標準化されておらず、今後の投稿で取り上げる予定です。

ジェネレーティブ AI アプリの第 XNUMX 波は規模に達し始めているが、保持と差別化に苦労している

以前のテクノロジー サイクルでは、大規模な独立した企業を構築するには、個人の消費者であろうと B2B のバイヤーであろうと、エンド カスタマーを所有する必要があるというのが一般的な通念でした。 ジェネレーティブ AI で最大の企業は、エンドユーザー アプリケーションでもあると信じたくなります。 これまでのところ、それが事実であるかは明らかではありません。

確かに、ジェネレーティブ AI アプリケーションの成長は目を見張るものがあり、それはまったくの目新しさと多数のユースケースによって推進されています。 実際、年間収益がすでに 100 億ドルを超えている製品カテゴリが少なくとも XNUMX つあります。画像生成、コピーライティング、コード ライティングです。

ただし、永続的なソフトウェア企業を構築するには、成長だけでは十分ではありません。 重要なことは、ユーザーと顧客がサインアップすると、利益を生み出し (高い粗利)、長期間存続する (高いリテンション) という意味で、成長は利益を生むものでなければなりません。 強力な技術的差別化がない場合、B2B および B2C アプリは、ネットワーク効果、データの保持、またはますます複雑化するワークフローの構築を通じて、長期的な顧客価値を推進します。

ジェネレーティブ AI では、これらの仮定が必ずしも正しいとは限りません。 私たちが話を聞いたアプリ企業全体で、粗利益率には幅があり、90% に達するケースもあれば、50 ~ 60% に下がるケースも多く、主にモデルの推論にかかるコストが原因です。 ファネルのトップの成長は驚くべきものでしたが、現在の顧客獲得戦略が拡張可能かどうかは不明です。すでに、有料の獲得効果と維持率が低下し始めていることがわかります. また、多くのアプリは、同様の基盤となる AI モデルに依存しており、競合他社が複製するのが難しい明らかなネットワーク効果やデータ/ワークフローを発見していないため、比較的差別化されていません。

そのため、エンドユーザー向けアプリを販売することが、持続可能なジェネレーティブ AI ビジネスを構築するための唯一の、あるいは最良の方法であるということはまだ明らかではありません。 言語モデルの競争と効率が高まるにつれて、利益率は向上するはずです (これについては以下で詳しく説明します)。 AI ツーリストが市場を離れるにつれて、リテンションは増加するはずです。 また、垂直統合されたアプリは差別化を推進する上で有利であるという強力な議論があります。 しかし、証明すべきことはまだたくさんあります。

今後、ジェネレーティブ AI アプリ企業が直面する大きな問題には次のようなものがあります。

  • 垂直統合 (「モデル + アプリ」)。 AI モデルをサービスとして利用することで、アプリ開発者は少人数のチームで迅速に反復し、技術の進歩に合わせてモデル プロバイダーを交換できます。 反対に、一部の開発者は、製品が is ゼロからのトレーニングが防御性を生み出す唯一の方法です。つまり、独自の製品データを継続的に再トレーニングすることです。 しかし、それには、はるかに高い資本要件と機敏性の低い製品チームという代償が伴います。
  • ビルド機能とアプリ。 ジェネレーティブ AI 製品には、デスクトップ アプリ、モバイル アプリ、Figma/Photoshop プラグイン、Chrome 拡張機能、さらには Discord ボットなど、さまざまな形があります。 UI は通常単なるテキスト ボックスであるため、ユーザーが既に作業している AI 製品を簡単に統合できます。 これらのうち、独立した企業になるのはどれで、Microsoft や Google など、すでに AI を製品ラインに組み込んでいる既存の企業に吸収されるのはどれでしょうか?
  • 誇大広告のサイクルを管理する。 チャーンが生成 AI 製品の現在のバッチに固有のものなのか、それとも初期の市場の産物なのかはまだ明らかではありません。 あるいは、誇大宣伝が収まるにつれて、ジェネレーティブ AI への関心の高まりが低下する場合. これらの質問は、資金調達のアクセルをいつ踏むべきかなど、アプリ企業にとって重要な意味を持ちます。 顧客獲得にどれだけ積極的に投資するか。 どのユーザー セグメントを優先するか。 プロダクト マーケット フィットをいつ宣言するか。

モデル プロバイダーはジェネレーティブ AI を発明したが、大規模な商業規模には達していない

私たちが現在ジェネレーティブ AI と呼んでいるものは、Google、OpenAI、Stability などの場所で行われた素晴らしい研究とエンジニアリング作業なしには存在しなかったでしょう。 新しいモデル アーキテクチャとトレーニング パイプラインをスケーリングするための勇敢な取り組みを通じて、私たちは皆、現在の大規模言語モデル (LLM) と画像生成モデルの驚異的な機能から恩恵を受けています。

しかし、これらの企業に関連する収益は、使用率と話題に比べてまだ比較的小さい. 画像生成において、Stable Diffusion は、ユーザー インターフェイス、ホストされた製品、および微調整方法のエコシステムに支えられて、爆発的なコミュニティの成長を見てきました。 しかし Stability は、ビジネスの核となる信条として、主要なチェックポイントを無料で提供しています。 自然言語モデルでは、OpenAI が GPT-3/3.5 と ChatGPT で優勢です。 しかし 相対的に これまでのところ、OpenAI 上に構築されたキラー アプリはほとんど存在せず、価格はすでに 一度落とした.

これは一時的な現象にすぎない可能性があります。 Stability はまだ収益化に注力していない新しい会社です。 OpenAI は大規模なビジネスになる可能性があり、より多くのキラー アプリが構築されるにつれて、すべての NLP カテゴリの収益のかなりの部分を獲得します。 Microsoft の製品ポートフォリオへの統合 スムーズに進みます。 これらのモデルが大量に使用されていることを考えると、大規模な収益もそれほど遅れていない可能性があります。

しかし、相殺する力もあります。 オープン ソースとしてリリースされたモデルは、大規模なモデル トレーニングに関連するコスト (最大で数千万ドルまたは数億ドル) を負担しない外部企業を含め、誰でもホストできます。 また、ソースがクローズドなモデルがその優位性を無期限に維持できるかどうかは明らかではありません。 たとえば、Anthropic、Cohere、Character.ai などの企業によって構築された LLM が、OpenAI レベルのパフォーマンスに近づき、同様のデータセット (インターネットなど) でトレーニングされ、同様のモデル アーキテクチャを使用しているのが見え始めています。 安定拡散の例は、 if オープン ソース モデルが十分なパフォーマンスとコミュニティ サポートのレベルに達すると、プロプライエタリな代替モデルは競争が難しくなる可能性があります。

おそらく、これまでのところ、モデル プロバイダーにとって最も明確な結論は、商用化はホスティングに結びついている可能性が高いということです。 プロプライエタリ API (OpenAI など) の需要は急速に高まっています。 オープンソース モデルのホスティング サービス (Hugging Face や Replicate など) は、モデルを簡単に共有および統合するための便利なハブとして台頭しています。 また、企業顧客との微調整とホスティング契約を通じて収益化できるという有力な仮説もあります。

ただし、それ以外にも、モデル プロバイダーが直面する大きな問題がいくつかあります。

  • 商品化。 AI モデルは時間の経過とともにパフォーマンスが収束するという一般的な信念があります。 アプリ開発者と話すと、テキスト モデルと画像モデルの両方で有力なリーダーがいることから、まだそれが実現していないことは明らかです。 それらの利点は、独自のモデル アーキテクチャに基づいているのではなく、高い資本要件、独自の製品相互作用データ、および希少な AI 人材に基づいています。 これは永続的な利点として機能しますか?
  • 卒業リスク。 モデル プロバイダーに依存することは、アプリ企業がビジネスを開始し、さらにはビジネスを成長させるための優れた方法です。 しかし、スケールに達したら、独自のモデルを構築および/またはホストするインセンティブがあります。 また、多くのモデル プロバイダーは顧客分布に大きな偏りがあり、少数のアプリが収益の大部分を占めています。 これらの顧客が社内の AI 開発に切り替えるとどうなりますか?
  • お金は大事ですか? ジェネレーティブ AI の可能性は非常に大きく、潜在的に非常に有害であるため、多くのモデル プロバイダーが公益法人 (B コープ) として組織したり、制限付きの利益配分を発行したり、公共の利益を明示的にミッションに組み込んだりしています。 これは彼らの募金活動をまったく妨げていません。 しかし、ほとんどのモデル プロバイダーが実際に 欲しいです 価値を獲得するため、そして必要であれば。

インフラストラクチャ ベンダーはすべてに触れ、報酬を得る

ジェネレーティブ AI のほぼすべてが、ある時点でクラウド ホスト型 GPU (または TPU) を通過します。 トレーニング ワークロードを実行するモデル プロバイダー/研究所、推論/微調整を実行するホスティング会社、または両方の組み合わせを実行するアプリケーション会社のいずれであっても — フロップ ジェネレーティブ AI の生命線です。 非常に長い間で初めて、最も破壊的なコンピューティング テクノロジの進歩が大量のコンピューティング バウンドになりました。

その結果、ジェネレーティブ AI 市場の多くの資金が最終的にインフラストラクチャ企業に流れます。 いくつか置くには 非常に 大まかな数字: アプリ企業は平均して収益の約 20 ~ 40% を推論と顧客ごとの微調整に費やしていると推定されます。 これは通常、コンピューティング インスタンスのクラウド プロバイダーに直接支払われるか、サードパーティのモデル プロバイダーに支払われます。サードパーティ モデル プロバイダーは、収益の約半分をクラウド インフラストラクチャに費やします。 したがって、10 ~ 20% と推測するのが妥当です。 総収入 今日のジェネレーティブ AI では、クラウド プロバイダーに移行しています。

これに加えて、独自のモデルをトレーニングしているスタートアップは、ベンチャー キャピタルで数十億ドルを調達しており、その大部分 (初期ラウンドでは最大 80 ~ 90%) は通常、クラウド プロバイダーにも費やされています。 多くの公開テクノロジー企業は、外部のクラウド プロバイダーまたはハードウェア メーカーと直接、モデルのトレーニングに年間数億ドルを費やしています。

これは、専門用語で言えば「大金」と呼ばれるものです。 そのほとんどは ビッグ3 クラウド: アマゾン ウェブ サービス (AWS)、Google クラウド プラットフォーム (GCP)、および Microsoft Azure。 これらのクラウド プロバイダーを総称して 以上を費やす 年間$ 100十億 最も包括的で信頼性が高く、コスト競争力のあるプラットフォームを確実に提供できるようにします。 特にジェネレーティブ AI では、希少なハードウェア (Nvidia A100 および H100 GPU など) に優先的にアクセスできるため、供給の制約からも恩恵を受けます。

しかし興味深いことに、信頼できる競争が出現し始めています。 オラクルのような挑戦者は、多額の設備投資と販売インセンティブで進出しました。 また、Coreweave や Lambda Labs などのいくつかの新興企業は、特に大規模なモデル開発者を対象としたソリューションで急速に成長しています。 コスト、可用性、個別サポートで競合します。 また、大規模なクラウドは GPU 仮想化の制限により VM インスタンスのみを提供しますが、より粒度の細かいリソースの抽象化 (コンテナなど) も公開します。

舞台裏で AI ワークロードの大部分を実行しているのは、おそらくこれまでの生成 AI の最大の勝者である Nvidia です。 会社 報告された$ 3.8 十億 2023 会計年度第 XNUMX 四半期のデータセンター GPU 収益の, ジェネレーティブ AI のユースケースに意味のある部分を含めます。 そして彼らは、GPU アーキテクチャへの数十年にわたる投資、堅牢なソフトウェア エコシステム、および学術コミュニティでの深い使用を通じて、このビジネスの周りに強力な壕を築いてきました。 最近の分析のXNUMXつ Nvidia GPU が研究論文で引用されているのは、上位の AI チップ スタートアップを合わせた数の 90 倍であることがわかりました.

Google Tensor Processing Unit (TPU) など、他のハードウェア オプションも存在します。 AMD Instinct GPU; AWS Inferentia および Trainium チップ。 Cerebras、Sambanova、Graphcore などのスタートアップ企業の AI アクセラレーター。 ゲームに後れを取っている Intel も、ハイエンドの Habana チップと Ponte Vecchio GPU で市場に参入しています。 しかし、これまでのところ、これらの新しいチップで大きな市場シェアを獲得したものはほとんどありません。 注目すべき XNUMX つの例外は、TPU が Stable Diffusion コミュニティといくつかの大規模な GCP 取引で勢いを増している Google と、製造していると考えられている TSMC です。 Nvidia GPU を含む、ここにリストされているチップ (Intel は、独自のファブと TSMC を組み合わせてチップを製造しています)。

言い換えれば、インフラストラクチャは、スタック内の収益性が高く、耐久性があり、一見防御可能なレイヤーです。 インフラ企業にとって答えるべき重要な質問には、次のようなものがあります。

  • ステートレスなワークロードを保持します。 Nvidia GPU はどこで借りても同じです。 ほとんどの AI ワークロードはステートレスです。つまり、モデルの推論では (モデルの重み自体を除いて) 接続されたデータベースやストレージは必要ありません。 つまり、AI ワークロードは、従来のアプリケーション ワークロードよりもクラウド間で移植性が高い可能性があります。 この状況で、クラウド プロバイダーはどのようにして粘着性を生み出し、顧客が最も安価なオプションにジャンプするのを防ぐことができるでしょうか?
  • チップ不足の終わりを乗り切る。 クラウド プロバイダーと Nvidia 自体の価格設定は、最も望ましい GPU の供給不足によって支えられてきました。 あるプロバイダーによると、A100 の定価は実際には 増加した これは、コンピューティング ハードウェアとしては非常に珍しいことです。 生産の増加や新しいハードウェア プラットフォームの採用によって、この供給の制約が最終的に解消された場合、これはクラウド プロバイダーにどのような影響を与えるでしょうか?
  • 挑戦者の雲は突破できるのか? 私たちはそれを強く信じています 垂直雲 より専門的なサービスを提供することで、ビッグ 3 から市場シェアを獲得します。 これまでの AI では、チャレンジャーは適度な技術的差別化と Nvidia のサポートを通じて有意義な牽引力を切り開いてきました. 長期的な問題は、ビッグ 3 の規模の利点を克服するのにこれで十分かということです。

では…価値はどこで発生するのでしょうか?

もちろん、まだわかりません。 しかし、ジェネレーティブ AI について私たちが持っている初期のデータに基づいて、 以前の AI / ML 企業との経験、私たちの直感は次のとおりです。 

現在、ジェネレーティブ AI に体系的な堀はないようです。 一次近似として、アプリケーションは類似したモデルを使用するため、強力な製品差別化を欠いています。 モデルは、同様のアーキテクチャの同様のデータセットでトレーニングされているため、長期的な差別化が不明確になります。 クラウド プロバイダーは、同じ GPU を実行しているため、技術的な差別化が不足しています。 ハードウェア企業でさえ、同じファブでチップを製造しています。

もちろん、標準的な堀があります: スケールの堀 (「私はあなたよりも多くの資金を調達している、または調達することができます!」)、サプライチェーンの堀 (「私は GPU を持っていますが、あなたは持っていません!」)、エコシステムの堀 (「誰もがすでに私のソフトウェアを使用しています!」)、アルゴリズムの堀 (「私たちはあなたよりも賢いです!」)、配布の堀 (「私にはすでに営業チームがいて、あなたよりも多くの顧客がいます!」)、データ パイプラインの堀 (「私はあなたよりも多くのインターネットをクロールしました!」)。 しかし、これらの堀はいずれも長期にわたって耐久性がある傾向にあるわけではありません。 そして、強力で直接的なネットワーク効果がスタックのいずれかの層に定着しているかどうかを判断するのは時期尚早です.

入手可能なデータに基づくと、ジェネレーティブ AI に長期的な勝者総取りのダイナミクスがあるかどうかは明らかではありません。

これは奇妙です。 しかし、私たちにとっては朗報です。 この市場の潜在的な規模を把握するのは困難です。 すべてのソフトウェア & すべての人間の努力 — したがって、スタックのすべてのレベルで、非常に多くのプレーヤーと健全な競争が期待されます。 また、水平型企業と垂直型企業の両方が成功することを期待しており、最適なアプローチはエンド マーケットとエンド ユーザーによって決定されます。 たとえば、最終製品の主な差別化が AI 自体である場合、垂直化 (つまり、ユーザー向けアプリを自家製モデルに緊密に結合すること) が勝つ可能性があります。 一方、AI がより大きなロングテール機能セットの一部である場合、水平化が発生する可能性が高くなります。 もちろん、時間の経過とともに、より伝統的な堀の建設も見られるはずです。また、新しいタイプの堀が定着することさえあるかもしれません.

いずれにせよ、私たちが確信していることの XNUMX つは、ジェネレーティブ AI がゲームを変えるということです。 私たちは皆、ルールをリアルタイムで学んでおり、莫大な価値が解き放たれ、その結果、テクノロジーの展望は大きく異なったものになるでしょう。 そして、私たちはそれのためにここにいます!

この投稿のすべての画像は、Midjourney を使用して作成されました。

スポット画像

最新のインテリジェンス

スポット画像