Zephyrnet-Logo

Wem gehört die generative KI-Plattform?

Datum:

Wir sehen allmählich die sehr frühen Stadien eines Tech-Stacks in der generativen künstlichen Intelligenz (KI). Hunderte neuer Startups drängen auf den Markt, um Grundlagenmodelle zu entwickeln, KI-native Apps zu bauen und Infrastruktur/Werkzeuge bereitzustellen.

Viele heiße Technologietrends werden überbewertet, lange bevor der Markt aufholt. Aber der generative KI-Boom wurde von echten Gewinnen auf echten Märkten und echter Zugkraft von echten Unternehmen begleitet. Modelle wie Stable Diffusion und ChatGPT stellen historische Rekorde für das Benutzerwachstum auf, und mehrere Anwendungen haben weniger als ein Jahr nach dem Start einen Jahresumsatz von 100 Millionen US-Dollar erzielt. Side-by-Side-Vergleiche zeigen KI-Modelle Menschen übertreffen bei manchen Aufgaben um mehrere Größenordnungen. 

Es gibt also genügend frühe Daten, die darauf hindeuten, dass eine massive Transformation stattfindet. Was wir nicht wissen und was jetzt zur entscheidenden Frage geworden ist, ist: Wo in diesem Markt entsteht Wert?

Im letzten Jahr haben wir Dutzende von Startup-Gründern und Betreibern in großen Unternehmen getroffen, die sich direkt mit generativer KI beschäftigen. Das haben wir beobachtet Anbieter von Infrastruktur sind wahrscheinlich die bisher größten Gewinner in diesem Markt und erobern den Großteil der Dollars, die durch den Stack fließen. Anwendungsunternehmen steigern ihre Umsatzerlöse sehr schnell, kämpfen aber oft mit Kundenbindung, Produktdifferenzierung und Bruttomargen. Und die meisten Modellanbieter, obwohl sie für die Existenz dieses Marktes verantwortlich sind, haben noch keinen großen kommerziellen Maßstab erreicht.

Mit anderen Worten, die Unternehmen, die den größten Wert schaffen – dh generative KI-Modelle trainieren und sie in neuen Apps anwenden – haben den größten Teil davon nicht erfasst. Es ist viel schwieriger vorherzusagen, was als nächstes passieren wird. Aber wir denken, dass es am wichtigsten ist zu verstehen, welche Teile des Stacks wirklich differenziert und vertretbar sind. Dies wird einen großen Einfluss auf die Marktstruktur (dh horizontale vs. vertikale Unternehmensentwicklung) und die Treiber des langfristigen Werts (zB Margen und Kundenbindung) haben. Bisher hatten wir Schwierigkeiten, eine strukturelle Verteidigungsfähigkeit zu finden von jedem Standort im Stapel, außerhalb der traditionellen Wassergräben für etablierte Unternehmen.

Wir sind unglaublich optimistisch in Bezug auf generative KI und glauben, dass sie massive Auswirkungen auf die Softwareindustrie und darüber hinaus haben wird. Das Ziel dieses Beitrags ist es, die Dynamik des Marktes darzustellen und damit zu beginnen, die umfassenderen Fragen zu generativen KI-Geschäftsmodellen zu beantworten.

High-Level-Tech-Stack: Infrastruktur, Modelle und Apps

Um zu verstehen, wie der Markt für generative KI Gestalt annimmt, müssen wir zunächst definieren, wie der Stack heute aussieht. Hier ist unsere vorläufige Ansicht.

Der Stapel kann in drei Schichten unterteilt werden:

  • Anwendungen die generative KI-Modelle in ein benutzerorientiertes Produkt integrieren, indem sie entweder ihre eigenen Modell-Pipelines („End-to-End-Apps“) ausführen oder sich auf eine Drittanbieter-API verlassen
  • Modelle die KI-Produkte antreiben, die entweder als proprietäre APIs oder als Open-Source-Checkpoints zur Verfügung gestellt werden (die wiederum eine Hosting-Lösung erfordern)
  • Infrastruktur Anbieter (dh Cloud-Plattformen und Hardwarehersteller), die Trainings- und Inferenz-Workloads für generative KI-Modelle ausführen

Es ist wichtig zu beachten: Dies ist keine Marktkarte, sondern ein Rahmen zur Analyse des Marktes. In jeder Kategorie haben wir einige Beispiele bekannter Anbieter aufgelistet. Wir haben keinen Versuch unternommen, umfassend zu sein oder alle erstaunlichen generativen KI-Anwendungen aufzulisten, die veröffentlicht wurden. Wir gehen hier auch nicht weiter auf MLops- oder LLMops-Werkzeuge ein, die noch nicht hochgradig standardisiert sind und in einem zukünftigen Beitrag behandelt werden.

Die erste Welle von generativen KI-Apps beginnt, Umfang zu erreichen, hat jedoch Probleme mit der Speicherung und Differenzierung

In früheren Technologiezyklen war die gängige Meinung, dass man den Endkunden besitzen muss, um ein großes, unabhängiges Unternehmen aufzubauen – egal ob es sich dabei um einzelne Verbraucher oder B2B-Käufer handelt. Es ist verlockend zu glauben, dass die größten Unternehmen in der generativen KI auch Endbenutzeranwendungen sein werden. Bisher ist nicht klar, dass dies der Fall ist.

Sicherlich war das Wachstum generativer KI-Anwendungen überwältigend, angetrieben durch schiere Neuheit und eine Fülle von Anwendungsfällen. Tatsächlich sind uns mindestens drei Produktkategorien bekannt, die bereits einen Jahresumsatz von 100 Millionen US-Dollar überschritten haben: Bilderzeugung, Texterstellung und Codeerstellung.

Wachstum allein reicht jedoch nicht aus, um dauerhafte Softwareunternehmen aufzubauen. Entscheidend ist, dass Wachstum profitabel sein muss – in dem Sinne, dass Benutzer und Kunden, sobald sie sich angemeldet haben, Gewinne generieren (hohe Bruttomargen) und lange bleiben (hohe Bindung). In Ermangelung einer starken technischen Differenzierung steigern B2B- und B2C-Apps den langfristigen Kundenwert durch Netzwerkeffekte, das Speichern von Daten oder den Aufbau immer komplexerer Workflows.

Bei der generativen KI gelten diese Annahmen nicht unbedingt. Bei allen App-Unternehmen, mit denen wir gesprochen haben, gibt es ein breites Spektrum an Bruttomargen – in einigen Fällen bis zu 90 %, aber häufiger nur 50–60 %, was hauptsächlich auf die Kosten der Modellinferenz zurückzuführen ist. Das Top-of-Funnel-Wachstum war erstaunlich, aber es ist unklar, ob die aktuellen Kundenakquisitionsstrategien skalierbar sein werden – wir sehen bereits, dass die Wirksamkeit der bezahlten Akquise und die Kundenbindung nachlassen. Viele Apps sind auch relativ undifferenziert, da sie auf ähnlichen zugrunde liegenden KI-Modellen basieren und keine offensichtlichen Netzwerkeffekte oder Daten/Workflows entdeckt haben, die für Wettbewerber schwer zu duplizieren sind.

Es ist also noch nicht offensichtlich, dass der Verkauf von Endbenutzer-Apps der einzige oder sogar der beste Weg zum Aufbau eines nachhaltigen generativen KI-Geschäfts ist. Die Margen sollten sich verbessern, wenn der Wettbewerb und die Effizienz der Sprachmodelle zunehmen (mehr dazu weiter unten). Die Kundenbindung sollte zunehmen, wenn KI-Touristen den Markt verlassen. Und es gibt ein starkes Argument dafür, dass vertikal integrierte Apps einen Vorteil bei der Förderung der Differenzierung haben. Aber es gibt noch viel zu beweisen.

Mit Blick auf die Zukunft sind einige der großen Fragen, mit denen Unternehmen für generative KI-Apps konfrontiert sind:

  • Vertikale Integration („Modell + App“). Die Nutzung von KI-Modellen als Service ermöglicht es App-Entwicklern, schnell mit einem kleinen Team zu iterieren und Modellanbieter auszutauschen, wenn die Technologie voranschreitet. Auf der anderen Seite argumentieren einige Entwickler, dass das Produkt is das Modell, und dass Training von Grund auf der einzige Weg ist, Verteidigungsfähigkeit zu schaffen – dh durch kontinuierliches erneutes Training mit proprietären Produktdaten. Dies geht jedoch auf Kosten eines viel höheren Kapitalbedarfs und eines weniger wendigen Produktteams.
  • Erstellen von Funktionen vs. Apps. Generative KI-Produkte nehmen verschiedene Formen an: Desktop-Apps, mobile Apps, Figma/Photoshop-Plug-ins, Chrome-Erweiterungen und sogar Discord-Bots. Es ist einfach, KI-Produkte dort zu integrieren, wo Benutzer bereits arbeiten, da die Benutzeroberfläche in der Regel nur ein Textfeld ist. Welche davon werden zu eigenständigen Unternehmen – und welche werden von etablierten Unternehmen wie Microsoft oder Google übernommen, die KI bereits in ihre Produktlinien integrieren?
  • Den Hype-Zyklus bewältigen. Es ist noch nicht klar, ob Abwanderung in der aktuellen Charge generativer KI-Produkte enthalten ist oder ob es sich um ein Artefakt eines frühen Marktes handelt. Oder ob das steigende Interesse an generativer KI mit dem Abflauen des Hypes abflaut. Diese Fragen haben wichtige Implikationen für App-Unternehmen, einschließlich wann man beim Fundraising aufs Gaspedal treten sollte; wie aggressiv in die Kundenakquise investiert werden sollte; welche Benutzersegmente priorisiert werden sollen; und wann das Produkt für den Markt geeignet zu erklären ist.

Modellanbieter haben die generative KI erfunden, aber noch keinen großen kommerziellen Maßstab erreicht

Was wir heute als generative KI bezeichnen, würde ohne die brillante Forschungs- und Ingenieursarbeit von Orten wie Google, OpenAI und Stability nicht existieren. Durch neuartige Modellarchitekturen und heldenhafte Bemühungen zur Skalierung von Trainingspipelines profitieren wir alle von den überwältigenden Fähigkeiten aktueller Large Language Models (LLMs) und Bilderzeugungsmodelle.

Die mit diesen Unternehmen verbundenen Einnahmen sind jedoch im Vergleich zur Nutzung und zum Buzz immer noch relativ gering. Bei der Bildgenerierung hat Stable Diffusion ein explosives Community-Wachstum erlebt, unterstützt durch ein Ökosystem aus Benutzeroberflächen, gehosteten Angeboten und Feinabstimmungsmethoden. Aber Stability verschenkt ihre wichtigsten Kontrollpunkte kostenlos als Kerngrundsatz ihres Geschäfts. Bei natürlichen Sprachmodellen dominiert OpenAI mit GPT-3/3.5 und ChatGPT. Aber verhältnismäßig Bisher gibt es nur wenige Killer-Apps, die auf OpenAI basieren, und die Preise haben es bereits getan einmal gefallen.

Dies kann nur ein vorübergehendes Phänomen sein. Stability ist ein neues Unternehmen, das sich noch nicht auf die Monetarisierung konzentriert hat. OpenAI hat das Potenzial, ein riesiges Geschäft zu werden, das einen erheblichen Teil aller Einnahmen der NLP-Kategorie erwirtschaftet, wenn mehr Killer-Apps entwickelt werden – insbesondere wenn es sich um eigene handelt Integration in das Produktportfolio von Microsoft geht reibungslos. Angesichts der enormen Nutzung dieser Modelle sind große Einnahmen möglicherweise nicht weit dahinter.

Aber es gibt auch Gegenkräfte. Als Open Source veröffentlichte Modelle können von jedem gehostet werden, einschließlich externer Unternehmen, die die Kosten für Modellschulungen im großen Maßstab (bis zu zehn oder hundert Millionen Dollar) nicht tragen. Und es ist nicht klar, ob irgendwelche Closed-Source-Modelle ihren Vorsprung auf unbestimmte Zeit halten können. Zum Beispiel beginnen wir zu sehen, dass LLMs, die von Unternehmen wie Anthropic, Cohere und Character.ai gebaut wurden, näher an das Leistungsniveau von OpenAI herankommen, trainiert auf ähnlichen Datensätzen (z. B. dem Internet) und mit ähnlichen Modellarchitekturen. Das Beispiel Stable Diffusion legt dies nahe if Open-Source-Modelle erreichen ein ausreichendes Maß an Leistung und Community-Unterstützung, dann können proprietäre Alternativen nur schwer konkurrieren.

Die bisher vielleicht klarste Erkenntnis für Modellanbieter ist, dass die Kommerzialisierung wahrscheinlich an das Hosting gebunden ist. Die Nachfrage nach proprietären APIs (z. B. von OpenAI) wächst rasant. Hosting-Dienste für Open-Source-Modelle (z. B. Hugging Face und Replicate) entwickeln sich zu nützlichen Knotenpunkten für die einfache gemeinsame Nutzung und Integration von Modellen – und haben sogar einige indirekte Netzwerkeffekte zwischen Modellherstellern und -verbrauchern. Es gibt auch eine starke Hypothese, dass es möglich ist, durch Feinabstimmung und Hosting-Vereinbarungen mit Unternehmenskunden Geld zu verdienen.

Darüber hinaus gibt es jedoch eine Reihe großer Fragen, vor denen Modellanbieter stehen:

  • Kommerzialisierung. Es besteht die allgemeine Überzeugung, dass sich KI-Modelle im Laufe der Zeit in ihrer Leistung annähern werden. Im Gespräch mit App-Entwicklern ist klar, dass dies noch nicht geschehen ist, mit starken Führern sowohl bei Text- als auch bei Bildmodellen. Ihre Vorteile beruhen nicht auf einzigartigen Modellarchitekturen, sondern auf hohen Kapitalanforderungen, proprietären Produktinteraktionsdaten und knappen KI-Talenten. Wird dies als dauerhafter Vorteil dienen?
  • Abschlussrisiko. Sich auf Modellanbieter zu verlassen, ist eine großartige Möglichkeit für App-Unternehmen, loszulegen und sogar ihr Geschäft auszubauen. Aber es gibt einen Anreiz für sie, ihre eigenen Modelle zu bauen und/oder zu hosten, sobald sie den Maßstab erreicht haben. Und viele Modellanbieter haben eine stark schiefe Kundenverteilung, wobei einige wenige Apps den Großteil des Umsatzes ausmachen. Was passiert, wenn/wenn diese Kunden auf die eigene KI-Entwicklung umsteigen?
  • Ist Geld wichtig? Das Versprechen der generativen KI ist so groß – und potenziell auch so schädlich –, dass sich viele Modellanbieter als gemeinnützige Unternehmen (B-Corps) organisiert haben, begrenzte Gewinnanteile ausgegeben oder das Gemeinwohl anderweitig explizit in ihre Mission aufgenommen haben. Dies hat ihre Fundraising-Bemühungen keineswegs behindert. Aber es gibt eine vernünftige Diskussion darüber, ob die meisten Modellanbieter tatsächlich wollen um Wert zu erfassen, und wenn sie sollten.

Infrastrukturanbieter berühren alles und ernten die Früchte

Nahezu alles in der generativen KI durchläuft irgendwann eine in der Cloud gehostete GPU (oder TPU). Ob für Modellanbieter/Forschungslabore, die Schulungsworkloads ausführen, Hosting-Unternehmen, die Inferenz/Feinabstimmung durchführen, oder Anwendungsunternehmen, die eine Kombination aus beidem durchführen – FLOPS sind das Lebenselixier der generativen KI. Zum ersten Mal seit sehr langer Zeit ist der Fortschritt bei der disruptivsten Computertechnologie massiv an Rechenleistung gebunden.

Infolgedessen fließt viel Geld im Markt für generative KI letztendlich an Infrastrukturunternehmen. Um etwas zu setzen sehr grobe Zahlen dazu: Wir schätzen, dass App-Unternehmen im Durchschnitt etwa 20–40 % ihres Umsatzes für Inferenz und Feinabstimmung pro Kunde ausgeben. Diese wird in der Regel entweder direkt an Cloud-Anbieter für Recheninstanzen oder an Drittanbieter von Modellen gezahlt, die wiederum etwa die Hälfte ihres Umsatzes für Cloud-Infrastruktur ausgeben. Also, es ist vernünftig zu schätzen, dass 10-20% von Gesamtumsatz in der generativen KI geht heute an Cloud-Anbieter.

Darüber hinaus haben Startups, die ihre eigenen Modelle trainieren, Milliarden von Dollar an Risikokapital aufgebracht – der Großteil davon (bis zu 80-90 % in frühen Runden) wird normalerweise auch bei den Cloud-Anbietern ausgegeben. Viele öffentliche Technologieunternehmen geben jährlich Hunderte Millionen für Modellschulungen aus, entweder bei externen Cloud-Anbietern oder direkt bei Hardwareherstellern.

Technisch gesehen würden wir das als „viel Geld“ bezeichnen – insbesondere für einen aufstrebenden Markt. Das meiste davon wird für die ausgegeben Big 3 Clouds: Amazon Web Services (AWS), Google Cloud Platform (GCP) und Microsoft Azure. Diese Cloud-Anbieter gemeinsam mehr ausgeben als $ 100 Milliarden pro Jahr in Capex, um sicherzustellen, dass sie über die umfassendsten, zuverlässigsten und kostengünstigsten Plattformen verfügen. Gerade in der generativen KI profitieren sie zudem von Angebotsengpässen, da sie bevorzugten Zugriff auf knappe Hardware haben (z. B. Nvidia A100- und H100-GPUs).

Interessanterweise beginnen wir jedoch, einen glaubwürdigen Wettbewerb entstehen zu sehen. Herausforderer wie Oracle haben mit hohen Investitionsausgaben und Verkaufsanreizen Einzug gehalten. Und einige Startups, wie Coreweave und Lambda Labs, sind mit Lösungen, die speziell auf große Modellentwickler ausgerichtet sind, schnell gewachsen. Sie konkurrieren um Kosten, Verfügbarkeit und personalisierten Support. Sie stellen auch granularere Ressourcenabstraktionen (z. B. Container) bereit, während die großen Clouds aufgrund von GPU-Virtualisierungsbeschränkungen nur VM-Instanzen anbieten.

Hinter den Kulissen, die die überwiegende Mehrheit der KI-Workloads ausführen, ist vielleicht der bisher größte Gewinner der generativen KI: Nvidia. Das Unternehmen gemeldet 3.8 USD Billion des Rechenzentrums-GPU-Umsatzes im dritten Quartal des Geschäftsjahres 2023, einschließlich eines sinnvollen Anteils für Anwendungsfälle der generativen KI. Und sie haben durch jahrzehntelange Investitionen in die GPU-Architektur, ein robustes Software-Ökosystem und die intensive Nutzung in der akademischen Gemeinschaft starke Gräben um dieses Geschäft herum aufgebaut. Eine aktuelle Analyse fanden heraus, dass Nvidia-GPUs 90-mal häufiger in Forschungsberichten zitiert werden als die führenden KI-Chip-Startups zusammen.

Andere Hardwareoptionen sind vorhanden, einschließlich Google Tensor Processing Units (TPUs); AMD Instinct-GPUs; AWS Inferentia- und Trainium-Chips; und KI-Beschleuniger von Startups wie Cerebras, Sambanova und Graphcore. Intel, spät im Spiel, tritt ebenfalls mit seinen High-End-Habana-Chips und Ponte-Vecchio-GPUs auf den Markt. Aber bisher haben nur wenige dieser neuen Chips nennenswerte Marktanteile erobert. Die beiden Ausnahmen, die man im Auge behalten sollte, sind Google, dessen TPUs in der Stable Diffusion-Community und bei einigen großen GCP-Deals an Bedeutung gewonnen haben, und TSMC, von dem angenommen wird, dass es produziert alle der hier aufgeführten Chips, einschließlich Nvidia-GPUs (Intel verwendet eine Mischung aus seinen eigenen Fabs und TSMC, um seine Chips herzustellen).

Infrastruktur ist mit anderen Worten eine lukrative, dauerhafte und scheinbar vertretbare Schicht im Stapel. Zu den großen Fragen, die es für Infra-Unternehmen zu beantworten gilt, gehören:

  • Festhalten an zustandslosen Workloads. Nvidia-GPUs sind überall gleich, wo Sie sie mieten. Die meisten KI-Arbeitslasten sind zustandslos, in dem Sinne, dass die Modellinferenz keine angeschlossenen Datenbanken oder Speicher erfordert (außer für die Modellgewichtungen selbst). Das bedeutet, dass KI-Workloads möglicherweise besser über Clouds hinweg portierbar sind als traditionelle Anwendungs-Workloads. Wie können Cloud-Anbieter in diesem Zusammenhang Klebrigkeit erzeugen und verhindern, dass Kunden zur billigsten Option springen?
  • Das Ende der Chipknappheit überleben. Die Preisgestaltung für Cloud-Anbieter und für Nvidia selbst wurde durch knappe Lieferungen der begehrtesten GPUs unterstützt. Ein Anbieter teilte uns mit, dass der Listenpreis für A100s tatsächlich gilt hat seit dem Start, was für Computerhardware höchst ungewöhnlich ist. Wie wird sich dies letztendlich auf Cloud-Anbieter auswirken, wenn diese Angebotsbeschränkung durch eine gesteigerte Produktion und/oder die Einführung neuer Hardwareplattformen beseitigt wird?
  • Kann eine Herausfordererwolke durchbrechen? Wir glauben fest daran vertikale Wolken wird den Big 3 mit spezialisierteren Angeboten Marktanteile abnehmen. In der KI haben die Herausforderer bisher durch moderate technische Differenzierung und die Unterstützung von Nvidia, für die die etablierten Cloud-Anbieter sowohl die größten Kunden als auch aufstrebende Konkurrenten sind, eine bedeutende Zugkraft erlangt. Die langfristige Frage lautet: Wird dies ausreichen, um die Skalenvorteile der Big 3 zu überwinden?

Also … wo entsteht Wert?

Das wissen wir natürlich noch nicht. Aber basierend auf den frühen Daten, die wir für die generative KI haben, kombiniert mit unsere Erfahrung mit früheren KI/ML-Unternehmen, unsere Intuition ist die folgende. 

Es scheint heute keine systemischen Gräben in der generativen KI zu geben. Als Annäherung erster Ordnung fehlt es Anwendungen an starker Produktdifferenzierung, da sie ähnliche Modelle verwenden; Modelle sehen sich einer unklaren langfristigen Differenzierung gegenüber, da sie auf ähnlichen Datensätzen mit ähnlichen Architekturen trainiert werden; Cloud-Anbietern mangelt es an tiefer technischer Differenzierung, weil sie die gleichen GPUs betreiben; und sogar die Hardware-Unternehmen stellen ihre Chips in denselben Fabs her.

Es gibt natürlich die Standardgräben: Skalierungsgräben („Ich habe oder kann mehr Geld aufbringen als du!“), Lieferkettengräben („Ich habe die GPUs, du nicht!“), Ökosystemgräben („Ich habe die GPUs, du nicht!“) Jeder nutzt meine Software bereits!“, Algorithmic Moats („Wir sind klüger als du!“), Distribution Moats („Ich habe bereits ein Vertriebsteam und mehr Kunden als du!“) und Data Pipeline Moats („Ich habe mehr im Internet gecrawlt als du!“). Aber keiner dieser Gräben ist langfristig haltbar. Und es ist noch zu früh, um zu sagen, ob sich starke, direkte Netzwerkeffekte in irgendeiner Schicht des Stapels durchsetzen.

Basierend auf den verfügbaren Daten ist es einfach nicht klar, ob es eine langfristige Gewinner-Take-All-Dynamik in der generativen KI geben wird.

Das ist seltsam. Aber für uns sind es gute Nachrichten. Die potenzielle Größe dieses Marktes ist schwer zu fassen – irgendwo dazwischen alle Software und alle menschlichen Bestrebungen – also erwarten wir viele, viele Spieler und einen gesunden Wettbewerb auf allen Ebenen des Stacks. Wir erwarten auch, dass sowohl horizontale als auch vertikale Unternehmen erfolgreich sein werden, wobei der beste Ansatz von den Endmärkten und Endbenutzern bestimmt wird. Wenn beispielsweise die primäre Differenzierung im Endprodukt die KI selbst ist, ist es wahrscheinlich, dass sich die Vertikalisierung (dh die enge Kopplung der benutzerorientierten App an das selbst entwickelte Modell) durchsetzen wird. Wenn die KI Teil eines größeren Long-Tail-Feature-Sets ist, ist es wahrscheinlicher, dass eine Horizontalisierung auftritt. Natürlich sollten wir im Laufe der Zeit auch den Bau traditioneller Wassergräben sehen – und wir werden vielleicht sogar sehen, wie sich neue Arten von Wassergräben durchsetzen.

Was auch immer der Fall ist, wir sind uns sicher, dass die generative KI das Spiel verändert. Wir alle lernen die Regeln in Echtzeit, es wird ein enormer Wert freigesetzt, und die Technologielandschaft wird dadurch sehr, sehr anders aussehen. Und dafür sind wir da!

Alle Bilder in diesem Beitrag wurden mit Midjourney erstellt.

spot_img

Neueste Intelligenz

spot_img