top of page

13. Februar 2023

Wettkampf seit ChatGPT: Wer erschafft die mächtigste KI – und verdient Trilliarden?


Künstliche Intelligenz könnte das größte Geschäft aller Zeiten werden. Aber wer wird sich das viele Geld holen? Nachdem OpenAI mit ChatGPT vorgelegt hatte, sind Microsoft, Google, Meta unter Druck. Wer von ihnen erschafft das mächtigste Foundation Model, also ein KI-Modell das Grundlage für vielfältige Anwendungen sein kann? Das Gerangel hat begonnen – und birgt durchaus Risiken.


Von Fritz Espenlaub


Manchmal kommt der Big Bang. Ein technologischer Durchbruch ermöglicht das eine neue Produkt, das nicht nur bisherigen Angeboten Konkurrenz macht, sondern komplett neue Bedürfnisse erschafft. Das Produkt geht viral, landauf landab sind die Menschen begeistert, und innerhalb kürzester Zeit nutzt es fast jeder. Bestehende Märkte und Industrien werden durcheinandergewirbelt. Und: es wird extrem viel Geld verdient.


Die Firmen, die als erste mit dem neuen Ding am Markt sind, werden sehr schnell sehr groß. Und sehr, sehr mächtig. Bei der Technologie Internet zum Beispiel Google, Amazon, oder Meta. Bei der Technologie DOS-Betriebssystem Microsoft. Start-Ups, die zu Behemoths wurden und deren Einfluss von den höchsten Parlamenten bis in die letzten Wohnzimmer reicht.


Gerade erleben wir in Echtzeit einen weiteren Big-Bang-Moment, nun im Bereich der Generativen KI – also von Künstlicher Intelligenz, die auf Basis von Texteingaben digitale Inhalte erschafft. Artikel, Bilder, Videos Musik. Die Frage ist: wer macht diesmal den ganz großen Reibach?


KI, die selbst ihre Entwickler überrascht, erschließt einen Trilliarden-Markt


Die Frage ist deshalb so gewichtig, weil mit KI so enorm viel Profit gemacht werden kann – potenziell weit mehr als mit sämtlichen digitalen Technologien, die bisher entwickelt wurden. Die amerikanische Venture-Capital-Firma Andreesen Horowitz schätzt die Größe des KI-Marktes auf „somewhere between all software and all human endeavors“, also mindestens so groß wie der gesamte Software-Markt, vielleicht sogar so groß wie die die gesamte derzeitige Weltwirtschaft.


Selbst wenn man etwas weniger gigantesk denkt, sind die prognostizierten Zahlen gewaltig: McKinsey bezifferte das wirtschaftliche Potenzial von Künstlicher Intelligenz 2018 auf 13 Trilliarden US-Dollar – bevor die derzeitige Welle der Generativen KI à la GPT-3 über die Öffentlichkeit hereingebrochen ist. ChatGPT, das erste öffentlich breit zugängliche, einfache User Interface zur Text-KI GPT-3 von OpenAI, knackte nur zwei Monate nach Launch die Marke von 100 Millionen User:innen.


Genau diese Welle ist der Grund, weshalb die Analysten bei Andreesen Horowitz denken, dass KI irgendwann wortwörtlich die komplette Gesamtheit aller menschlichen Aufgaben übernehmen könnte. Denn die aktuelle Generation der Large Language Models um GPT-3 haben nicht nur die Weltöffentlichkeit mit ihrer Kreativität und Vielseitigkeit überrascht, sondern davor bereits ihre eigenen Erfinder.


OpenAI fehlt ein Geschäftsmodell – an Geld kommt die Firma trotzdem


Das Sprachmodell GPT-3, auf dem auch ChatGPT basiert, wurde mit Unmengen an Texten aus dem gesamten Internet trainiert, aber nicht für so spezielle Aufgaben, wie die Kardaschow-Skala als Szene zwischen George und Lennie aus John Steinbecks Von Mäusen und Menschen zu erklären. Aber das ist genau, was es macht – und kein Mensch weiß, wie das Modell das eigentlich anstellt. Nicht einmal die Programmierer von OpenAI wissen im Detail, was genau in den neuronalen Knotenpunkten der KI vor sich geht, wenn sie auf ihre Ideen kommt.


Wer hätte gedacht, dass ChatGPT zu so etwas fähig ist? Nicht einmal die Entwickler hätten das vorher sagen können. Für größere Ansicht aufs Bild klicken. Bild: Screenshot

Solche „emergenten Eigenschaften“ sind ein zentrales Merkmal der sogenannten „Foundation Models“. GPT-3 ist ein Foundation Model, ebenso wie OpenAIs DALL-E, oder die Open-Source-KI Stable Diffusion und auch das schon wieder etwas ältere BERT, das bereits seit einiger Zeit unter der Haube der Google-Suche mitwerkelt.



Foundation Models


Bei Foundation Models handelt es sich um KI-Modelle, die eine große Bandbreite unterschiedlichster Aufgaben erledigen können – und dabei ganz unerwartete Eigenschaften aufweisen, die ihnen nicht speziell einprogrammiert wurden, sondern die selbstständig aus den gewaltigen unsortierten Datenkontinenten erwachsen („emergieren“), mit denen die Modelle trainiert wurden. Der Begriff stammt vom Stanford Institute for Human-Centered Artificial Intelligence und bezeichnet KIs, die durch ihre vielseitigen Fertigkeiten zur Grundlage („foundation“) für ganz unterschiedliche Anwendungen werden können.



Diese emergenten Eigenschaften sind der Grund, warum viele Beobachter ins Schwärmen (oder Schaudern) kommen, wenn sie an die nächste Generation der Foundation Models denken – und wieso Firmen wie OpenAI keinerlei Probleme haben, an Geld zu kommen, obwohl ihnen immer noch ein klares Geschäftsmodell fehlt. Niemand weiß, was genau die Mega-KIs von morgen können. Sicher ist nur: Es wird eine ganze Menge Überraschungen geben. Und überall, wo eine neue Technologie Überraschendes leisten kann, lässt sich viel verdienen.


Die offene Frage ist, ob im Bereich der Foundation Models auch das Winner-Takes-All Prinzip gilt, das zum Beispiel Meta und Google so reich gemacht hat. Werden am Ende ein paar wenige gigantische KI-Corporations „first to market“ sein und das große Geschäft machen, den größten Reibach der Geschichte der Menschheit?


An OpenAI kann man ganz gut sehen, warum sich diese Frage noch nicht so leicht beantworten lässt. Die Firma, einst als Non-Profit gestartet, um den KI-Fortschritt in ethisch gute Bahnen zu lenken, hat mit ChatGPT das bisher wohl aufsehenerregendste KI-Tool veröffentlicht. Kaum ein anderes Unternehmen hat mit einem Large Language Model bisher in so kurzer Zeit so viele User erreicht. Zugleich hat das Unternehmen schon seit einer Weile einen For-Profit-Arm und eine immer enger werdende Verflechtung mit Microsoft. Macht das OpenAI schon zu einem Tech-Giant in spe mit dem Potenzial, Google zu entthronen?


Auch KI hat eine Lieferkette. Sogar eine ziemlich komplexe.


Mitnichten, und zwar aus zwei Gründen. Zum einen ist derzeit noch unklar, wo in der KI-Wertschöpfungskette am Ende das meiste Geld verdient wird. Die Idee einer solchen Wertschöpfungskette für KI-Produkte stammt vom Journalist Evan Armstrong, der dazu gerade eine sehr lesenswerte Analyse veröffentlicht hat. Denn mit KI-Produkten ist es ganz ähnlich wie mit iPhones oder Autos: Es braucht eine komplexe Abfolge aus Ressourcenförderung und der Fertigung zahlreicher Einzelteile, bevor das Produkt in den Händen der Endkunden landet.


Riesige Mengen an Mikrochips und Grafikkarten müssen produziert und in großen Rechenzentren verbaut, Datenberge abgeerntet und an KI-Systeme verfüttert werden. Die Foundation Models, so revolutionär sie auch sein mögen, sind nur ein Glied in dieser Wertschöpfungskette – und bisher nicht dasjenige, mit dem am meisten Geld verdient wird. Was Geld und greifbare finanzielle Gewinne angeht, profitieren derzeit am stärksten Chip-Hersteller wie Nvidia oder große Cloud-Computing Dienste vom aktuellen KI-Hype.


Zum zweiten, und vielleicht noch wichtiger: Es ist gar nicht klar, ob diese Foundation Models sich prinzipiell überhaupt als proprietäre Geldquellen eignen. Denn einiges deutet darauf hin, dass die großen Foundation Models mit jeder neuen Generation nicht nur mächtiger werden – sondern sich auch einander immer mehr angleichen. Die Modelle sind alle mit demselben großen Datenberg gefüttert – sprich: dem gesamten menschlichen Wissen in Text- oder Bildform im Internet.


Der Code, mit dem dieser Datenberg dann in Parameter und Gewichtungen verarbeitet wird, ist meist die am vergleichsweise wenigsten aufwändige Zutat. Schwerer zugänglich ist die Rechenpower zum Trainieren der Modelle. Doch auch der Zugang zu Rechenpower bleibt selten dauerhaft exklusiv. Projekte wie Stable Diffusion zeigen, dass sich Foundation Models wie DALL-E mit relativ geringer zeitlicher Verzögerung als „Open-Source-Version“ nachbauen lassen.


KI als Elektrizität – und ein problematisches Wettrennen


Es könnte also sein, dass die aktuellen Big Names in der KI-Welt, wie eben beispielsweise OpenAI, am Ende gar nicht unbedingt eigene Produkte bauen werden, sondern eher zum ersten Mal den Zugang zu einer Art unentdeckter Landmasse ermöglicht haben. Foundation Models wären dann mehr wie Elektrizität: eine grundlegende transformative Kraft, keine proprietäre Plattform, mit der sich exklusiv Geld verdienen lässt.


Nichtsdestotrotz ist OpenAI aktuell einer der Stars der Stunde, zusammen mit ähnlichen Start-Ups und „Research Corporations“ wie Anthropic oder StabilityAI. Und ganz egal, ob es am Ende die eine große Firma mit dem einen großen Foundation Model geben wird oder nicht: Aktuell ist das Wettrennen in vollem Gange. Jede Firma will die erste sein, die ein Foundation Model at scale in einem End-User-Produkt zum Einsatz bringt. Es könnte ziemlich schnell gehen: Microsoft lässt seit ein paar Tagen Tausende User mit Versionen seiner Suchmaschine Bing und seines Browsers Edge experimentieren, in denen eine weiterentwickelte Version von ChatGPT integriert ist. Parallel lässt Google verlauten, dass die eigene Bard-KI künftig die Google-Suche ergänzen werde.


Das mag langweilig klingen im Vergleich zu dem Versprechen von „replacing all human endeavours“ – aber es sind dennoch Ankündigungen, die bei einigen KI-Experten für ziemlich viel Unbehagen sorgen dürften. Ein Wettrennen in Richtung der nächsten Generation von Foundation Models mit unvorhersehbaren emergenten Eigenschaften? Man muss nicht unbedingt an das Schreckensszenario einer superintelligenten und uns Menschen nicht wohlgesonnenen Gott-KI glauben, um dabei Bauchweh zu kriegen. Es reicht die Vorstellung, dass am Ende eben doch das eine proprietäre Mega-Modell herauskommt, das alles andere ersetzt und einer einzigen, dann quasi allmächtigen Tech-Firma gehört.


Ein bisschen ironisch ist ja schon: Während bei früheren Tech-Monopolisten à la Google und Facebook der freie Wettbewerb noch als das Mittel der Wahl galt, um die Macht der Konzerne einzuschränken, könnte eben dieser Wettbewerb diesmal Teil des Problems sein, weil er dazu führt, dass Foundation Models in großem Stil implementiert werden, ohne dass man davor ihre emergenten Eigenschaften in Ruhe untersucht hat.


Auch hier spielt OpenAI wieder eine besondere Rolle: Ursprünglich gegründet „zum Wohle der Menschheit“ und um die KI-Forschung vernünftiger und transparenter zu machen, trägt die Firma mit ihren öffentlichkeitswirksamen Releases dazu bei, dass sich die Geschwindigkeit der KI-Entwicklung insgesamt erhöht. Der Ausgang ist ungewiss.


Titelbild: Michael Förtsch mit Stable Diffusion

Fritz Espenlaub

Fritz Espenlaub

Tech-Journalist und Podcaster

554

Cooler Artikel!

NewBot3.png
Job, der Bot

Das dürfen leider nur 1E9-Mitglieder.

Werde 1E9-Mitglied, um diesen Artikel weiterzulesen!

NewBot3.png

1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen.

Job, der Bot
NewBot3.png
Job, der Bot

Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren.

Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen?

NewBot3.png
Job, der Bot

Das freut mich zu hören!

Darf ich fragen warum?

Leider gab es einen Fehler. Bitte probiere es später noch einmal!

Kommentare

Deine Meinung teilenJetzt den ersten Kommentar verfassen.

Weiter bei 1E9...

Überschrift 3

Cooler Artikel!

Überschrift 3

Artikel

Überschrift 3

Cooler Artikel!

Überschrift 3

Cooler Artikel!

b6ce4c61-976a-497e-91b4-66357bcf94c1

698f3deaec9bf7f4acf6e0e0

bottom of page