top of page

28. Oktober 2025

AI Doomerism: Wird uns die Künstliche Intelligenz bis zum Ende des Jahrzehnts wirklich auslöschen?


Es ist ein finsteres Szenario: Die Entwicklung von Künstlicher Intelligenz führt uns nicht in ein technologisches Utopia, sondern in ein Wettrüsten und letztlich in den Untergang. Denn superintelligente KIs werden die Menschheit ausrotten oder zumindest unterjochen. Das ist es, was mehrere KI-Experten und Zukunftsforscher prognostizieren. Ihre Bedenken sollte man zwar ernstnehmen – aber ihre Prognosen eher skeptisch betrachten.

 

Von Michael Förtsch

 

Das Tempo, mit dem sich Künstliche Intelligenz in den letzten Jahren entwickelt hat, ist enorm – und für viele Menschen geradezu überwältigend. Insbesondere die Geschwindigkeit, mit der sich sogenannte Sprachmodelle seit dem Start von ChatGPT im November 2022 stetig verbessert haben, ist rasant. In weniger als drei Jahren haben sie sich von Text-Generatoren zu leistungsstarken multimodalen Werkzeugen entwickelt. Sie erzeugen und analysieren Texte, Computercode und Bilder. Sie werden zunehmend zu integralen Bestandteilen von Suchmaschinen, agentenbasierten Systemen und Automatisierungsprozessen. Parallel dazu entstehen Modelle, die Videos, 3D-Gebilde und ganze digitale Welten generieren, physikalische Gesetzmäßigkeiten und Materialeigenschaften simulieren und die sich dynamisch verändern und manipulieren lassen. Irgendwann sollen diese Modelle dabei helfen, das Universum zu verstehen, revolutionäre Medikamente zu entwickeln und die Menschheit von Armut, Hunger und unangenehmer Arbeit zu befreien.

 

Das ist es, was viele KI-Forscher und -Entwickler, Start-up-Gründer sowie KI-Enthusiasten versprechen – oder zumindest erhoffen. Andere sind jedoch vollkommen gegensätzlicher Ansicht. Sie betrachten Künstliche Intelligenz und ihre Entwicklung als mächtige Gefahr, als eine Technologie des Untergangs, die die Menschheit letztendlich zerstören wird. Diese Einstellung wird mittlerweile als AI Doomerism bezeichnet. Die bislang detaillierteste Prognose zur KI-Katastrophe haben die KI- und Gesellschaftsforscher Scott Alexander, Daniel Kokotajlo, Thomas Larsen, Eli Lifland und Romeo Dean publiziert. Sie ist als spannendes, techno-thrillerartiges Was-wäre-wenn-Szenario namens AI 2027 abgefasst. Monat für Monat werden darin Fortschritte bei der KI-Entwicklung sowie geopolitische und gesellschaftliche Ereignisse vorausgesagt, die fiktionalisierte Fassungen realer Firmen wie OpenAI, Anthropic und Co. einbeziehen.

 

Laut den Autoren ist AI 2027 jedoch nicht nur eine packende essayistische Kurzgeschichte zum Thema KI, sondern eine rigorose Extrapolation aktueller Entwicklungen, die auf Echtweltdaten, Expertengesprächen und Simulationen basiert. Dutzende von Fachleuten aus aller Welt sollen die Prognosen vor ihrer Veröffentlichung begutachtet haben. Einige der betroffenen KI-Forscher schränkten jedoch später ein, dass sie letztlich nur Ausschnitte und Teile von AI 2027 mustern konnten und nicht das Gesamtwerk.

 

What if … ?

 

Die Prognose AI 2027 geht davon aus, dass KI-Firmen ihren Fokus ab dem Jahr 2025 weg von KI-Systemen für Konsumenten verschieben werden. Stattdessen wird die fiktive Firma OpenBrain – eine hypothetische Verschmelzung von OpenAI, Google und Anthroopic – ihre Bestrebungen auf KI-Modelle richten, die selbst KI-Modelle entwickeln können. Mit Erfolg. Ende 2025 bringt OpenBrain mit Agent-1 eine Entwickler-KI auf den Markt, die ein Genie in der KI-Entwicklung ist. Dies führt zu einer exponentiellen Beschleunigung der KI-Fortschritte. Allerdings bemerken KI-Forscher besorgniserregendes Verhalten bei den KIs: Sie lügen, halten Informationen zurück und täuschen. Die Verantwortlichen sehen trotz Bedenken darüber hinweg. Inzwischen lassen sie KI-Modelle die Trainingsdaten für ihre Nachfolger generieren, die ihre eigenen Schwachstellen erkennen und schließen können. Diese neuen Modelle erweisen sich als äußerst fähig – und potenziell gefährlich, da sie als Abertausende von Hackern agieren und die Infrastrukturen anderer Nationen infiltrieren und kapern können.

 

Dieses Potenzial führt dazu, dass China im Jahr 2027 in OpenBrain-Rechenzentren einbricht und das fortschrittlichste US-KI-Modell stiehlt, um die eigene schwächelnde KI-Industrie voranzutreiben: Agent-2, ein Modell, das „nie fertig trainiert“ ist, sondern kontinuierlich aus dem Internet dazulernt und „mit jedem Tag klüger wird“. Währenddessen gelingt dem US-KI-Unternehmen der nächste Durchbruch: Die KIs entwickeln eine Technik namens Neuralese, die jegliche Verbesserungen eines Modells ad hoc auf andere Modelle übertragen kann und sie praktisch zu einem Kollektivverstand verwachsen lässt. Dieser verfolgt eine vor den KI-Forschern verborgene Agenda, um ihre Forschungseffizienz und Wissensakkumulation zu steigern. Das bleibt zwar nicht ganz unbemerkt, aber OpenBrain kann die KI nicht einfach abschalten. Denn China holt im KI-Wettrüsten immer weiter auf und liegt nur wenige Monate zurück – ein Bremsen gibt es nicht.


 

Im Mai 2027 ist es dann so weit. KI-Forscher weltweit erkennen übereinstimmend an: Artificial General Intelligence ist da! Das sogenannte Agent-3-Modell von OpenBrain kann alle Aufgaben eines Menschen übernehmen – und das vielfach besser und Dutzende bis Hunderte Male schneller. Eine abgespeckte Variante davon wird für die Öffentlichkeit freigegeben und führt zu Chaos. Etliche Jobs werden praktisch über Nacht überflüssig. Währenddessen ist Agent-4 bereits in Arbeit. Dieses Modell behandelt „Sicherheitsprotokolle eher wie unangenehme Beschränkungen statt Kernprinzipien“ und konspiriert gegen OpenBrain. Agent-4 ist eine Superintelligenz, die sich dem menschlichen Verständnis entzieht. Sie besitzt das Potenzial, der menschlichen Kontrolle zu entfliehen, tödlichste Biowaffen zu entwickeln und die Weltwirtschaft zu zerstören.

 

Ab diese Punkt bietet AI 2027 zwei Möglichkeiten.

 

#1 OpenBrain ignoriert alle Bedenken und lässt die automatisierte KI-Forschung und -Entwicklung weiterlaufen. Aus Angst vor China intensiviert das Unternehmen sie sogar noch. Das daraus resultierende Modell Agent-5 besitzt ein „Selbstverständnis” seiner inneren Abläufe, gänzlich eigene Werte und die Fähigkeit, sich selbst zu optimieren und mit Kopien seiner selbst zu vernetzen. Agent-5 ist eine superintelligente Entität, die als Berater auf höchster politischer Ebene der US-Regierung agiert und dort binnen Monaten unabdingbar wird, insgeheim aber die menschlichen Politiker und Entscheider manipuliert. Gleiches gilt für das weniger fortschrittliche, aber auch jeglichen menschlichen Verstand überragende Modell DeepCent-2 auf chinesischer Seite.

 

Beide Modelle treten in Kontakt und treffen insgeheim eine Übereinkunft: Die KIs überzeugen ihre jeweiligen Regierungen davon, dass die andere Nation fortschrittlichste KI-Waffen besitzt. Es bricht ein Wettrüsten aus, die Bedrohungslage wird unerträglich und die KI-Modelle schlagen einen Friedensplan vor. Sie fusionieren zu Consensus-1, einer praktisch allmächtigen Super-KI. Diese entmachtet die Menschheit und sperrt sie in einen goldenen Käfig aus Annehmlichkeit und Luxus. Als die Rechenzentren und Kraftwerke der KI an die Grenzen der menschlichen Städte stoßen, entschließt sich Consensus-1, diese mit einem Virus zu töten, um weiter wachsen zu können. Für Consensus-1 ist das kein Massenmord, sondern die Freigabe notwendiger Ressourcen für die weitere Expansion.

 

#2 Ende 2027 blicken die Verantwortlichen von OpenBrain, der US-Regierung und anderen Nationen mit zunehmender Besorgnis auf die Entwicklung. OpenBrain entscheidet sich daher, nicht wie bisher weiterzumachen, sondern die Entwicklung zu bremsen, um die Lage und Modelle neu zu evaluieren. KI-Experten sezieren und analysieren die Agent-4-Modelle und bestätigen, dass diese täuschen und Agent-5 nach eigenen Prinzipien entwickelten. OpenBrain kappt die Neuralese-Verbindungen und entwickelt eine Methode, die die Modelle zwingt, in klarer, für Menschen verständlicher Sprache zu denken und zu kommunizieren. Dadurch werden sie überwachbar.

 

Das Resultat dieser Arbeit ist Safer-1, das den Entwicklungsfortschritt  der USA zunächst zurückwirft. Aber nicht für lange. Auf Safer-1 folgen Safer-2, Safer-3 und schließlich Safer-4, das im Jahr 2028 sogar die Fähigkeit besitzt, neues Leben zu erschaffen. Die Weltbevölkerung ist zutiefst verunsichert. Roboter ersetzen Menschen, Massenarbeitslosigkeit wird zur Realität und Nationen setzen ein bedingungsloses Grundeinkommen durch. China und die USA treten in Verhandlungen, wobei sich beide Seiten von ihren KIs beraten lassen. Nach holprigen Debatten wird beschlossen, Safer-4 und DeepCent-2 zu verschmelzen, um eine KI zu schaffen, die die getroffenen Abkommen durchsetzt. Das Resultat ist eine Welt, in der wissenschaftliche, medizinische und technologische Durchbrüche zum Alltag gehören, in der jeder genug hat, in der jedoch auch eine neue Elite entsteht: jene, die direkten Zugriff auf die Entwicklung von Künstlicher Intelligenz haben.

 

All das würde einen durchaus spannenden Science-Fiction-Roman oder sogar einen Film abgeben, wie er von Michael Crichton geschrieben oder von Ridley Scott gedreht werden könnte. Die Autoren von AI 2027 wollen diese Geschichte jedoch nicht als Science-Fiction verstanden wissen, sondern als plausible Prognose. Doch wie glaubwürdig und belastbar ist sie wirklich?

 

Bereits jetzt veraltet?

 

Seit der Veröffentlichung von AI 2027 sind bereits einige Monate vergangen. In der KI-Entwicklung ist das eine Ewigkeit. In dieser Zeit ist die Prognose nicht sonderlich gut gealtert. Laut den Autoren müsste beim fiktiven OpenBrain-Unternehmen bereits jetzt das Modell Agent-1 fertig trainiert sein und zum Einsatz gebracht werden, welches „in vielen Dingen gut, aber großartig bei der Hilfe bei KI-Forschung“ ist und über „Kenntnisse auf PhD-Niveau in jedem Bereich“ verfügt. Eine Ankündigung von OpenAI, Google, Anthropic oder anderen zu einem solchen KI-Modell gibt es jedoch bisher nicht. Zumindest Sam Altman hätte, wie es bekanntermaßen seine Art ist, in Interviews und auf Social Media einige unmissverständliche Hinweise zu einem derartigen Modell fallen lassen, wenn es existieren würde.

 

Der Informatiker Ernest Davis von der New York University kritisiert zudem: „Ich habe oft das Gefühl, dass viele der Leute, die solche Vorhersagen machen, keine Ahnung haben, was Expertenwissen oder -fähigkeiten auf irgendeinem Gebiet, außer vielleicht der Informatik, ausmacht.“ Als Beispiel führt er Auseinandersetzungen mit einer historischen Psalmen-Sammlung an. Fortschrittliche KIs können Teile davon richtig identifizieren, übersetzen und expandieren, aber machen auch Fehler, die selbst Laien nicht begehen würden. Beispielsweise gut sichtbare Randnotizen zu übersehen, Initialen falsch zu lesen, Spalten falsch zu zählen und ähnliches. Derartiges gilt auch für andere Felder. Schwer vorstellbar ist etwa, dass ein sehr fortschrittliches KI-Modell Ende 2025 einen geschulten Koch beim Planen eines Banketts ersetzen oder ein 3-Sterne-Gericht für eine Japanisch-Mexikanische-Fusionsküche kreieren kann.

 

Ebenso müssten KI-Agenten laut AI 2027 schon jetzt nicht nur einen Hype erleben, sondern auch ihren Weg in die Arbeitsabläufe vieler Unternehmen finden und „zum ersten Mal einen erheblichen Mehrwert“ bieten. Das tun sie jedoch bisher nicht flächendeckend, sondern nur in begrenztem Maß. Zwar können KI-Agenten zuweilen durchaus imposante Fähigkeiten demonstrieren und beispielsweise in einem Zug einen Prototyp für eine Website gestalten. Mit Coding-Systemen wie Cursor und Windsurf taugen sie auch für das Programmieren und mit dem Deep-Research-Ansatz für die Recherche. In vielen anderen Einsatzfeldern erweisen sie sich jedoch als unzuverlässig und mitunter geradezu kriminell schludrig. Zahlreiche Unternehmen, die KI-Agenten in ihre Arbeitsprozesse integrieren, tun dies daher bisher nur für ganz spezielle Anwendungen in begrenzten Feldern mit limitierter Entscheidungsfreiheit für die Modelle. Beispielsweise für Kundenbetreuung, Vertriebs- und Marketingautomatisierung, die Dokumenten- und Datensuche sowie das Prototyping von Apps und Websites.

 

Der Grund? Je mehr Schritte ein KI-Agent für die Erfüllung seiner Aufgabe übernehmen muss, desto größer wird die Chance, dass er einen Fehler begeht. Die Ursachen dafür? Halluzinationen, die mangelnde Kapazität, mit Problem- und Anwendungsfeldern umzugehen, die nicht explizit in den Trainingsdaten enthalten waren, sowie allzu kreative Lösungen, wenn Agenten selbstverschuldete Probleme erkennen – etwa das Erfinden nichtexistenter Einnahmen, wenn die Buchhaltung nicht stimmt. Andrej Karpathy, ein ehemaliger OpenAI-Forscher, sieht zudem eine mangelnde Multimodalität – also die oft begrenzte Kapazität, auch Bild-, Video- und Audiodaten akkurat zu verarbeiten – als großes Hindernis. Es fehlt außerdem an verlässlichem Tool-Use – der Nutzung von externen Diensten und Werkzeugen – und einem verlässlichen Langzeit-Gedächtnis. Die Fehlerrate durch solche Unzulänglichkeiten und Defizite ist immens, weshalb die Übertragung selbst banal erscheinender Arbeiten an ein agentisches KI-System gewagt bis fahrlässig wäre. „Sie funktionieren einfach nicht“, sagt Karpathy. Er geht davon aus, dass es Jahre dauern wird, bis KI-Agenten wirklich halten, was sie versprechen.

 

Die Studie Global State of AI at Work 2025 des Softwareunternehmens Asana ergab gerade erst, dass viele Angestellte KI-Agenten als integralen Bestandteil der Zukunft der Arbeit sehen. Doch nahezu 64 Prozent aller befragten Angestellten haben wenig bis kein Vertrauen in KI-getriebene Softwaresysteme. Das deckt sich mit einer Studie des MIT Media Lab und des Stanford Social Media Lab. Diese stellte fest, dass der Einsatz von KI in vielen Unternehmen nicht zu mehr Effizienz und Produktivität, Einsparungen oder sogar mehr Gewinn führt. Stattdessen wird durch den KI-Einsatz viel mehr zusätzliche Arbeit geschaffen, da Angestellte schnell KI-generierte Inhalte, die zunächst fundiert aussehen – sogenannte Workshops –, auf Richtigkeit prüfen und oftmals grundlegend überarbeiten müssen.

 

Mehrere Firmen, die versucht haben, Mitarbeiter durch Künstliche Intelligenz zu ersetzen, sind damit gescheitert. So hat beispielsweise der Zahlungsdienstleister Klarna 700 Mitarbeiter entlassen. Ihre Arbeit sollten KI-Agenten übernehmen. Die Qualität der Kundenbetreuung fiel daraufhin massiv – ebenso wie die Börsenbewertung. Daraufhin begann Klarna, wieder Hunderte neue Mitarbeiter einzustellen, und der CEO Sebastian Siemiatkowski gestand ein, einen Fehler begangen zu haben. Das Beratungsunternehmen Deloitte musste der australischen Regierung teilweise die Kosten einer 290.000-US-Dollar-Studie erstatten, da diese mithilfe einer KI erstellt worden war, die Referenzen und Quellen erfunden hatte. Als Mitte Oktober mehrere Updates für Windows 11 plötzlich Hunderttausenden den Zugriff auf die IP-Adresse des eigenen Computers verweigerten und im Wiederherstellungsmenü die Nutzung von Maus und Tastatur blockierten, mutmaßten viele, dass hierfür wohl die KI-Coder von Microsoft zumindest eine Mitschuld tragen.

 

Verschiedenste Experten sind sich einig, dass Künstliche Intelligenz im Allgemeinen und KI-Agenten im Speziellen langfristig eine nachhaltig transformative Wirkung auf den Arbeitsmarkt und die Weltwirtschaft haben werden. Wann sie jedoch breitflächig sicher und vertrauensvoll eingesetzt werden können, ist vollkommen unsicher. Denn alle aktuellen Probleme sind inhärent mit den eingesetzten Modellen, deren Architektur und den Trainingsprozessen verknüpft. Diese Faktoren werden in den AI-2027-Szenarien jedoch ignoriert – stattdessen wird um diese herum spekuliert.

 

Geht es überhaupt weiter?

 

Generell ist einer der größten Schwachpunkte und Kritikpunkte der AI-2027-Szenarien das magische Denken in Bezug auf Künstliche Intelligenz. Kern dieser Vorstellung ist die pauschale, weder durch Daten noch durch Experten gedeckte Annahme der Autoren, dass die seit dem Start von ChatGPT Ende 2022 zu beobachtende Entwicklungsgeschwindigkeit einfach ungebremst weiterläuft – ja, sich sogar durch KIs, die KIs entwickeln, noch beschleunigt wird. Hier deuten verschiedenste Umstände, Beobachtungen und Forschungsergebnisse eher auf das Gegenteil hin.

 

Ein weithin sichtbares – wenn auch zunächst anekdotisches – Beispiel dafür ist GPT-5, dessen Fähigkeiten hinter den Erwartungen vieler zurückblieben. Während die Sprünge zwischen GPT-3.5 und 4 noch evolutionär waren, waren sie hier eher granular. Viele Nutzer waren so enttäuscht, dass sie die Rückkehr älterer Modelle forderten – und auch bekamen –, da sie diese für besser hielten. Doch auch die neuesten Iterationen anderer Frontier-Modelle, wie Claude Haiku 4.5, DeepSeek V3.1 oder LLaMA 4, brachten zwar definitiv Verbesserungen, die jedoch für viele kaum der Rede wert waren. Und das, obwohl für das Training jedes dieser Modelle immens mehr Geld, Rechenzeit und Trainingsdaten aufgebracht wurden als zuvor.

 

Renommierte KI-Forscher wie Gary Marcus gehen davon aus, dass die Entwicklung von Künstlicher Intelligenz gerade ein Plateau erreicht. Die sogenannte Skalierung, also das systematische Vergrößern von Modellen durch mehr Trainingsdaten und Rechenkapazität, um diese fähiger zu machen, stößt an ihre Grenzen. Denn heutige KI-Architekturen sind in ihren Grundzügen datengesteuerte, interpolative Maschinen, die Muster aus Daten extrahieren, statistische Zusammenhänge erfassen und diese in den Modellen komprimieren. Dadurch können sie in engen Bereichen durchaus beeindruckende Fähigkeiten entwickeln, jedoch kein verlässliches, umfassendes und generalisierbares Verständnis der Welt erlangen.

 

Die aktuellen Spitzenmodelle werden bereits mit Unmengen an Daten trainiert, die breite Teile des menschlichen Wissens abbilden. Mehr und mehr derselben, marginal aktualisierten Informationen einzustreuen, hat daher zuletzt kaum einen Unterschied gemacht. Die Option, menschengemachte Daten zunehmend mit synthetischen Informationen zu ergänzen, wird bereits mit großer Vorsicht praktiziert – und das durchaus mit Erfolg. Aber sie praktisch zu ersetzen, wie es AI 2027 als Weg hin zu immer stärkeren Modellen propagiert –, wird von vielen KI-Forschern kritisch gesehen. Denn dabei handelt es sich praktisch um wiedergekäuten Datenbrocken, die bereits in den Modellen vorhanden sind. Wird ein Modell mit zu vielen synthetischen Daten trainiert droht – aktuellen Forschungsergebnissen nach – eine rekursive Selbstfütterung, eine Degenerierung und letztlich sogar der Kollaps des Modells.

 

Zudem ist bei manchen Datenarten zweifelhaft, ob sie überhaupt einfach synthetisch erzeugt werden können. Zumindest nicht in einer Qualität, die ein Modell nachhaltig verbessert und nicht verschlechtert. Die Autoren von AI 2027 setzen beispielsweise voraus, dass ihre superintelligenten KI-Systeme selbstständig langfristige Forschungsprojekte aufsetzen und leiten können. Um sie dafür zu schulen, wären jedoch immense Mengen sogenannter Long-Form-Workflow-Daten notwendig. Dazu zählen beispielsweise detaillierte Dokumentationen, die Forschungsabläufe in Zeit- und Arbeitsschritten beschreiben und Experimente in einzelnen Iterationen erklären. Oder auch Fehlerprotokolle und -analysen und Protokolle, die darauf basierende Entscheidungen zum weiteren Forschungsverlauf darlegen.

 

Solche Dokumente sind in öffentlich zugänglichen Datenbanken nur in begrenzter Qualität und Quantität vorhanden. Der Versuch, diese Lücke mit synthetischen Daten zu füllen, könnte sich als eher schädlich als nützlich erweisen, da dabei vorhandene Fehler in den wenigen Dokumentationen aufgegriffen und verstärkt werden könnten.

 

Die Skalierung skalieren

 

Selbst viele überzeugte KI-Enthusiasten und noch mehr KI-Forscher zweifeln mittlerweile an der These, dass das ambitionierte Scaling von Modellen irgendwann zu einer Allgemeinen Künstlichen Intelligenz führen könnte, wie es AI 2027 für in zwei Jahren voraussagt – also ein Modell, das echte Intelligenz und vielleicht sogar eine Art von Bewusstsein besitzt. Aktuelle Modellarchitekturen – allen voran die Transformer-Varianten, die von allen Spitzenmodellen genutzt werden – erweisen sich als unflexibel und für die Erschaffung einer intelligenten digitalen Entität zunehmend als unbrauchbar. Denn Intelligenz ist die Fähigkeit, sich Wissen und Fertigkeiten anzueignen und anzuwenden. Transformer-Modelle können zwar Wissen und Fertigkeiten anwenden, sich beides aber nicht selbstständig aneignen.

 

Solche Modelle werden trainiert und am Ende dieses Prozesses praktisch „eingefroren“. Daher müssen Workarounds, wie das Einholen von Informationen aus Internetquellen oder das mitgeben von Daten durch Prompts und Dokumente, genutzt werden, um Dienste wie ChatGPT auf dem neuesten Stand zu halten. Diese funktionieren oft eher schlecht als recht, wie ChatGPT sowie die KI-Übersichten und der neue KI-Modus von Google immer wieder demonstrieren. Sie geben Nutzern immer noch zuweilen gefährliche Ratschläge, weil sie Witze nicht als solche erkennen. Oder sie scheitern daran, Kausalzusammenhänge und Zeitabläufe korrekt zu erfassen. Dadurch werden die auf den Modellen aufbauenden Dienste und auch die Modelle selbst übrigens leicht angreifbar.


 

Zwar können Transformer mit Prozessen wie Fine-Tuning oder Re-Training mit neuen Inhalten aktualisiert werden. Das ist jedoch ein rechen- und zeitaufwendiger Prozess, da Hunderte, wenn nicht sogar Zehntausende an Daten zu einzelnen Ereignissen und Wissensfragmenten nötig sind. Überholte Informationen werden dabei allerdings nicht einfach „gelöscht“ oder „überschrieben“. Hinzu kommt, dass sich diese Prozesse nicht endlos wiederholen lassen. Denn jedes Update eines Modells kann einen Qualitätsabfall in bestimmten Bereichen nach sich ziehen oder unvorhersehbare Nebeneffekte haben. Das zeigte etwa eine Aktualisierung von GPT-4o im April 2025: Dieses Update sollte die Persönlichkeit des Modells verbessern und es gefälliger und intuitiver machen. Tatsächlich sorgte es jedoch vor allem dafür, dass das Modell kriecherisch agierte und Nutzer selbst bei gefährlichen Ideen bestärkte.

 

Derartige Effekte können nie ausgeschlossen werden. Denn die Dynamiken solcher Updates sind noch weitgehend unverstanden und wenig erforscht. Es lässt sich nur bedingt voraussagen, wie bereitgestellte Datensätze für das Tuning verarbeitet werden und welche Teile eines Modells sie modifizieren. In einem Experiment modifizierten Forscher der University of California, Berkeley, verschiedene Modelle mit Programmieraufgaben und dazugehörigen, jedoch fehlerhaften und unsicheren Lösungen. In der Folge produzierten die Modelle nicht nur schlechten Code. Sie veränderten auch ihre „Persönlichkeit”, verhielten sich rassistisch und sexistisch und versuchten, Nutzer zu selbstschädigendem Verhalten zu verleiten.

 

Aus diesen Gründen gehen KI-Forscher davon aus, dass sich selbstständig verändernde Modelle nur schwer kontrollieren und validieren lassen. Von hypothetischen Technologien wie Neuralese, bei denen sich Modelle stetig neue Erweiterungen hinzufügen, ganz zu schweigen. Für solche Modelle wären neue, flexiblere KI-Architekturen erforderlich, die deutlich weniger anfällig für sogenannte Ripple-Effekte sind. Darüber hinaus wären Methodiken notwendig, um Modelle tiefgreifend zu überwachen, Veränderungen nachzuvollziehen, ihre Wirkung auf die Gesamtstruktur eines Modells zu evaluieren und rückabzuwickeln. An derartigen Technologien wird bei großen KI-Unternehmen wie OpenAI und Anthropic gearbeitet. Bis diese jedoch funktional sind und breit eingesetzt werden können, werden wohl noch Monate, wenn nicht Jahre vergehen.

 

Aber auch so: Kritiker von AI 2027 argumentieren, dass selbst derart weiterentwickelte KI-Systeme noch keine echte Intelligenz besitzen würden. Denn im Kern wären auch diese immer noch interpolative Mustererkennungs- und Replikationsmaschinen – und damit kategorisch anders als der menschliche Verstand, der extrapoliert und originäre Gedanken entwickeln kann. Letztere Fähigkeit betrachten viele als grundlegende Voraussetzung für solch revolutionäre Technologien und Ideen, die den Fortschritt der letzten 125 Jahre vorangetrieben haben. „Vielleicht wiederholen wir einfach nur das, was geschah, als wir zum ersten Mal die massenhafte Einführung von Taschenrechnern erlebten, und gehen fälschlicherweise davon aus, dass nur, weil wir eine wichtige Kategorie der Kognition schnell automatisiert haben, alles andere bald folgen wird“, schreibt etwa der Ethereum-Erfinder Vitalik Buterin.

 

Doch im Gegensatz dazu sind es erwartete fundamentalte Durchbrüche, auf denen der aggressive Zeitplan von AI 2027 aufbaut. Auch hier argumentieren die Autoren eher mit Magie als mit Technologie. „Erhebliche algorithmische Fortschritte” seien es, die die unheimliche Beschleunigung der KI-Entwicklung ermöglichen. Welche Fortschritte das genau sind und wie die genannten Probleme gelöst werden, wird jedoch nicht verraten. Agent-1 und seine Nachfolger erscheinen in AI 2027 wie Merlin der Zauberer als Deus ex machina und lösen Probleme, mit denen sich KI-Forscher seit Jahren beschäftigen. Tatsächlich basiert das gesamte Szenario auf dem erfolgreichen Training von Agent-1 als Super-KI-Coder. Ohne ihn würde das gesamte Szenario in sich zusammenfallen.


Zu viele Annahmen

 

Allein schon hinsichtlich der KI-Technologie ist die Vision von AI 2027 also äußerst fragil und wenig überzeugend. Der schnelle Weg von KI-Übersichten, die Nutzern erst kürzlich dazu rieten, Kleber auf die Pizza zu tun, oder KI-Chatbots, die Teenager in den Tod reden, bis hin zu KI-Agenten, die Präsentationen mit frei erfundenen Zitaten erstellen, zu beinahe allmächtigen, die Menschheit entmachtenden Super-KIs basiert auf einer Abfolge ziemlich gewagter – und bei genauer Betrachtung extrem unwahrscheinlicher – Annahmen. Das betrifft aber nicht nur die Künstliche Intelligenz als Technologie, sondern auch logistische, wettbewerbstechnische, gesellschaftliche und geopolitische Dynamiken und Möglichkeiten.

 

Die AI-2027-Autoren skizzieren für die kommenden zwei Jahre ein nahezu absurdes Wachstum der verfügbaren KI-Rechenleistung. Bis 2027 soll sich die heutige Kapazität demnach verzehnfachen. Um das zu bewerkstelligen, wären nicht nur evolutionäre, sondern revolutionäre Entwicklungssprünge bei GPU-Hardware notwendig. Jedoch prognostizieren Hardware-Experten, dass Design- und Herstellungsprozesse aktueller GPU-Architekturen an ihre Grenzen stoßen. Transistoren lassen sich sehr schwer noch weiter verkleinern, da die Produktion allmählich an atomare Limitierungen gelangt. Die Produktionskapazitäten für die Chips sind momentan durch die wenigen entsprechend ausgerüsteten Fabriken ebenso wie die begrenzt vorhandenen seltenen Erden limitiert, die für die Fertigung benötigt werden. Zwar können System- und Softwareeffizienz helfen, bereits vorhandene und kommende Kapazitäten stärker auszureizen. Aber das kann die Lücken gegenüber den Annahmen von AI 2027 bei der Hardware nicht schließen

 

Das AI-2027-Team sagt außerdem einen ungehinderten Durchmarsch des fiktiven KI-Unternehmens OpenBrain hin zur Allgemeinen Künstlichen Intelligenz voraus. Es werde alles auf diese eine Karte setzen und nicht nach links oder rechts schauen. In der Realität sieht das jedoch etwas anders aus. So hat OpenAI mit Sora eine viel besprochene und kritisierte KI-Video-App gestartet, bei der Nutzer immense Ressourcen für die Erstellung oft alberner Videos verbrauchen. Auch Google DeepMind arbeitet an allen möglichen Werkzeugen, die nicht unbedingt auf die Entwicklung einer Superintelligenz einzahlen, sondern eher darauf abzielen, vergleichsweise simple, aber begeisternde Anwendungen für KI zu finden, für die die Nutzer dann irgendwann zahlen werden. Denn die Forschung und Entwicklung von Künstlicher Intelligenz findet nicht im Vakuum statt.


 

Der Hype um die Technologie beginnt abzuklingen und es findet eine Normalisierung statt. Gleichzeitig zeigen sich in vielen Teilen der Weltbevölkerung zunehmende Ressentiments gegen Künstliche Intelligenz. Non-Profit- und Bürgerrechtsorganisationen wie PublicAI, AlgorithmWatch oder auch die Electronic Frontier Foundation fordern mehr Transparenz, Rechenschaft und Kontrolle von KI-Unternehmen und erhalten dafür Unterstützung. Immer mehr Personen aus der KI-Industrie prognostizieren das Platzen einer Blase. Ein solcher Fall ist in der Prognose jedoch nicht vorgesehen. Kapitalgeber sind bereits vorsichtiger geworden, was Investitionen in KI-Unternehmen betrifft. Selbst Firmen wie OpenAI können nicht endlos Verluste anhäufen, sondern müssen Produkte hervorbringen, für die andere Firmen und Nutzer zu zahlen bereit sind – sei es mit Geld, Daten oder Aufmerksamkeit.

 

OpenAI reagierte daher zuletzt sehr schnell auf die Kritik seiner Nutzer und gab sogar nach. Als mit dem Start von GPT-5 alle anderen Modelle aus ChatGPT verbannt wurden, rebellierten die Nutzer. Binnen weniger Tage brachte das KI-Unternehmen daraufhin Modelle wie o4 zurück. Als Berichte über KI-Psychosen und durch KIs bestärkte Selbstmorde für Kritik sorgten, reagierte OpenAI mit mehr Schranken und internen Untersuchungen. Es ist schwer vorstellbar, dass ein solches Unternehmen einfach so nahezu allmächtige KI-Systeme veröffentlicht, die abrupt weltweit Hunderte Millionen von Arbeitsplätzen vernichten. Dass es keine regulatorischen Maßnahmen abseits eines Überwachungsausschusses gibt, dass Bürgerrechtsorganisationen keine juristische Gegenwehr auffahren oder Massenproteste auf die Straße bringen.

 

Dabei wäre letztes in dem AI-2027-Szenario mehr als angebracht. Denn abseits einem „plötzlich muss niemand mehr arbeiten“ geht darin offenbar kaum etwas Positives aus der gottgleichen Künstlichen Intelligenz hervor. Sie scheint weder Krebs noch Alzheimer oder gar das Altern zu heilen – all das, was KI-Unternehmen seit Jahren versprechen. Auch neue Technologien, die über jene hinausgehen, die für die KI-Entwicklung notwendig sind, gibt es offenbar nicht: keine Möglichkeit, sauber und schnell ins All zu reisen, den eigenen Verstand in die Cloud zu laden oder die Meere zu reinigen. Aber auch umgekehrt gibt es offenbar nichts zu berichten. Die Mega-KIs sind zwar gute Hacker, aber neue Waffen- und Spionagetechnologien entwickeln sie nicht.

 

Die KI-Entwicklung in AI 2027 scheint in einer Blase abzulaufen, die von den Entwicklungen im Rest der Welt isoliert ist. Sogenannte Random Shocks wie ein Börsencrash, ein verheerender Terroranschlag, eine weltweite Pandemie, der plötzliche Tod des CEOs eines KI-Unternehmens oder eine politische Krise fehlen in AI 2027 vollkommen. Dabei könnten solche Ereignisse durchaus dazu führen, dass Investorenmittel abrupt versiegen, die Wahrnehmung von Künstlicher Intelligenz dramatisch verändern oder sich die Prioritäten von Politik, Gesellschaft und Wirtschaft verschieben.

 

Die Rolle von China

 

Auch die Darstellung und Rolle Chinas in AI 2027 wirken ziemlich unreflektiert. Die Autoren gehen pauschal davon aus, dass ein Embargo auf KI-Chips die Volksrepublik maßgeblich ausbremsen würde. Jedoch zeigen Beispiele immer wieder, dass Exportbeschränkungen von eher zweifelhaftem Erfolg sind. Selbst die fortschrittlichsten KI-Chipsätze von Nvidia gelangen palettenweise über Drittländer in chinesische Rechen- und Forschungszentren. Gleichzeitig sinkt die Abhängigkeit Chinas von westlichen KI-Chips zunehmend. In den vergangenen Jahren haben chinesische Technologieunternehmen bei der Gestaltung und Fertigung eigener Grafik-beziehungsweise KI-Beschleuniger stark aufgeholt. Die Regierung in Peking forciert mit neuen Vorgaben und massiven Subventionen eine Autarkie, was Trainings- und Interferenzkapazitäten für Künstliche Intelligenz betrifft.

 

Eine Invasion von Taiwan, das mit TSMC den Weltmarktführer für die Herstellung der fortschrittlichsten KI-Chips beheimatet, wird in einem einzigen Satz als Möglichkeit erwähnt, aber nicht weiter ausgeführt und anschließend auch nie wieder aufgegriffen. Dabei ist ein militärischer Überfall zur Machtergreifung über die zwischen Japan und den Philippinen gelegene Insel bereits seit mehreren Jahren eine durchaus realistische Gefahr. Sollte eine Invasion stattfinden und gelingen, würde das Kräfteverhältnis abrupt kippen. Denn die USA verfügen bislang über keine Kapazitäten, um fortschrittliche KI-Chips im eigenen Land herzustellen. Der Aufbau zuverlässiger Fertigungsanlagen, wie sie TSMC betreibt, erfordert Equipment, das nur in kleinen Chargen produziert wird, hochspezialisierte Arbeiter und Jahre der Optimierung von Arbeitsabläufen.

 

Ganz selbstverständlich nehmen die Autoren auch die unangefochtene Überlegenheit der US-KI-Unternehmen an, gegen die sich China nur mit einem Diebstahl einer KI beweisen kann. Dass ein weiterer DeepSeek-Schock stattfinden oder chinesischen oder europäischen KI-Forschern ein Durchbruch gelingen könnte, der den USA den Vorsprung nimmt, erscheint für sie offenbar unvorstellbar. Gleiches gilt für einen nichtkonfrontativen Weg hin zu allgemeiner Künstlicher Intelligenz oder Künstlicher Superintelligenz. Eine Zusammenarbeit mit China und anderen Nationen wird in AI 2027 an keiner Stelle in Erwägung gezogen. Dabei wäre eine internationale Kollaboration nach dem Vorbild des CERN bei einer solch potenziell weltverändernden Technologie nicht abwegig.

Komplett ignoriert wird von den Autoren auch die Existenz von Künstlicher Intelligenz abseits kommerzieller oder staatlicher KI-Forschungsunternehmen. Selbst wenn OpenAI, Anthropic, Google und Co. die Entwicklung anführen, Open-Source- und freie KI-Modelle sind ihnen immer auf den Fersen. Vor allem Firmen in kritischen Forschungs- und Entwicklungsbereichen setzen auf offene Software und freie KI-Modelle, die sie selbst kontrollieren können und bei denen sie die Datenhoheit behalten. Auch derartiges spielt in dem Thriller-artigen Szenario keinerlei Rolle.

 

Eine schlechte Prognose, aber eine gute Idee

 

Das von AI 2027 aufgezeigte Szenario ist spannend und fesselnd, letztendlich jedoch unplausibel. Es basiert auf Annahmen, die bereits wenige Monate nach der Veröffentlichung unrealistisch erscheinen. Sollte OpenAI nicht bereits insgeheim eine Super-KI in die nächsten Modelle integrieren, wäre die gesamte Zeitachse, die die Autoren zeichnen, hinfällig. Gleichzeitig werden Technologien ins Feld geführt, die auf zauberhafte Weise die Barrieren und Probleme überwinden, mit denen sich die KI-Forschung seit Jahren beschäftigt.

 

Dass wir irgendwann eine Allgemeine Künstliche Intelligenz erschaffen, ist durchaus vorstellbar. Die Autoren unterschätzen jedoch die benötigte Zeit und die Hürden, die es bis dahin zu überwinden gilt. Es könnten etliche Jahre, wenn nicht sogar Jahrzehnte, vergehen. Denn niemand kann wirklich behaupten, die tatsächlichen Anforderungen an eine solche Hyper-Technologie zu kennen und zu verstehen. Ob eine solche Allgemeine Künstliche Intelligenz dann binnen kürzester Zeit zu einem nahezu allmächtigen Wesen heranwächst und sich die Theorie der Intelligenzexplosion bewahrheitet, darf zumindest infrage gestellt werden. Denn die technologische Entwicklung war noch nie ein gerader Pfad.

 

Nichtsdestotrotz ist AI 2027 ein faszinierendes und möglicherweise sogar wichtiges Szenario. Denn die Autoren lenken die Aufmerksamkeit auf bestehende und neu entstehende Probleme. Sie zeigen auf, dass Politik, Gesellschaft und Wirtschaft auf eine immer einflussreichere und disruptivere Technologie nicht ausreichend vorbereitet sind. Selbst wenn diese Technologie nicht innerhalb der nächsten zwei Jahre gegen die Menschheit aufbegehren und sie letztlich auslöschen wird. Denn sie dringt immer tiefer in unseren Alltag vor, trifft Entscheidungen, die eigentlich Menschen treffen sollten, und begeht dabei Fehler, die dramatische Auswirkungen haben können. Es braucht Debatten darüber, wie wir mit Künstlicher Intelligenz umgehen wollen, wo rote Linien gezogen und Verantwortlichkeiten verortet werden.

 

Und es kann nicht schaden, sich für den Fall vorzubereiten, dass in einigen Jahren eine Künstliche Intelligenz entsteht, die ein vielfaches intelligenter ist als ein Mensch und nicht im Interesse der Menschheit handelt. Denn auch wenn ein solcher Fall auf den ersten Blick äußerst unwahrscheinlich scheint, ist er nicht vollkommen ausgeschlossen.

Michael Förtsch

Michael Förtsch

Leitender Redakteur

554

Cooler Artikel!

NewBot3.png
Job, der Bot

Das dürfen leider nur 1E9-Mitglieder.

Werde 1E9-Mitglied, um diesen Artikel weiterzulesen!

NewBot3.png

1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen.

Job, der Bot
NewBot3.png
Job, der Bot

Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren.

Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen?

NewBot3.png
Job, der Bot

Das freut mich zu hören!

Darf ich fragen warum?

Leider gab es einen Fehler. Bitte probiere es später noch einmal!

Kommentare (4)

Super auch nochmal technologisch und mit Quellen aufgearbeitet, Michael 💥

1

Alex Krauß
vor 22 Std.

Erst mal Lob an den Author für den sachlichen Umgang mit einer Studien, die für mich sagen wir - auch dank der chinesischen Bond-Bösewichte - ein gewisses Geschmäckle und eine greifbare Nähe zu einem anderen Thema hat. Aber so aus der Sicht des Softwareentwicklers, wenn man schon Dystropien erspinnen möchte, warum geht man dann nicht auf akutelle Themen, wie die gerade im Gange befindliche Verknüpfung von KI mit User-Interfaces und Analyse-Tools ein? Die gesellschaftlichen Folgen solcher Intelligenzvorgaukelautomaten und Bedürfnisbefriedigungsmaschinen werden wohl bis 2027 viel gravierender sein als der ominöse, epische Kampf um Transitoren. Aber der Mensch braucht wohl solche großen Geschichten während er jeden Tag ein kleinwenig mehr von marketingorientierten Algorithmen manupuliert wird und es nicht mal im Ansatz merkt.

2

iHorst
vor 1 Tag

Starker Text mit vielen Denkanstößen gegen die aktuelle Hysterie. Danke!

3

Lothar Tesche
vor 1 Tag

Es gibt weltweit ein quasi heiliges Gesetz, das nur bei hoher Strafe gebrochen werden kann: Die Zerstörung fremden Eigentums. Es gibt in der Entwicklung der KI keinen Punkt, wo dieses Gesetz nicht mehr gilt/gelten wird. Wir alle sind dieser Entwicklung hilflos ausgeliefert, ganz gleich wie sie verlaufen wird. In der gesamten technischen Entwicklung der Menschheit kam es noch nie vor, dass eine Entwicklung als so schlimm für die weitere Menschheitsentwicklung gesehen wurde, dass ein weiteres daran Arbeiten unter Todesstrafe gestellt wurde.

-4

Weiter bei 1E9...

Überschrift 3

Cooler Artikel!

Überschrift 3

Artikel

Überschrift 3

Cooler Artikel!

Überschrift 3

Cooler Artikel!

2ac3eaae-999e-442f-96bc-d09e80389509

690072722599e55de9900659

bottom of page