top of page

30. Juli 2025

Künstliche Intelligenz und ihr Stromhunger – Mythos, Risiko oder beides?


Wie viel Strom verbraucht ChatGPT wirklich und kann Künstliche Intelligenz zum Klimakiller werden? Die Antworten auf diese Fragen sind nicht so einfach wie gedacht. Denn dem Technologiefeld fehlt es noch an nötiger Transparenz. Bisherige Daten zeigen jedoch: KI lässt sich weder pauschal verdammen noch aus der Verantwortung nehmen.

 

Von Michael Förtsch

 

Es schien einer der gesicherten und unumstößlichen Kritikpunkte, wenn es um die Entwicklung und Nutzung von Künstlicher Intelligenz ging: ihr gigantischer Stromhunger. Denn die erforderliche Rechenleistung für den Aufbau der Sprach-, Bild-, Video- und Ton-Modelle ist immens – und damit die benötigte Energie. Und auch die pure Nutzung der Modelle – die sogenannte Inference – ist rechenintensiv. Dazu kommen Strom und Ressourcen für die Kühlung der Server, die die Berechnungen durchführen. Vor allem die leistungsfähigsten Modelle der GPT-, Claude-, LLaMa- oder auch DeepSeek-Reihen sind etliche Gigabyte groß und der Prozess, ihnen die gewünschten Informationen zu entziehen, äußerst komplex. Infolge des vor drei Jahren entflammten KI-Booms wurde Künstliche Intelligenz daher als Bedrohung für den Kampf gegen den Klimawandel gezeichnet. Doch sind die immer wieder zitierten Zahlen zum Energiehunger von KI,  insbesondere von ChatGPT wirklich korrekt? Werden KI-Rechenzentren wirklich zu einem der größten Stromfresser unserer Welt?

 

Die Antworten darauf sind gar nicht so eindeutig, wie man zunächst denkt.

 

Die zahlreiche Artikel und Medienberichte, die Künstliche Intelligenz in den vergangenen Jahren als Klimakiller brandmarkten, der  der die Energienetze ganzer Länder zum Kollabieren bringen würde, belegten dies oft mit einer Analyse von Bestbrokers.  Dieser zufolge verbraucht eine Anfrage an ChatGPT rund zehn Mal so viel Strom wie eine Google-Suche. Konkret: Wer ChatGPT eine Frage stellt, der verbrauche 2,9 Wattstunden. Das ist genug Strom, um ein Smartphone zwischen 20 und 30 Prozent zu laden oder Bluetooth-Kopfhörer für zweieinhalb Stunden zu betreiben. Mit dem Strom, der über das Jahr für ChatGPT verbraucht werde, könnte ein kleiner Staat wie Gibraltar auskommen.

 

Bereits zu Beginn des Jahres weckte eine Studie des gemeinnützigen KI-Forschungsinstituts Epoch AI starke Zweifel an den Werten. „Wir glauben, dass dieser Wert von 2,9 Wattstunden pro Abfrage wahrscheinlich zu hoch angesetzt ist“, so die Forscher. Bestbrokers habe sich bei seinen Werten auf veraltete Annahmen gestützt und sehr „pessimistische Schätzungen“ hinsichtlich der Komplexität und Länge der Anfragen und generierten Antworten – nämlich rund 1.500 Wörter – angelegt. Auch Weiterentwicklungen hinsichtlich Hardware und Modelleffizienz seien nicht berücksichtigt worden. Zudem sei der Vergleich mit einer klassischen Google-Suche einfach nicht auf dem aktuellen Stand.

 

Falsche Zahlen?

 

Statt 2,9 Wattstunden verbrauche eine durchschnittliche ChatGPT-Anfrage wohl eher 0,3 Wattstunden – und nicht selten noch weniger. Das entspricht in etwa dem Stromverbrauch von 40 Sekunden Fernsehschauen – oder dem einer Google-Suche im Jahr 2009. Denn Bestbrokers zog für seinen Vergleich den geschätzten Energieverbrauch von Google von vor 15 Jahren heran. Seitdem hat sich bei der Google-Suche viel verändert. Vor allem ist die Suche mit der weltweit am häufigsten genutzten Suchmaschine bereits seit mehreren Jahren durch Künstliche Intelligenz unterstützt. Dabei sind nicht die viel kritisierten AI Overviews gemeint, die mit Gemini realisiert werden, sondern BERT – ein KI-Modell, das bereits seit 2018 in stetig neuen Versionen im Hintergrund arbeitet. Experten gehen deshalb davon aus, dass der Stromverbrauch der Google-Suche dadurch zeitweise höher lag, aber durch stetige Optimierung auf Soft- und Hardwareseite inzwischen sogar niedriger liegen könnte als in der Untersuchung von Bestbrokers angenommen.  

 

„Der Energieverbrauch von ChatGPT ist wirklich keine große Sache – verglichen mit der Nutzung normaler Haushaltsgeräte, dem Heizen oder Kühlen der Wohnung oder dem Autofahren“, sagte Joshua You, Datenanalyst bei Epoch AI, gegenüber TechCrunch. Wie er außerdem betonte, lassen sich die erhobenen Werte für den Energieverbrauch von ChatGPT auch nicht einfach verallgemeinern. Laut der gemeinnützige Forschungsorganisation beziehen sich die Werte nur auf die Nutzung von ChatGPT mit dem derzeitig als Standard eingestellten Modell GPT-4o – das wohl tatsächlich von den meisten Menschen und am häufigsten genutzt wird.

 

OpenAI hatte das Modell als „neues Grundmodell“ konzipiert und von Beginn an auf niedrige Latenz, geringe Kosten und die Möglichkeit von Nahezu-Echtzeit-Antworten getrimmt. Zu diesem Zweck wurde eine neue Modellarchitektur entwickelt, optimiert und auf die von OpenAI genutzte Hardware abgestimmt, wodurch der Stromverbrauch im Vergleich zu älteren Modellen deutlich geringer ausfällt. Verglichen mit GPT-4 Turbo soll GPT-4o rund 50 Prozent günstiger sein. Sehr komplexe und umfangreiche Anfragen könnten allerdings den Energieverbrauch hochtreiben. Andere Modelle von OpenAI, insbesondere Reasoning-Modelle wie GPT-o3, dürften ohnehin eine deutlich schlechtere Energieeffizienz aufzeigen. Allerdings werden diese auch seltener eingesetzt.

 

Epoch AI führt jedoch aus, dass die Nutzung von KI-Modellen in den vergangenen Jahren generell effizienter geworden sei, was auch durch mehrere Erhebungen untermauert wird. Dies gelte zumindest für die großen KI-Unternehmen wie OpenAI, Google, Meta oder Anthropic und sei nicht primär nur auf eine Optimierung der Modelle zurückzuführen. Stattdessen spielt die Umstellung der genutzten Rechenzentren auf aktuellere KI-Chips wie die H100-Reihe von Nvidia eine große Rolle. Denn deren Leistung ist bei gleicher Energieaufnahme bis zu sechs Mal höher als die älterer A100-Systeme.

 

So schwierig ist Large-2

 

In einer gerade erst veröffentlichten Studie, die das französische KI-Unternehmen Mistral zusammen mit dem Umweltinstitut Carbone 4 und der Agentur für ökologischen Wandel erstellt hat, ging es nicht um den Stromverbrauch, sondern um eine deutlich breitere Umweltbilanz. Denn, wie Mistral argumentiert, müsse in diesen Bereichen für Transparenz gesorgt werden, um Nutzern, Entwicklern, Regierungen und Firmen das Treffen informierter Entscheidungen hinsichtlich KI zu ermöglichen. Für die Studie wurde der CO2-Fußabdruck, der Wasser- und Materialverbrauch des Trainings des Modells Large 2 und seiner Nutzung über einen Betriebszeitraum von 18 Monaten protokolliert – quasi der initiale Lebenszyklus eines KI-Modells.

 

Laut der Studie erzeugte eine durchschnittliche Anfrage mit einem generierten Inhalt von etwa einer Seite Text rund 1,14 Gramm CO2-Emissionen und verbrauchte 45 Milliliter Wasser. Hinzu kämen 0,2 Milligramm „Material“ – damit sind Ressourcen wie Metalle und Mineralien gemeint, die beispielsweise in den Chips, Kühlsystemen und anderen Teilen der Serverinfrastruktur verarbeitet sind. Dieser Verbrauch entspricht rund 55 Sekunden Netflix, 27 Minuten in einem Zoom-Call oder zehn Minuten am Rechner, um eine E-Mail zu schreiben. Das verbrauchte Wasser wäre hingegen genug, um ein kleines Radieschen zu züchten. Diese Daten sind mit Schätzungen zur Umweltbilanz vergleichbar, die 2024 für ChatGPT in Nature veröffentlicht wurden.

 

Sowohl das Training von Large-2 als auch die 18-monatige Nutzung summierten sich auf 20,4 Kilotonnen CO2 – das entspricht den Emissionen von 4.500 Pkw. Hinzu kamen 281.000 Kubikmeter Wasser, was etwa 1,12 Millionen Badewannen füllt, sowie 660 Kilogramm Material. Das ist keine gute Umweltbilanz. Doch im Vergleich mit anderen digitalen Werkzeugen, Apps und Diensten, die von Millionen Menschen tagtäglich genutzt werden, ist sie nicht so katastrophal, wie es die mediale Darstellung und Kritik erscheinen lassen.

 

Insbesondere Videostreaming von YouTube über Netflix bis hin zu TikTok verursacht ebenfalls erhebliche Umweltlasten, wird aber kaum kritisiert. Gleichzeitig ist die Kritik an energiefressenden Kryptowährungen wie Bitcoin in den vergangenen Jahren zunehmend verstummt. Auch laut der Internationale Energieagentur seien die Emissionen durch den Strombedarf von Künstlicher Intelligenz „im Kontext des gesamten Energiesektors gering“.

 

Bleibt der KI-Hype unbemerkt?

 

Die Kritik am Energieverbrauch und der Umweltbilanz von Künstlicher Intelligenz hängt jedoch auch mit den Plänen von KI-Unternehmen wie OpenAI, Meta, Oracle, Microsoft, Anthropic und Amazon zusammen. Diese investieren riesige Summen in Rechenzentren, die teilweise Gigawatt an Strom verbrauchen sollen.

 

Allerdings geht die Internationale Energieagentur davon aus, dass deren Energiehunger zwar stark, aber gleichzeitig auch weniger dramatisch ausfallen wird, als es derzeit den Anschein hat. Zumindest im globalen Maßstab. Denn die Baugeschwindigkeit und die Zahl der Rechenzentren werden stark durch Engpässe begrenzt. Insbesondere lassen sich die nötigen teuren KI-Chips nicht so schnell produzieren, wie sie verbaut werden sollen. Hinzu kommt, dass Rechenzentren nicht überall gebaut werden können. Sie benötigen Stromnetze, Zugang zu Kühlern und andere Infrastruktur.

 

Laut der IEA wird die Stromnachfrage von Rechenzentren zwar steigen, „bis 2030 aber wahrscheinlich nur einen relativ kleinen Anteil am gesamten Wachstum der globalen Stromnachfrage ausmachen“. Derzeit sind Rechenzentren für rund 1,5 Prozent des globalen Stromverbrauchs verantwortlich. Bis 2030 würde sich ihr Energieverbrauch im wahrscheinlichsten Fall verdoppeln. Lediglich in einem Extremszenario wäre eine Vervierfachung denkbar. Im nationalen Bereich sehen einige Studien größere Anteile: Bis 2028 könnten zwischen 6,7 und 12 Prozent des produzierten Stroms in den USA von Rechenzentren konsumiert werden. In Irland, wo bereits 21 Prozent des Stroms von Data Centern genutzt wird, könnte der Wert bis 2030 auf über 30 Prozent steigen.

 

Der Anteil am globalen Stromverbrauch würde laut der International Energy Agency letztlich aber im einstelligen Bereich bleiben – und somit sowohl beim Wachstum als auch dem Gesamtverbrauch weit hinter dem von Elektroautos und Klimaanlagen liegen. Diese Aussicht spiegelt sich auch weitgehend in einem Report des Thinktanks Rand Corporation wider. Dieser projiziert für das Jahr 2030 eine Leistungsaufnahme aller Rechenzentren von 327 Gigawatt bei dauerhafter Spitzenauslastung.

 

Zudem sieht die Rand Corporation mehrere Flaschenhälse und Hürden, die die von KI-Firmen angestrebte Baugeschwindigkeit bei Rechenzentren bremsen werden. Dazu zählen nicht nur KI-Chips, sondern auch der Mangel an Fachkräften, die Erteilung von Baugenehmigungen und Richtlinien hinsichtlich Umweltbedenken. Auch würde sich die wachsende Anzahl an Data Centern und deren Stromhunger fast ausschließlich im lokalen und regionalen Bereich bemerkbar machen – wo sie Anwohnern bereits jetzt Sorgen und Ärger bereiten. Dort könnten die riesigen Anlagen die vorhandenen Netze und Kraftwerke durchaus stark belasten – und die Umwelt.

 

Sauberer Strom für Künstliche Intelligenz

 

Sorgen machen sich Klima- und Umweltschützer aber auch über eine andere Entwicklung: KI-Firmen gehen inzwischen dazu über, die Stromversorgung ihrer KI-Rechenzentren möglichst eigenständig sicherzustellen. Dafür investieren Firmen wie Google, Microsoft und OpenAI einerseits in Start-ups, die an modernen Fusions- und Kernenergiekonzepten forschen. Doch diese werden wohl erst in mehreren Jahren – wenn überhaupt – mit dem Bau erster Kraftwerke beginnen. In der Zwischenzeit werden Stromkapazitäten bei für die Stilllegung vorgesehen oder sogar bereits stillgelegten Kraftwerken eingekauft.


Microsoft lässt das Atomkraftwerk Three Mile Island, das 1979 durch einen Störfall weltweit bekannt wurde, durch den Versorger Constellation Energy wieder in Betrieb nehmen, um seine wachsenden Serverkapazitäten zu versorgen. Im US-Bundesstaat Virginia hat Dominion Energy beschlossen, alte Kraftwerke wie das Kohlekraftwerk Clover Power Station weiterlaufen zu lassen und neue Gaskraftwerke zu bauen. Ähnliche Pläne existieren auch in Georgia, North Carolina und South Carolina. Insgesamt wurden Stand Juli 2025 die Stilllegungen von 17 fossilen Kraftwerken bis auf weiteres verschoben und der Neubau von Graskraftwerken mit einer Gesamtleistung von über 20.000 Megawatt angekündigt.

 

In anderen US-Bundesstaaten und Ländern sorgt die erwartete Nachfrage von Strom für Künstliche Intelligenz für eine etwas andere Dynamiken. Kalifornien erwägt Gesetze, die Rechenzentren Steuererleichterungen gewähren, wenn sie ihren Strom zu 70 Prozent aus erneuerbaren Quellen beziehen. In kanadischen Provinzen soll der nötige Bedarf mehrheitlich mit nachhaltigen Energieträgern gedeckt werden, vor allem mit Wasserkraft. Einige Provinzen sehen Data Center sogar als willkommenen Anlass, um ihre Stromnetze resilienter zu gestalten und grüne Stromproduktionskapazitäten auszubauen.

 

Auch in der Europäischen Union wächst die Nachfrage nach Strom für KI, jedoch langsamer. Denn der Bau neuer Rechenzentren ist in der EU mit höheren Auflagen und strengeren Genehmigungsverfahren verbunden. Dennoch gibt es verschiedene Erhebungen, die darauf hindeuten, dass der Einsatz von Künstlicher Intelligenz zumindest kurzfristig dazu führen könnte, dass die Stromerzeugung mit fossilen Energien hochgefahren wird. Langfristig sehen Umweltorganisationen wie Beyond Fossil Fuels jedoch die Möglichkeit, dass Künstliche Intelligenz zu einem Treiber des Ausbaus von Wind-, Wasserkraft und Solarenergie sowie von Stromspeichern und modernen Netzen werden könnte.

 

Tatsächlich debattieren EU-Politiker wie der irische Umweltminister Eamon Ryan über die Möglichkeit, den Bau neuer Rechenzentren nur zu genehmigen, wenn diese mit dem Ausbau grüner Energiequellen verbunden werden – und der Betrieb der Server mit sauberem Strom sichergestellt werden kann. Dieser Vorschlag kommt nicht von ungefähr. Irland ist die Heimat von mehr als 80 Rechenzentren. Die Stadt Dublin musste 2022 aufgrund der Gefahr von Blackouts den Bau weiterer Rechenzentren in ihrem Umland untersagen und 2023 Behelfsgeneratoren installieren, um die Versorgung der Bevölkerung zu sichern.

 

Nicht wenige KI-Forscher, aber auch Energieexperten sehen Künstliche Intelligenz langfristig als Lösung ihrer selbstversursachten Energieprobleme. Denn entsprechende Systeme und Modelle sollen fähig sein, nicht nur effizientere Netze zu planen, sondern auch ein intelligentes Speicher- und Lastenmanagement zu moderieren. Bereits jetzt werden KI-Systeme von Google genutzt, um Rechenzentren und KI-Chips selbst energieeffizienter zu gestalten. Auch die Internationale Energieagentur sieht die Möglichkeit, dass Künstliche Intelligenz ihre eigenen Emissionen kompensieren könnte, sofern die Technologie die von ihren Entwicklern gemachten Versprechungen zumindest ansatzweise einhält – und KI zu neuen Durchbrüchen bei der Energiegewinnungs- und Speichertechnologie führt.

 

Es braucht eine Debatte

 

Die Themen Künstliche Intelligenz, Strom und Umweltbilanz sind also weniger eindeutig als vielfach gedacht. Sie sind vielmehr sehr ambivalent. Die Belastung für die Umwelt und der Stromhunger von KI sind durchaus real. Ihre Entwicklung und ihr Einfluss lassen sich jedoch nur schwer im Verhältnis betrachten und scheinen je nach Blickwinkel über- oder untertrieben. Genau deshalb erscheint eine rationale gesellschaftliche Debatte richtig und wichtig. Denn dass KIs in den kommenden Jahren mächtiger werden und die Zahl ihrer Nutzer zunehmen wird, steht außer Frage.

 

Künstliche Intelligenz ist bereits jetzt dabei, ein integraler Bestandteil der Arbeits- und Lebensbereiche vieler Menschen zu werden. Eine Verlangsamung dieses Prozesses oder der Forschung und Entwicklung von Künstlicher Intelligenz erscheint wenig realistisch. Eher das Gegenteil dürfte der Fall sein – etwa mit neuen Ansätzen wie agentischer Künstlicher Intelligenz. Daher braucht es mehr Forschung und Transparenz hinsichtlich der Entwicklung, Etablierung und den Kosten dieser Technologie. Denn nur mit einem objektiveren Blick auf die Gesamtthematik, lassen sich Entscheidungen treffen, die Fortschritt ermöglichen und Schäden minimieren.

Michael Förtsch

Michael Förtsch

Leitender Redakteur

554

Cooler Artikel!

NewBot3.png
Job, der Bot

Das dürfen leider nur 1E9-Mitglieder.

Werde 1E9-Mitglied, um diesen Artikel weiterzulesen!

NewBot3.png

1E9 bietet dir gut recherchierten Journalismus, Newsletter und Podcasts über Zukunftstechnologien, dazu inspirierende Events und eine Community von Menschen, die Zukunft gestalten wollen.

Job, der Bot
NewBot3.png
Job, der Bot

Wir freuen uns immer über Feedback, als Mitglied kannst du auch kommentieren.

Hi, ich bin Job, der Bot! Konntest du mit diesem Artikel etwas anfangen?

NewBot3.png
Job, der Bot

Das freut mich zu hören!

Darf ich fragen warum?

Leider gab es einen Fehler. Bitte probiere es später noch einmal!

Kommentare (1)

Sir Herbwart
05. Aug.

Ich finde Vergleiche wie "Das entspricht in etwa dem Stromverbrauch von 40 Sekunden Fernsehschauen." eher irreführend. Die Frage ist doch, wieviele Anfragen an eine KI (Copilot, Gemini, ChatGPT usw.) in 40 Sekunden gestellt werden? Jede Minute werden ca. 4 Millionen Google-Suchanfragen durchgeführt, berichtet ein Marketingunternehmen. Zusätzlich werden 50 Milliarden WhatsApp-Nachrichten versendet. Laut der Internationalen Energieagentur (IEA) lag der weltweite Stromverbrauch von Rechenzentren im Jahr 2024 bei etwa 415 Terawattstunden, was rund 1,5 % des globalen Stromverbrauchs entspricht. Man erwartet bis 2030 einen Anstieg auf 945 Terawattstunden, was dem heutigen Stromverbrauch von ganz Japan entspricht. Politische Entscheidungsträger sind häufig geneigt, technologische Innovationen wie KI oder Cloud-Technologien proaktiv zu fördern – nicht nur wegen des wirtschaftlichen Potenzials, sondern auch wegen des geopolitischen Wettbewerbs (Stichwort: „KI-Rennen“ zwischen den USA, China, EU etc.). Von daher gilt es zu überlegen, wie man dieser problematischen Entwicklung überhaupt entgegen wirken kann. In der Politik sucht man eher vergebens nach Unterstützern.

2

Weiter bei 1E9...

Überschrift 3

Cooler Artikel!

Überschrift 3

Artikel

Überschrift 3

Cooler Artikel!

Überschrift 3

Cooler Artikel!

c97006a1-c776-461a-808f-4a9bfae9c7bd

6889f1e8785ea520b89c294a

bottom of page