Mit Energiefresser KI unseren Energieverbrauch senken?

ChatGPT benötigt zehnmal mehr Strom, um auf eine Eingabeaufforderung zu reagieren, als Google für eine Standardsuche. Dennoch tun sich die Forschenden schwer, die Auswirkungen der generativen künstlichen Intelligenz auf den Energieverbrauch heute und in Zukunft in den Griff zu bekommen.
Rechenzentren sind grosse Stromverbraucher. © iStock

Nur wenigen ist bewusst, dass der CO2-Fussabdruck der digitalen Technologie dem der Luft- und Raumfahrtindustrie entspricht und zwischen 2 und 4 % der weltweiten Kohlenstoffemissionen ausmacht. Und dieser digitale CO2-Fussabdruck wächst in rasantem Tempo. Was den Stromverbrauch angeht, so verbrauchen die rund 11 000 Rechenzentren, die heute in Betrieb sind, genauso viel Energie wie ganz Frankreich im Jahr 2022, nämlich rund 460 TWh. Wird die breite Einführung generativer KI diese Zahlen in die Höhe treiben?

Die neue Technologie wird sich eindeutig auf den weltweiten Energieverbrauch auswirken, aber wie genau, ist schwer zu quantifizieren: «Wir müssen die Gesamtkosten der generativen KI-Systeme kennen, um sie so effizient wie möglich einsetzen zu können», sagt Manuel Cubero-Castan, Projektleiter für nachhaltige IT an der EPFL. Er ist der Meinung, dass der gesamte Lebenszyklus der generativen KI-Technologie berücksichtigt werden muss, von der Gewinnung der Mineralien und der Montage der Komponenten – Aktivitäten, die nicht nur die Energie betreffen – bis hin zur Entsorgung des tonnenweise anfallenden Elektronikschrotts, der oft illegal deponiert wird. Aus dieser Perspektive gehen die Umweltauswirkungen der generativen KI weit über den Strom- und Wasserverbrauch von Rechenzentren hinaus.

Die Kosten der Ausbildung

Derzeit beziehen sich die meisten verfügbaren Daten zum Stromverbrauch digitaler Technologien nur auf Rechenzentren. Nach Angaben der Internationalen Energieagentur (IEA) werden diese Zentren (ohne Datennetze und Kryptowährungs-Mining) im Jahr 2022 zwischen 240 TWh und 340 TWh Strom verbrauchen, was 1 % bis 1,3 % des weltweiten Gesamtverbrauchs entspricht. Doch obwohl die Zahl der Zentren jährlich um 4 % wächst, hat sich ihr Gesamtstromverbrauch zwischen 2010 und 2020 dank Verbesserungen der Energieeffizienz kaum verändert.

Mit dem massiven Einsatz von generativer KI wird sich das sicherlich ändern. Generative KI-Technologie basiert auf grossen Sprachmodellen (LLMs), die auf zweierlei Weise Strom verbrauchen. Erstens, während sie trainiert werden – ein Schritt, bei dem Terabytes von Daten durch Algorithmen laufen, damit sie lernen, Wörter und Sätze in einem bestimmten Kontext vorherzusagen. Bis vor kurzem war dies der energieintensivste Schritt.

Der zweite Schritt ist die Verarbeitung von Daten als Reaktion auf eine Eingabeaufforderung. Jetzt, wo LLMs in grossem Massstab eingesetzt werden, ist dies der Schritt, der am meisten Energie benötigt. Jüngste Daten von Meta und Google deuten darauf hin, dass dieser Schritt inzwischen 60 % bis 70 % der von generativen KI-Systemen verbrauchten Energie ausmacht, gegenüber 30 % bis 40 % für das Training.

ChatGPT-Abfrage im Vergleich zur herkömmlichen Google-Suche

Nach Angaben der IEA verbraucht eine ChatGPT-Suche etwa 3 Wh Strom, während eine herkömmliche Google-Suche 0,3 Wh verbraucht. Würden alle rund neun Milliarden Google-Suchanfragen, die täglich durchgeführt werden, auf ChatGPT umgestellt, würde dies den Gesamtstrombedarf um 10 TWh pro Jahr erhöhen. Goldman Sachs Research (GSR) schätzt, dass der Stromverbrauch von Rechenzentren in den nächsten fünf Jahren um 160 % ansteigen und 3 bis 4 % des weltweiten Stromverbrauchs ausmachen wird. Darüber hinaus werden sich ihre Kohlenstoffemissionen zwischen 2022 und 2030 wahrscheinlich verdoppeln. Nach Angaben der IEA ging die Gesamtstromnachfrage in Europa drei Jahre in Folge zurück, stieg aber 2024 wieder an und dürfte bis 2026 wieder das Niveau von 2021 erreichen – etwa 2.560 TWh pro Jahr. Fast ein Drittel dieses Anstiegs wird auf Rechenzentren zurückzuführen sein. GSR schätzt, dass die KI-bezogene Stromnachfrage in Rechenzentren zwischen 2023 und 2030 um etwa 200 TWh pro Jahr steigen wird. Bis 2028 dürfte KI für fast 19 % des Energieverbrauchs von Rechenzentren verantwortlich sein.

«Wenn wir anfangen, generative KI-Technologie in grossem Massstab und mit immer grösseren LLMs einzusetzen, werden die daraus resultierenden Energiegewinne bei weitem nicht ausreichen, um eine Reduzierung der gesamten Kohlenstoffemissionen zu erreichen.»      Manuel Cubero-Castan, Projektleiter für nachhaltige IT an der EPFL

Die rasante Entwicklung der generativen KI könnte diese Prognosen jedoch ins Gegenteil verkehren. Das chinesische Unternehmen DeepSeek hat Ende Januar ein generatives KI-Programm vorgestellt, das sowohl beim Training der Algorithmen als auch bei der Beantwortung von Aufforderungen weniger Energie verbraucht als seine amerikanischen Pendants. Ein weiterer Faktor, der das Wachstum des KI-Strombedarfs bremsen könnte, ist die begrenzte Menge an Mining-Ressourcen, die für die Herstellung von Chips zur Verfügung stehen. Nvidia dominiert derzeit den Markt für KI-Chips mit einem Marktanteil von 95 %. Die drei Millionen weltweit installierten Nvidia-H100-Chips verbrauchten 2024 13,8 TWh Strom – so viel wie Guatemala. Bis 2027 könnten die Nvidia-Chips 85 bis 134 TWh Strom verbrauchen. Aber wird das Unternehmen in der Lage sein, sie in diesem Umfang zu produzieren?

Nicht immer eine nachhaltige Wahl

Ein weiterer Faktor ist die Frage, ob unsere alternden Stromnetze in der Lage sein werden, die zusätzliche Last zu tragen. Viele von ihnen, sowohl auf nationaler als auch auf lokaler Ebene, stossen bereits jetzt an ihre Grenzen, um den aktuellen Bedarf zu decken. Und die Tatsache, dass Rechenzentren häufig geografisch konzentriert sind, macht die Sache noch komplizierter. So entfallen beispielsweise 20 % des Stromverbrauchs in Irland und mehr als 25 % im US-Bundesstaat Virginia auf Rechenzentren. Der Bau von Rechenzentren in Regionen, in denen die Wasser- und Stromversorgung bereits überlastet ist, ist möglicherweise nicht die nachhaltigste Wahl», sagt Cubero-Castan.

Und dann ist da noch die Kostenfrage. Wenn Google in der Lage sein wollte, generative KI-Anfragen zu verarbeiten, müsste es 400 000 zusätzliche Server aufstellen – zum Preis von etwa 100 Milliarden Dollar, was seine Betriebsmarge auf Null schrumpfen liesse. Ein unwahrscheinliches Szenario.

Ungenutzte Vorteile

Ein Teil des durch generative KI verursachten Anstiegs des Stromverbrauchs könnte durch die Vorteile der KI im Allgemeinen ausgeglichen werden. Auch wenn das Training von Algorithmen eine Investition erfordert, könnte sie sich in Form von Energieeinsparungen oder Klimavorteilen auszahlen. So könnte die KI beispielsweise das Innovationstempo im Energiesektor beschleunigen. Dies könnte den Nutzenden helfen, ihren Stromverbrauch besser vorherzusagen und zu reduzieren, Versorgungsunternehmen in die Lage versetzen, ihre Stromnetze effektiver zu verwalten, das Ressourcenmanagement zu verbessern und Ingenieurfachleute ermöglichen, Simulationen durchzuführen und Fortschritte in den Bereichen Modellierung, Klimaökonomie, Bildung und Grundlagenforschung voranzutreiben. Ob wir in der Lage sind, die Vorteile dieser Art von Innovation zu nutzen, wird von ihren Auswirkungen abhängen, davon, wie weit die neue Technologie von den Verbrauchern angenommen wird, und davon, wie gut die politischen Entscheidungsträger sie verstehen und wie gut sie Gesetze zu ihrer Regelung ausarbeiten.

Die Rechenzentren der nächsten Generation, die heute gebaut werden, sind energieeffizienter und ermöglichen eine grössere Flexibilität bei der Nutzung ihrer Kapazität. Ebenso arbeitet Nvidia daran, die Leistung seiner Chips zu verbessern und gleichzeitig deren Energiebedarf zu senken. Nicht zu vergessen ist auch das Potenzial des Quantencomputings. Die IEA geht davon aus, dass 40 % des Stroms in Rechenzentren für die Kühlung, 40 % für den Betrieb von Servern und 20 % für andere Systemkomponenten wie Datenspeicherung und Kommunikation benötigt werden. An der EPFL leitet Prof. Mario Paolone die Initiative Heating Bits, um einen Demonstrator zu bauen, mit dem neue Kühlmethoden getestet werden können. Fünf Forschungsgruppen und das EcoCloud Center haben sich zu dieser Initiative zusammengeschlossen, um neue Verfahren für die Wärmerückgewinnung, die Kraft-Wärme-Kopplung, die Einbindung erneuerbarer Energien und die Optimierung des Serverbetriebs zu entwickeln.

Den Gesamtzusammenhang im Auge behalten

Eine weitere (schmerzlose und kostenlose) Möglichkeit, den Stromverbrauch von Rechenzentren zu senken, ist die Entrümpelung. Jeden Tag erzeugen Unternehmen weltweit 1,3 Billionen Gigabyte an Daten, von denen die meisten als «Dark Data» enden, also als Daten, die zwar gesammelt und gespeichert, aber nie genutzt werden. Forscher der Loughborough Business School schätzen, dass 60 % der heute gespeicherten Daten «dunkle» Daten sind, deren Speicherung so viel Kohlenstoffemissionen verursacht wie drei Millionen Flüge von London nach New York. Der diesjährige Digital Cleanup Day findet am 15. März statt, aber Sie müssen nicht bis zum Frühling warten, um aufzuräumen!

Cubero-Castan mahnt uns jedoch, das grosse Ganze im Auge zu behalten: «Wenn wir anfangen, generative KI-Technologie in grossem Massstab und mit immer grösseren LLMs einzusetzen, werden die daraus resultierenden Energiegewinne bei weitem nicht ausreichen, um eine Verringerung der gesamten Kohlenstoffemissionen zu erreichen. Die Senkung unseres Energieverbrauchs und die Erhöhung der Lebensdauer und Effizienz unserer Infrastruktur sind nach wie vor unerlässlich.»

Die Auswirkungen der generativen KI auf den Energieverbrauch dürfen nicht übersehen werden, aber im Moment sind sie auf globaler Ebene nur marginal – sie tragen einfach zum ohnehin schon hohen Stromverbrauch der digitalen Technologie im Allgemeinen bei. Videos machen derzeit 70 % bis 80 % des weltweiten Datenverkehrs aus, während andere wichtige Faktoren Multiplayer-Online-Spiele und Kryptowährungen sind. Die Haupttreiber der Stromnachfrage sind heute Wirtschaftswachstum, Elektrofahrzeuge, Klimaanlagen und Fertigung. Und der grösste Teil dieser Energie stammt immer noch aus fossilen Brennstoffen.

Weitere Informationen

Referenzen

Dieser Artikel wurde in der Ausgabe von Dimensions veröffentlicht, die am 14. März 2025 erschienen ist. Dimensions ist ein Magazin der EPFL, das mit ausführlichen Artikeln, Interviews, Porträts und Nachrichten die Spitzenforschung vorstellt. Es erscheint viermal im Jahr in englischer und französischer Sprache und kann von allen Abonnenten und Mitgliedern des EPFL Alumni Clubs abonniert werden. Es wird auch kostenlos auf dem Campus der EPFL verteilt.