KI und Klima
Dass die rasant steigende Nutzung von Large Language Models aka. „KI“ zwar ein Segen für deren Nutzer*innen sein können, im Gegenzug aber mit ihrem Energieverbrauch die Umwelt belasten, haben wir alle schon gehört. Bei den Klimareporter*innen unterfüttert David Zauner das nochmal mit aktuellen Zahlen und Studiendaten:
Rechenzentren, deren Kühlung energieaufwendig ist, verbrauchten 2024 bereits rund 415 Terawattstunden, was 1,5 Prozent des globalen Stromkonsums entspricht. Durch die rasante Entwicklung von KI geht die IEA mittlerweile davon aus, dass sich dieser Wert innerhalb der kommenden fünf Jahre mehr als verdoppelt.
Und der rasant steigende Energiehunger kommt zur Unzeit und wird auf absehbare Zeit ja keinesfalls kleiner werden. Das trifft die, ich will fast sagen: sogenannte, Energiewende an einer empfindlichen Stelle. Der Ausbau erneuerbaren Energien ist soweit, dass sie die fossilen aus den Markt drängen könnten, wäre der Energiebedarf weiter gesunken, wie es noch vor dem KI-Boom war. Bei dem nun weiter steigenden Energiebedarf jedoch, lohnt sich das Weiterbetreiben von fossilen Kraftwerken wieder und genau das tritt eben auch ein.
Der Rekordausbau der Erneuerbaren wird laut Studie zu einem großen Teil vom rasch wachsenden Energiebedarf der Rechenzentren für künstliche Intelligenz aufgesogen. „Die Erstellung eines nur einminütigen Online-Videos – und das dreimalige Ausprobieren – kann so viel Energie erfordern wie eine Autofahrt über 100 Kilometer“, […]
Was auch im Artikel steht: es sind nicht nur die LLMs an den verschlechterten Aussichten Schuld. Aber KI hat natürlich die verrücktesten Steigerungsraten. Kann ja jeder von uns bestätigen: kein Tag an dem mir nicht ein neues KI-Tool präsentiert wird, ein Dienst den ich nutze jetzt auch KI integriert, mein Betriebssystem jetzt plötzlich intelligent wird. Zusätzlich wird mir auf der Arbeit alle Nase lang nahe gelegt, mehr KI einzusetzen und selber LLMs in Projekte zu integrieren wird von der Chefetage mit Applaus belohnt. Es scheint kein Entkommen zu geben, auch wenn ich privat eher wenig vom KI-Einsatz halte. Was mich allerdings immer wieder wurmt: mir wird jeden Tag gesagt, dass es keinen anderen Weg gibt. KI kommt und du bist entweder dabei, oder … naja, das oder ist noch nicht ganz klar, aber es wird grausam. Dinge als unausweichlich darzustellen ist allerdings ein ziemlich mieser Kommunikationstrick und ich habe noch nie erlebt, dass er in solchen Dimensionen funktioniert.
Ein LLM von OpenAI nach dem Energieverbrauch einer Anfrage gefragt, gibt sich übrigens unschuldig und ausgesprochen gesprächig:
Grobe Abschätzung (realistisch, nicht Marketing)
1. Rechenaufwand
- Deine Anfrage + Antwort: ca. 1–2 k Tokens
- Inferenz eines großen Sprachmodells dafür:
- ≈ 0,1–1 Joule reine Rechenenergie
2. Infrastruktur-Overhead
- Speicher
- Netzwerk
- Kühlung (PUE typ. 1.1–1.3)
➡️ realistisch:
≈ 0,2–2 Joule Gesamtenergie
Na, das klingt ja nach wenig. Kein Marketing, übrigens, is klar. Freundlicherweise schickt die KI gleich ungefragt eine Einordnung hinterher:
Einordnung
Vergleich Energie Diese Anfrage ~0,5–2 J 1 Google-Suche ~1–10 J 1 Sekunde Smartphone ~5–10 J 1 l Wasser um 1 °C erwärmen 4.200 J 1 km Autofahren ~2.000.000 J
Dann wird kurz eingestanden, dass das Training der KI wesentlich mehr Energie verbraucht, vor allem aber auch der Betrieb der Infrastruktur. Dagegen sei die Nutzung pro Anfrage aber viel günstiger, als bspw. Videostreaming oder herumscrollen. Schon klar, in welche Richtung das geht. Was soll die auch anderes sagen? Und vielleicht wird KI ja mal eines Tages sogar helfen, den weltweiten Energieverbrauch zu senken. Ja, vielleicht.
Ich weiß da natürlich auch keine Lösung, werde aber das Gefühl nach wie vor nicht los, mwir steuerten auf einen Abhang zu und drücken gerade nochmal so richtig auf das Gaspedal. Das Nachdenken darüber überlasse ich am besten einer KI, die hat den größeren Kopf.
3 Kommentare
ix
Nico
Flusskiesel