• FragRoger
  • Posts
  • Wie lange können wir uns KI noch leisten?

Wie lange können wir uns KI noch leisten?

In den letzten fünf Jahren ist der Energieverbrauch von künstlicher Intelligenz stark gestiegen.

Wie lange können wir uns KI noch leisten?

Energievebrauch und KI - erstellt mit Ideogram.Ai von Roger Basler de Roca

In den letzten fünf Jahren ist der Energieverbrauch von künstlicher Intelligenz stark gestiegen. Das liegt daran, dass immer mehr fortschrittliche Modelle entwickelt und trainiert werden und dass immer mehr grosse KI-Systeme im Betrieb sind.

Ich wollte in diesem Newsletter der Frage einmal nachgehen “wie lange können wir uns denn KI überhaupt noch leisten"?”

Dabei haben mein Team und ich festgestellt, dass der Energieverbrauch doch sehr unterschiedlich ist je nach dem was wir damit tun, wer diese gebaut hat und was dahinter steckt. Also tauchen wir ein.

Eine genaue Analyse ist leider fast unmöglich

Während KI unbestreitbar faszinierende Möglichkeiten eröffnet, wirft ihr enormer Energieverbrauch einen langen Schatten.

Zunächst müssen wir anerkennen, dass die genaue Quantifizierung des KI-Energieverbrauchs eine immense Herausforderung darstellt. Mehrere Faktoren tragen zu dieser Komplexität bei:

1. Mangelnde Transparenz: Viele KI-Unternehmen behandeln ihren Energieverbrauch als Betriebsgeheimnis, was eine unabhängige Überprüfung erschwert.

2. Rasante technologische Entwicklung: Die KI-Landschaft verändert sich in atemberaubendem Tempo. Daten zum Energieverbrauch sind oft veraltet, bevor sie überhaupt veröffentlicht werden.

3. Systemkomplexität: KI-Systeme bestehen aus zahlreichen Komponenten – von Datenzentren bis hin zu Endgeräten – die jeweils unterschiedliche Energieprofile aufweisen.

4. Fehlende Standardisierung: Es gibt keine einheitlichen Methoden zur Messung und Berichterstattung des KI-Energieverbrauchs, was Vergleiche erschwert.

5. Indirekte Effekte: KI kann in vielen Bereichen zu Energieeinsparungen führen, die schwer zu quantifizieren sind.

Trotz dieser Herausforderungen lassen sich einige bemerkenswerte Erkenntnisse gewinnen, die uns einen Einblick in die Grössenordnung des Problems geben.

Um die Dimension des KI-Energieverbrauchs greifbar zu machen, betrachten wir zwei aufschlussreiche Vergleiche:

Smartphone: Ein durchschnittliches Smartphone verbraucht bei aktiver Nutzung etwa 2-6 Wattstunden (Wh) pro Tag.

Haushalt: In Deutschland liegt der durchschnittliche tägliche Stromverbrauch eines Haushalts bei 8-10 Kilowattstunden (kWh). In den USA ist dieser Wert mit etwa 30 kWh pro Tag deutlich höher.

Die KI-Modelle im Vergleich

  • Das Training des Sprachmodells GPT-3 benötigte sage und schreibe 1.287 Megawattstunden (MWh). Dies entspricht dem Jahresverbrauch von etwa 420 deutschen Durchschnittshaushalten!

  • Ein grosses Convolutional Neural Network (CNN) für medizinische Bildanalyse verschlang bis zu 263.000 kWh für das Training – genug, um 88 deutsche Haushalte ein Jahr lang mit Strom zu versorgen

Dann die Rechenzentren:

  • Derzeit verbrauchen Rechenzentren, die die Infrastruktur für KI und andere digitale Technologien bereitstellen, 4-5% des weltweiten Stroms.

  • Prognosen zufolge könnte der KI-bedingte Stromverbrauch von Rechenzentren in den nächsten Jahren auf bis zu 30% ansteigen.

Diese Zahlen verdeutlichen die enorme Energieintensität von KI-Systemen, insbesondere während der Trainingsphase komplexer Modelle.

Nicht alle KI ist gleich: Unterschiede im Energieverbrauch

Es ist wichtig zu verstehen, dass der Energiebedarf von KI-Systemen stark variiert. Mehrere Faktoren beeinflussen den Verbrauch:

1. Generative vs. diskriminative Modelle:

Generative Modelle wie ChatGPT oder Midjourney, die neue Inhalte erzeugen, sind in der Regel deutlich energieintensiver. Dageegen stehen diskriminative Modelle, die zur Analyse und Klassifizierung eingesetzt werden, benötigen oft weniger Energie.

Je grösser und komplexer ein KI-Modell, desto höher der Energiebedarf für Training und Betrieb. Beispiel: Das Training von GPT-3 verbrauchte 1.287 MWh, was dem Energieverbrauch eines Atomkraftwerks in einer Stunde entspricht.

Die Grafikprozessoren (GPUs) sind energieintensiv. Eine NVIDIA Tesla V100 GPU verbraucht etwa 300 Watt pro Stunde. Neuere Generationen, also spezialisierte KI-Chips wie FPGAs versprechen deutliche Energieeinsparungen.

Fun Fact: KI für Sprachübersetzung oder Bilderkennung hat oft einen höheren Trainingsbedarf als Modelle für industrielle Prozessoptimierung.

Der Energieverbrauch von KI hat direkte Auswirkungen auf die Umwelt:

Wenn man den Zahlen glauben soll, so ist die gesamte IT-Branche, einschliesslich KI, für 2-4% der globalen Treibhausgasemissionen verantwortlich – ähnlich dem weltweiten Flugverkehr. Und allein das Training von GPT-3 verursachte CO2-Emissionen von 552 Tonnen, was 700 Hin- und Rückflügen zwischen New York und San Francisco entspricht.

Eine hypothetische Umstellung aller Google-Suchen auf KI-basierte Verarbeitung würde einen jährlichen Stromverbrauch von 29,3 TWh erfordern – so viel wie ganz Irland verbraucht.

Der unterschätze Wasserverbrauch

Der oft übersehene Aspekt des Wasserverbrauchs ist ebenfalls besorgniserregend:

  • Für das Training von GPT-3 wurden 700.000 Liter Kühlwasser benötigt.

  • Microsofts globaler Wasserverbrauch stieg 2022 um 34% auf 6,4 Mrd. Liter, bei Google um 20% auf 25 Mrd. Liter – vermutlich aufgrund des verstärkten KI-Einsatzes.

  • Eine einzelne Anfrage an ein generatives KI-System wie ChatGPT verbraucht etwa 500 ml Wasser.

Diese Zahlen verdeutlichen, dass der ökologische Fussabdruck von KI weit über den reinen Stromverbrauch hinausgeht und wir müssen uns fragen: wie lange können wir uns das wirklich noch leisten.

Die Zukunft wird besser, teilweise

Um den Energieverbrauch von Künstlicher Intelligenz (KI) zu reduzieren, gibt es mehrere Strategien. Erstens wird an der Entwicklung energieeffizienter Hardware gearbeitet, wie spezielle Chips und Memristoren, die eine effizientere Datenverarbeitung ermöglichen. 

Zweitens können Algorithmen und Software optimiert werden, indem beispielsweise die Genauigkeit der Berechnungen reduziert wird.

Drittens kann KI mit anderen Methoden wie wissenschaftlichen Modellen und menschlichem Wissen kombiniert werden, um ihre Effizienz zu steigern.

Viertens ist es wichtig, dass trainierte KI-Modelle energieeffizient ausgeführt werden, um ihre Echtzeitanwendung zu ermöglichen. Fünftens kann die Energieeffizienz von KI-Modellen gemessen und verbessert werden, zum Beispiel mit dem Benchmark EC-NAS oder durch die Einhaltung von Richtlinien für die Entwicklung energieeffizienter KI-Modelle. 

Und was macht die Politik? Nun gewissen Regierungen fördern die Forschung und Entwicklung von umweltfreundlichen KI-Anwendungen. Expert:Innen betonen die Wichtigkeit der Energieeffizienz bei der Entwicklung von KI, um ihren ökologischen Fussabdruck zu begrenzen und eine nachhaltige Nutzung zu ermöglichen.

Bei Fragen? #fragRoger

Willst du mehr wissen? Sehr gerne komme ich auch bei Dir, bei deiner Firma, deiner ERFA Gruppe oder deinem Verband vorbei und helfe mit einem Workshop oder Input Referat.

Disclaimer: dieser Artikel wurde nach meiner Recherchen mit KI selbst geschrieben, mit Deepl Write verbessert und Mistral zusammen gefasst und vereinfacht. Das Bild stammt von Canva und ist selbst erstellt. Dieser Artikel ist rein edukativ und erhebt keinen Anspruch auf Vollständigkeit.

Kennst Du schon meine AI Good News? Auf LinkedIn abonnieren https://www.linkedin.com/build-relation/newsletter-follow?entityUrn=7140723457817817089

Und dazu gibt es auch die AI Bad News: Auf LinkedIn abonnieren https://www.linkedin.com/build-relation/newsletter-follow?entityUrn=7140723323671371776

Quellen: