TLDR: Du hast es bestimmt oft gelesen: Die berühmte Behauptung, eine Google-Suche verursacht 0,0003 kWh Strom verbraucht und rund 0,2 g CO₂ - so viel wie das Aufkochen eines Wasserkochers - nur leider stammt das nicht aus einer wissenschaftlichen Studie. Sie wurde 2009 von der britischen Sunday Times erfunden, einem Harvard-Physiker fälschlicherweise zugeschrieben und anschliessend millionenfach weiterverbreitet. Heute wiederholt sich dasselbe Muster bei KI: Zahlen werden aus dem Kontext gerissen, falsch interpretiert und als Fakten präsentiert. Zeit, genauer hinzuschauen.
Die Story, die nie eine war
Im Januar 2009 veröffentlichte die britische Sunday Times einen Artikel mit der knackigen These: Zwei Google-Suchen verursachen so viel CO₂ wie das Aufkochen eines Wasserkochers für eine Tasse Tee. Die Zahl: 7 Gramm CO₂ pro Suchanfrage. Als Quelle nannte die Zeitung den Harvard-Physiker Alex Wissner-Gross und seine Forschung. Die Geschichte verbreitete sich innerhalb von Stunden über alle grossen Nachrichtenportale.
Das Problem: Wissner-Gross hatte nie über Google geforscht. Er war MIT-Absolvent, Fellow am Harvard Center for the Environment und hatte den durchschnittlichen CO₂-Ausstoss von Webseitenbesuchen allgemein untersucht – etwa 20 Milligramm CO₂ pro Sekunde eines Webseitenbesuchs. Mit Google hatte das nichts zu tun.
Wissner-Gross distanzierte sich umgehend. Im Harvard Crimson erklärte er: Seine Arbeit habe nichts mit Google zu tun, er habe keine Ahnung, woher die Sunday Times ihre Statistiken habe, und die Zeitung habe offensichtlich eine Rechnung mit Google offen gehabt. TechCrunch rekonstruierte wenig später, dass die 7-Gramm-Zahl vermutlich aus einem älteren Blogpost eines anderen Autors stammte, den Wissner-Gross in einem Editorial herangezogen hatte – eine Dritthand-Interpretation, die zum journalistischen Fakt mutierte.
Googles Gegenreaktion
Google liess nicht lange auf sich warten. Am selben Tag veröffentlichte Urs Hölzle, damals Senior Vice President Operations, einen Blogpost mit dem Titel „Powering a Google Search". Die Kernaussage: Eine typische Google-Suche verbrauche 0,0003 kWh (0,3 Wh) Energie und verursache rund 0,2 g CO₂. Das ist 35 Mal weniger als die behaupteten 7 Gramm.
Google konterte weiter: Der eigene PC der Nutzer:innen verbrauche während einer Suchanfrage mehr Energie als Googles Rechenzentren. Und ein gesamtes Jahr Google-Nutzung einer einzelnen Person verursache ungefähr so viel CO₂ wie eine einzige Waschmaschinenladung.
Einige Tage später lenkte selbst die Sunday Times ein und akzeptierte Googles Berechnung. Doch der Schaden war angerichtet: Die 7-Gramm-Zahl hatte sich bereits festgesetzt – in Köpfen, Artikeln und Präsentationen weltweit.
Die Anatomie einer Fehlinformation
Was hier passiert ist, folgt einem Muster, das wir als „Medienarithmetik" bezeichnen können:
Schritt 1: Eine wissenschaftliche Zahl wird aus ihrem ursprünglichen Kontext gelöst. Wissner-Gross sprach über die Webnutzung allgemein, nicht über Google.
Schritt 2: Journalistische Interpretation vereinfacht und dramatisiert. Aus „20 mg CO₂ pro Sekunde Webbesuch" wurde „7 g CO₂ pro Google-Suche" – eine Zahl, die nie peer-reviewed publiziert wurde.
Schritt 3: Eine griffige Analogie macht die Zahl viral. Der Wasserkocher-Vergleich war einfach zu gut, um ihn zu hinterfragen.
Schritt 4: Korrekturen erreichen nur einen Bruchteil der Menschen, die das Original gesehen haben.
Dieses Muster ist nicht auf 2009 beschränkt. Wir beobachten es heute bei jeder neuen Technologie – und ganz besonders bei Künstlicher Intelligenz.
-WERBUNG-
Mehr KI Kompetenz? Inkl. Kompetenznachweis? Dazu haben wir das KI-Update entwickelt. Kurse, Updates, Newsletter und Podcasts: ein Ort für all dein KI Wissen. Werde Teil unserer exklusiven Community! Tausche dich mit Gleichgesinnten aus, erhalte exklusive Inhalte und nimm an Live-Sessions teil. Mehr Infos gibts auf:
Der entscheidende Unterschied: Energie versus CO₂
Ein zentraler Punkt, der 2009 wie heute übersehen wird: Energieverbrauch (in Wattstunden oder Kilowattstunden) und CO₂-Emissionen sind nicht dasselbe. Der Energieverbrauch einer Rechenoperation ist relativ konstant – er hängt von der Hardware und dem Modell ab. Die CO₂-Emissionen hingegen variieren um den Faktor 10 bis 100, abhängig davon, ob das Rechenzentrum mit Kohlestrom oder erneuerbaren Energien betrieben wird.
Wissner-Gross sprach 2009 über CO₂, nicht über Energie. Und genau hier liegt die Falle: Wer nur CO₂-Zahlen vergleicht, ohne den Strommix zu berücksichtigen, vergleicht Äpfel mit Birnen.
Und heute? Was KI-Anfragen wirklich verbrauchen? Schwierig…
Jetzt wird es spannend. Eine aktuelle Analyse von Epoch AI (Februar 2025) kommt zum Ergebnis, dass eine typische ChatGPT-Anfrage mit GPT-4o etwa 0,3 Wh verbraucht – zehnmal weniger als die häufig zitierte ältere Schätzung von 3 Wh. Das liegt an effizienteren Modellen und besserer Hardware.
Zum Vergleich: Googles eigene Angabe für eine Suche lag 2009 bei 0,3 Wh. Google gibt für eine aktuelle Gemini-Textanfrage etwa 0,24 Wh an – also in derselben Grössenordnung. Eine KI-Anfrage verbraucht energetisch betrachtet ungefähr so viel wie eine Google-Suche vor 16 Jahren – erledigt aber deutlich komplexere Aufgaben.
Doch die Schätzungen klaffen weit auseinander. Einige Quellen wie Kanoppi rechnen mit 0,0029 kWh und 68 g CO₂ pro ChatGPT-Anfrage, weil sie einen globalen Strommix inklusive Kohlestrom zugrunde legen. Andere Analysen kommen auf deutlich niedrigere Werte. Eine Untersuchung von Wim Vanderbauwhede rechnet vor, dass ChatGPT-Anfragen zwischen 50- und 90-mal mehr Energie verbrauchen als eine konventionelle Google-Suche, wobei Faktor 60 der wahrscheinlichste Wert sei.
Der Punkt ist: Die Bandbreite der Schätzungen ist enorm. Und genau wie 2009 entscheidet die Methodik über die Schlagzeile. Wer will hier Transparen? Es bleibt teilweise difus.
Die Ironie der Geschichte
2009 wurde Google von einer Boulevardzeitung zum Klimasünder gestempelt – auf Basis einer Zahl, die nie aus einer Studie stammte. 16 Jahre später hat sich die Lage gedreht: Das Energieproblem ist real geworden, aber aus völlig anderen Gründen als damals behauptet.
Die Zahlen der grossen Tech-Konzerne sprechen eine deutlichere Sprache:
Googles Treibhausgasemissionen stiegen 2023 um 13 % gegenüber dem Vorjahr, angetrieben durch den erhöhten Energieverbrauch der Rechenzentren und Lieferkettenemissionen. Im Vergleich zu 2019 liegen Googles Gesamtemissionen sogar 48 % höher. Gleichzeitig zeigt sich, dass Investitionen in erneuerbare Energien wirken: 2024 konnte Google die Emissionen seiner Rechenzentren um 12 % senken, obwohl der Stromverbrauch um 27 % gestiegen war – die erste Reduktion der Rechenzentrums-Emissionen seit 2019. Möglich wurde das durch über 25 neue Clean-Energy-Projekte, die 2,5 GW zusätzliche saubere Energie ins Netz brachten.
Microsoft meldet ein ähnliches Bild: Die Gesamtemissionen sind im Geschäftsjahr 2024 um 23,4 % gegenüber dem Basisjahr 2020 gestiegen, obwohl die direkten Emissionen (Scope 1 und 2) um 30 % gesenkt werden konnten. Der Anstieg kommt fast ausschliesslich aus Scope-3-Emissionen – also aus der Lieferkette, dem Bau neuer Rechenzentren und den Hardwarekomponenten. Scope-3-Emissionen machen bei Microsoft über 97 % des gesamten CO₂-Fussabdrucks aus. Microsofts Chief Sustainability Officer Melanie Nakagawa formulierte es treffend: Man habe 2020 die Nachhaltigkeitsziele als „Moonshot" bezeichnet – und fünf Jahre später feststellen müssen, dass der Mond weiter weg gerückt sei.
Eine Analyse des Guardian ergab, dass die tatsächlichen Emissionen von Einrichtungen von Google, Microsoft, Meta und Apple zwischen 2020 und 2022 rund 7,6-mal höher lagen als offiziell berichtet. Der Grund: Scope-3-Emissionen und die Komplexität der Strommix-Berechnung machen es schwierig, den echten Fussabdruck zu beziffern.
Das grosse Bild: Was Rechenzentren weltweit verbrauchen
Die Internationale Energieagentur (IEA) schätzte den globalen Stromverbrauch von Rechenzentren im Jahr 2024 auf rund 415 Terawattstunden (TWh) – etwa 1,5 % des weltweiten Stromverbrauchs. Im Basisszenario der IEA wird sich dieser Verbrauch bis 2030 auf rund 945 TWh mehr als verdoppeln und knapp 3 % des globalen Stromverbrauchs ausmachen.
Um diese Zahl greifbar zu machen: 945 TWh entsprechen ungefähr dem gesamten Stromverbrauch Japans. Und das ist das konservative Szenario. Im sogenannten „Lift-Off Case" der IEA, der eine stärkere KI-Adoption annimmt, könnten Rechenzentren bis 2035 über 1.700 TWh verbrauchen – rund 4,4 % des globalen Strombedarfs.
In den USA und China konzentriert sich fast 80 % des globalen Wachstums. Laut MIT Technology Review verbrauchten US-Rechenzentren 2024 insgesamt rund 200 TWh – davon entfielen schätzungsweise 53 bis 76 TWh auf KI-spezifische Server.
Der Strommix entscheidet über alles
Und genau hier schliesst sich der Kreis zu 2009. Damals wie heute ist nicht der Energieverbrauch allein das Problem, sondern die Frage, woher der Strom kommt.
Die grösste Stromquelle für Rechenzentren weltweit ist derzeit Kohle mit 30 %, gefolgt von erneuerbaren Energien (27 %), Erdgas (26 %) und Kernenergie (15 %). Die CO₂-Emissionen von Rechenzentren wurden 2024 auf rund 220 Millionen Tonnen geschätzt; bis 2035 könnten sie auf 320 Millionen Tonnen steigen.
Carbon Brief setzt diese Zahlen in Perspektive: Rechenzentren sind derzeit für etwas über 1 % des globalen Stromverbrauchs und 0,5 % der CO₂-Emissionen verantwortlich. Selbst im schnelleren Wachstumsszenario der IEA würden Rechenzentren bis 2030 nur 1,4 % der globalen CO₂-Emissionen ausmachen.
Das heisst: Das Problem ist real, aber es ist kein Weltuntergangs-Szenario. Es ist ein Infrastrukturproblem, das mit den richtigen Investitionen lösbar ist. Microsoft, Google, Amazon und Meta planen für 2025 gemeinsame Investitionen von rund 320 Milliarden US-Dollar in KI-Infrastruktur – mehr als doppelt so viel wie die 151 Milliarden von 2023. Ein erheblicher Teil davon fliesst in erneuerbare Energien und effizientere Hardware.
KI frisst nicht nur Strom – sie schluckt auch Wasser
Ein Aspekt, der in der öffentlichen Debatte noch weniger Beachtung findet als die CO₂-Frage: Rechenzentren brauchen enorme Mengen Wasser zur Kühlung. Googles Wasserverbrauch in Rechenzentren ist seit 2019 um fast 88 % gestiegen. Microsoft meldet einen Anstieg des Wasserverbrauchs um 87 % seit 2020 auf fast 8 Milliarden Liter jährlich.
In wasserarmen Regionen – Kalifornien, Spanien, Teile Australiens – wird der Wasserbedarf zunehmend zum Standortfaktor für neue Rechenzentren. Die Abwägung zwischen Energieeffizienz und Wasserverbrauch ist dabei nicht trivial: Verdunstungskühlung spart Strom, verbraucht aber Wasser. Geschlossene Kühlsysteme reduzieren den Wasserverbrauch, erhöhen aber den Energiebedarf.
Die eigentliche Ironie ist eine andere
Das Unternehmen, das 2009 durch eine journalistische Fehlleistung zum Umweltsünder erklärt wurde, betreibt heute tatsächlich Rechenzentren, deren Stromverbrauch jährlich um zweistellige Prozentzahlen wächst. Aber der Grund ist nicht die klassische Google-Suche – die verbraucht heute dank effizienterer Hardware weniger Energie als 2009. Der Treiber sind KI-Workloads: das Training grosser Sprachmodelle, die Inferenz bei Milliarden täglicher Anfragen und der Ausbau von Cloud-Infrastruktur.
OpenAIs GPT-5, das im August 2025 veröffentlicht wurde, verbraucht laut einer Studie von BestBrokers bis zu achtmal mehr Strom als das Vorgängermodell. ChatGPT hat mittlerweile 900 Millionen wöchentlich aktive Nutzer:innen und verarbeitet Milliarden von Anfragen pro Tag. Kein Unternehmen veröffentlicht derzeit KI-spezifische Energieverbrauchs- oder Emissionskennzahlen – obwohl Google, Meta und Microsoft erhebliche Steigerungen ihres Gesamtverbrauchs auf KI zurückführen.
Das Muster von 2009 wiederholt sich: Zahlen kursieren ohne Kontext, Analogien ersetzen Analyse, und Schlagzeilen dominieren die Debatte. Der Unterschied ist, dass das Problem diesmal real ist – aber die Lösung nicht in Panik liegt, sondern in Transparenz, besserer Methodik und Investitionen in saubere Energie.
Was wir aus 16 Jahren Medienarithmetik mitnehmen
Die Episode von 2009 ist mehr als eine Fussnote der Technikgeschichte. Sie ist ein Lehrstück für den Umgang mit Zahlen in der aktuellen KI-Debatte:
Prüfe die Quelle. Die 7-Gramm-Behauptung wurde nie wissenschaftlich publiziert. Heute kursieren Schätzungen für den CO₂-Ausstoss einer ChatGPT-Anfrage, die um den Faktor 300 auseinander liegen – je nachdem, welche Methodik und welchen Strommix man unterstellt.
Unterscheide Energie von Emissionen. 0,3 Wh Energie können je nach Strommix 0,02 g oder 68 g CO₂ bedeuten. Diese Unterscheidung ist der Kern jeder seriösen Klimadiskussion über Technologie.
Misstraue griffigen Analogien. Der Wasserkocher-Vergleich von 2009 war kommunikativ brillant und inhaltlich komplett falsch. Heute liest du Vergleiche wie „ChatGPT verbraucht so viel Strom wie 52 amerikanische Haushalte pro Tag". Solche Vergleiche erzeugen Aufmerksamkeit, aber selten Verständnis.
Fordere Transparenz ein. Solange Tech-Konzerne keine KI-spezifischen Verbrauchsdaten veröffentlichen, bleibt jede CO₂-Berechnung eine Schätzung mit grossen Unsicherheiten.
Und darum bin ich überzeugt: Die Zukunft der KI-Debatte gehört nicht den Wasserkocher-Vergleichen, sondern denjenigen, die Zahlen hinter den Zahlen verstehen. Genau daran arbeite ich mit meinen Kund:innen: faktenbasiert einordnen statt Panik verbreiten. Wenn du mitreden willst – mit Substanz statt Bauchgefühl: melde dich gerne www.rogerbasler.ch
Disclaimer: Dieser Artikel wurde nach meinem eigenen Wissen und dann mit Recherchen mit KI (Perplexity.Ai und Grok.com sowie Gemini.Google.com) manuell zusammengestellt und mit Deepl.com/write vereinfacht. Der Text wird dann nochmals von zwei Personen meiner Wahl gelesen und kritisch hinterfragt. Das Bild stammt von Ideogram.Ai und ist selbst erstellt. Dieser Artikel ist rein edukativ und erhebt keinen Anspruch auf Vollständigkeit. Bitte melde dich, wenn Du Ungenauigkeiten feststellst, danke.
1,000+ Proven ChatGPT Prompts That Help You Work 10X Faster
ChatGPT is insanely powerful.
But most people waste 90% of its potential by using it like Google.
These 1,000+ proven ChatGPT prompts fix that and help you work 10X faster.
Sign up for Superhuman AI and get:
1,000+ ready-to-use prompts to solve problems in minutes instead of hours—tested & used by 1M+ professionals
Superhuman AI newsletter (3 min daily) so you keep learning new AI tools & tutorials to stay ahead in your career—the prompts are just the beginning
Quellen und weitere Informationen:
Carbon Brief. (2025, 17. September). AI: Five charts that put data-centre energy use – and emissions – into context. https://www.carbonbrief.org/ai-five-charts-that-put-data-centre-energy-use-and-emissions-into-context/
Data Center Dynamics. (2025, 4. Juni). Microsoft emissions up 23% since 2020, company blames AI data centers. https://www.datacenterdynamics.com/en/news/microsoft-emissions-up-23-since-2020-blames-ai-data-centers/
Data Center Dynamics. (2025, 30. Juni). Google data center power use up 27%, emissions down 17% – report. https://www.datacenterdynamics.com/en/news/google-data-center-power-use-up-27-emissions-down-17-report/
De Vries, A. (2025). The carbon and water footprints of data centers and what this could mean for artificial intelligence. Patterns, 9, 101961. https://www.cell.com/patterns/fulltext/S2666-3899(25)00278-8
ESG Today. (2025, 10. Juli). Google reduces data center emissions, but supply chain continues to drive carbon footprint higher. https://www.esgtoday.com/google-reduces-data-center-emissions-but-supply-chain-continues-to-drive-carbon-footprint-higher/
GeekWire. (2024, 15. Mai). Microsoft's carbon footprint keeps growing as AI drives data center expansions. https://www.geekwire.com/2024/microsofts-carbon-footprint-keeps-growing-as-ai-drives-data-center-expansions/
Google. (2009, 11. Januar). Powering a Google search [Blogpost]. Google Official Blog. https://googleblog.blogspot.com/2009/01/powering-google-search.html
Google. (2024). 2024 Environmental Report. https://sustainability.google/reports/google-2024-environmental-report/
Google. (2025). 2025 Environmental Report. https://sustainability.google/google-2025-environmental-report/
Harvard Crimson. (2009, 13. Januar). Fellow caught up in media controversy. The Harvard Crimson. https://www.thecrimson.com/article/2009/1/13/fellow-caught-up-in-media-controversy/
International Energy Agency. (2025, 10. April). Energy demand from AI – Energy and AI. https://www.iea.org/reports/energy-and-ai/energy-demand-from-ai
Kanoppi. (2025). Search engines vs AI: Energy consumption compared. https://kanoppi.co/search-engines-vs-ai-energy-consumption-compared/
MIT Technology Review. (2025, 20. Mai). We did the math on AI's energy footprint. Here's the story you haven't heard. https://www.technologyreview.com/2025/05/20/1116327/ai-energy-usage-climate-footprint-big-tech/
AleaSoft. (2025, 24. Dezember). Data Centers and the future of electricity demand. https://aleasoft.com/data-centers-future-electricity-demand/
AI Magazine. (2025, 22. Juli). Behind AI data centres facing emission reporting scrutiny. https://aimagazine.com/news/what-is-the-truth-about-future-ai-data-centre-emissions
BestBrokers via Business Today. (2026, 13. März). ChatGPT's 900 million weekly users handle billions of daily queries, each using 10× Google search energy. https://www.businesstoday.in/technology/news/story/chatgpts-900-million-weekly-users-handle-billions-of-daily-queries-each-using-10-google-search-energy-study-520516-2026-03-13
Ritchie, H. (2025, 21. August). What's the carbon footprint of using ChatGPT or Gemini? [Newsletter]. https://hannahritchie.substack.com/p/ai-footprint-august-2025
S&P Global. (2025, 10. April). Global data center power demand to double by 2030 on AI surge: IEA. https://www.spglobal.com/energy/en/news-research/latest-news/electric-power/041025-global-data-center-power-demand-to-double-by-2030-on-ai-surge-iea
Sustainability Magazine. (2025, 27. Februar). The ESG cost of Meta, Google & Microsoft's AI investments. https://sustainabilitymag.com/articles/the-real-cost-of-meta-google-microsofts-ai-investments
TechCrunch. (2009, 12. Januar). Revealed: The Times made up that stuff about Google and the tea kettles. https://techcrunch.com/2009/01/12/revealed-the-times-made-up-that-stuff-about-google-and-the-tea-kettles/
Technology Magazine. (2025, 30. Mai). Microsoft's emissions jump 23.4% after AI & cloud expansions. https://technologymagazine.com/articles/microsofts-2030-plan-revealed-as-emissions-rise-by-23-4
Vanderbauwhede, W. (2025, 6. Januar). Emissions from ChatGPT are much higher than from conventional search (updated). https://limited.systems/articles/google-search-vs-chatgpt-emissions/
You, J. (2025, 7. Februar). How much energy does ChatGPT use? Epoch AI, Gradient Updates. https://epoch.ai/gradient-updates/how-much-energy-does-chatgpt-use





