Künstliche Intelligenz

ChatGPT: So viel Strom und Wasser verbraucht eine Anfrage - laut OpenAI-Chef Sam Altman

11.06.2025 von SWYRL/Friederike Hilz

Wegen KI explodiert der Stromverbrauch von Rechenzentren weltweit. OpenAI-Chef Sam Altman erklärte nun, wie viel Strom und Wasser eine einzelne Anfrage bei ChatGPT benötigt.

Künstliche Intelligenz ist auf dem Vormarsch, doch immer wieder werden Stimmen laut, die vor dem steigenden Energieverbrauch durch die Nutzung von KI warnen. OpenAI-Chef Sam Altman erklärte nun, wie viel Strom und Wasser eine einzelne Anfrage bei ChatGPT benötigt.

"Die Leute sind oft neugierig", leitet Altman seinen Blogeintrag ein und führt weiter aus: "Die durchschnittliche Abfrage verbraucht etwa 0,34 Wattstunden, was in etwa dem Verbrauch eines Backofens in einer Sekunde oder dem Verbrauch einer hocheffizienten Glühbirne in ein paar Minuten entspricht." Darüber hinaus erklärt der CEO, dass der Wasserverbrauch pro Anfrage bei ungefähr einem Fünfzehntel eines Teelöffels liege, was 0,00032176 Liter entspricht. Wie Altman auf diese Werte gekommen ist, führt er jedoch nicht aus. Sie unterscheiden sich jedoch von bisherigen Annahmen und Kalkulationen.

Noch im letzten Jahr hatte etwa die "Washington Post" zusammen mit Forschern vorgerechnet, dass die Erstellung einer einzigen E-Mail mit 100 Wörtern unter Verwendung von ChatGPT mit GPT-4 "etwas mehr als eine Flasche Wasser" zur Kühlung der Rechenzentren benötigen würde. Darüber hinaus hatte das gemeinnützige Forschungsinstitut Electric Power Research Institute Zahlen veröffentlicht, wonach eine ChatGPT-Anfrage 2,9 Wattstunden Strom benötige, während eine herkömmliche Google-Suchanfrage auf etwa 0,3 Wattstunden kommen würde.

Abonniere unseren Newsletter und wir versprechen, deine Mailadresse nur dafür zu verwenden.

Abonniere doch jetzt unseren Newsletter
Mit Anklicken des Anmeldebuttons willige ich ein, dass mir die teleschau GmbH den von mir ausgewählten Newsletter per E-Mail zusenden darf. Ich habe die Datenschutzerklärung gelesen und kann den Newsletter jederzeit kostenlos abbestellen.

Nutzung stärker als Effizienzgewinne

Obwohl durch die Effizienzsteigerungen bei Chip- und Servertechnik einzelne Anfragen an ChatGPT und Co. immer weniger Energie verbrauchen dürften, kommt es durch die stark gestiegene Nutzung zu einem wesentlich höheren Strombedarf von KI-Rechenzentren. In den USA setzen unter anderem Microsoft und Amazon deshalb auf Kernenergie, um ihrem Bedarf zu decken, ohne vermehrt Kohlendioxid auszustoßen. Inwieweit das Kühlen der Rechenzentren mit Wasser der Umwelt schadet, wird hingegen noch erforscht.

Altman sieht die Zukunft der künstlichen Energie trotzdem positiv. Der CEO räumt zwar ein, dass durch den Einsatz von KI Jobs verloren gehen können, "aber andererseits wird die Welt so schnell so viel reicher werden", schreibt er in seinem Blogpost. Das würde wiederum völlig neue politische Ideen ermöglichen. Eine davon könne beispielsweise das Grundeinkommen sein, was in den letzten Jahren immer wieder im Gespräch war und durch mehr Produktivität durch KI finanziert werden könnte. Außerdem mache er sich über den künftigen Strombedarf wenig Sorgen: Ab 2030, glaubt Altman, werde es unbegrenzt Intelligenz und Energie geben.

Das könnte dir auch gefallen


Trending auf SWYRL