ChatGPT überraschend sparsam: KI-Chatbot verbraucht weniger Energie als gedacht

ChatGPT Logo
Quelle: OpenAI

ChatGPT ist zweifellos die beliebteste KI-Plattform überhaupt. Viele nutzen den Chatbot ganz selbstverständlich für KI-gestützte Aufgaben. Manche sorgen sich jedoch um den potenziell hohen Energieverbrauch solcher Dienste. Ein neuer Bericht zeigt nun, dass ChatGPT nicht so stromhungrig ist, wie bisher angenommen.

Die NGO Epoch AI hat eine Studie veröffentlicht, die den Energieverbrauch einer typischen ChatGPT-Anfrage berechnet hat. Der Datenanalyst Joshua You verwendete das GPT-4 Modell als Referenz. Die Ergebnisse zeigten, dass eine typische Anfrage an den beliebten KI-Chatbot etwa 0,3 W/h verbraucht. Das ist weniger als viele Haushaltsgeräte verbrauchen. Bisher ging man davon aus, dass jede ChatGPT-Anfrage rund 3 W/h verbraucht, eine Zahl, die sich als viel zu hoch herausstellte.

„Der Energieverbrauch ist wirklich kein großer Deal im Vergleich zum Verbrauch normaler Haushaltsgeräte, zum Heizen oder Kühlen deines Hauses oder zum Autofahren“, sagt You zu den Ergebnissen. Die alte Schätzung von 3 W/h stamme aus „ziemlich alter Forschung“, die „auf einigen Überschlagsrechnungen basierte und zu hoch schien“. Die frühere Forschung berücksichtigte den Einsatz älterer, weniger effizienter Hardware anstelle von modernerer Hardware.

KI-Unternehmen und KI-Hardwarehersteller haben es in den letzten Jahren geschafft, den Energieverbrauch deutlich zu optimieren. Jede neue Generation von KI-Chips verspricht nicht nur mehr Leistung, sondern auch weniger Energieverbrauch.

Trotzdem wird der Weg, den die KI-Industrie einschlägt, unweigerlich zu höheren Energieanforderungen führen. KI-Unternehmen arbeiten derzeit an Modellen, die auf logischem Denken basieren. Diese sind effizienter bei der Lösung komplexer Probleme, benötigen aber mehr Rechenleistung. Hinzu kommen zukünftige KI-Agenten, die „intelligent“ genug sein werden, um in mehreren Berufen so gut wie ein Mensch zu arbeiten.

„Die KI wird fortschrittlicher werden, das Training dieser KI wird wahrscheinlich viel mehr Energie erfordern, und diese zukünftige KI wird möglicherweise viel intensiver genutzt – sie wird viel mehr Aufgaben und komplexere Aufgaben übernehmen als die, die die Leute heute mit ChatGPT erledigen“, sagt You. „Logische Denkmodelle werden zunehmend Aufgaben übernehmen, die ältere Modelle nicht bewältigen können, und mehr [Daten] generieren, um dies zu tun, und beides erfordert mehr Rechenzentren“, fügt er hinzu.

Quelle(n):
Epoch AI

Links mit einem * sind Partner-Links. Durch einen Klick darauf ge­lan­gt ihr direkt zum Anbieter. Solltet ihr euch dort für einen Kauf entscheiden, erhalte ich ei­ne kleine Provision. Für euch ändert sich am Preis nichts. Danke für eure Unterstützung!

Um über alle News auf dem Laufenden zu bleiben, folge mir auf Google News oder Telegram, WhatsApp, Mastodon, Threads, Bluesky oder auf Facebook oder abonniere meinen RSS-Feed!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert