Share
Beitragsbild zu Künstliche Intelligenz: Energiehunger und Engpässe in der Lieferkette

Künstliche Intelligenz: Energiehunger und Engpässe in der Lieferkette

25. Mai 2025

Alex de Vries-Gao ist Doktorand am Institut für Umweltstudien der Vrije Universiteit Amsterdam und Gründer von Digiconomist, einem Forschungsunternehmen, das sich der Aufdeckung unbeabsichtigter Folgen digitaler Trends widmet. Seine Forschung konzentriert sich auf die Umweltauswirkungen neuer Technologien und hat eine wichtige Rolle in der globalen Diskussion über die Nachhaltigkeit der Blockchain-Technologie und künstlicher Intelligenz gespielt.

Von Rechenzentren über Stromnetze bis hin zur Chipfertigung: Der rasante Aufstieg generativer KI-Anwendungen wie ChatGPT bringt nicht nur Chancen, sondern stellt auch eine zunehmende Belastung für Umwelt und Infrastruktur dar. Während Technologieunternehmen immer leistungsfähigere Rechenzentren bauen, fehlen belastbare Daten, um den tatsächlichen Energieverbrauch von Künstlicher Intelligenz (KI) zu bewerten. Umweltforscher wie Alex de Vries-Gao warnen: Ohne mehr Transparenz drohen Fehlentscheidungen in der Energie- und Industriepolitik.

Energiebedarf: Das große Unbekannte

Mit der breiten Einführung von ChatGPT Ende 2022 rückte auch der Stromverbrauch von KI in den Fokus der Öffentlichkeit. Unternehmen wie Google und Microsoft meldeten in ihren Umweltberichten für 2024 einen deutlichen Anstieg des Energieverbrauchs – mit KI als Hauptursache. Doch konkrete Zahlen bleiben rar: Meist beziehen sich die Angaben nur auf gesamte Rechenzentren, nicht aber spezifisch auf KI-Anwendungen. Google erklärte eine Trennung dieser Workloads für „nicht sinnvoll“ – obwohl das Unternehmen 2022 noch genauere Aufschlüsselungen veröffentlicht hatte. Damals hieß es, dass maschinelles Lernen und Inferenz zwischen 10 und 15 Prozent des gesamten Energieverbrauchs von Google ausmachten.

Seitdem ist die Datenlage weiter ausgedünnt. Der Bedarf an belastbaren Informationen wächst, zumal der europäische AI Act zwar ökologische Kriterien erwähnt, die Offenlegung von Umweltdaten jedoch weitgehend freiwillig bleibt. Zwar verpflichtet das Gesetz Anbieter allgemeiner KI-Modelle ab August 2025 zur Angabe des Energieverbrauchs beim Training – doch der größere Energieposten entfällt inzwischen auf die Inferenz, also die Anwendung trainierter Modelle. Diese bleibt von der Regulierung unberührt.

Diese Schätzungen kommen zu einem Zeitpunkt, an dem die Internationale Energieagentur kürzlich erklärte, dass KI bis zum Ende dieses Jahrzehnts fast so viel Energie verbrauchen werde wie Japan heute, und dass besorgniserregenderweise nur etwa die Hälfte des Bedarfs aus erneuerbaren Quellen gedeckt werden könne.

Chip-Fertigung als Nadelöhr

Mangels detaillierter Verbrauchsdaten rücken andere Indikatoren in den Vordergrund – etwa die Lieferkette für KI-Hardware. Ein zentraler Engpass: die sogenannte CoWoS-Verpackungstechnologie der taiwanesischen Halbleiterfirma TSMC. CoWoS („Chip-on-Wafer-on-Substrate“) ermöglicht es, Hochleistungschips wie GPUs gemeinsam mit Hochgeschwindigkeitsspeichern in einem einzigen Gehäuse zu integrieren. Diese Kombination ist essenziell, um die sogenannte „Memory Wall“ zu überwinden – ein Flaschenhals, bei dem Prozessorleistung und Speicherbandbreite auseinanderdriften.

Alle führenden KI-Beschleuniger – darunter NVIDIAs Hopper- und Blackwell-Serien, AMDs Instinct-Chips und Googles TPUs – setzen auf diese Technik. Doch TSMC kommt mit der Produktion kaum hinterher. Bereits 2023 warnte das Unternehmen, die Nachfrage nach CoWoS übersteige das Angebot deutlich. Auch 2024 blieb die Lage angespannt: „Unsere Kapazitäten sind sehr knapp. Wir können den Bedarf unserer Kunden nicht decken“, erklärte TSMC in mehreren Quartalsberichten. Zudem sei der CoWoS-Ausbau fast ausschließlich auf KI-Anwendungen fokussiert.

Rückschlüsse aus der Produktionskapazität

Um den Energiebedarf von KI zumindest grob abschätzen zu können, greifen Forscher wie de Vries-Gao zu einem Umweg: Sie analysieren Produktionskapazitäten von CoWoS-Wafern und kombinieren diese mit öffentlich bekannten Verbrauchsprofilen der Chips. Dabei helfen Informationen über die Chiparchitektur, Gerätedimensionen und Transkripte von Investoren-Calls. Auf diese Weise lässt sich abschätzen, wie viele KI-Beschleuniger produziert werden – und welchen Stromhunger sie potenziell verursachen.

Doch auch dieser Ansatz hat Grenzen. Die meisten Zulieferer unterliegen strengen Vertraulichkeitsvereinbarungen und veröffentlichen kaum Details. Zudem sind viele Schätzungen von Marktanalysten nicht unabhängig überprüfbar. Eine belastbare Analyse erfordert daher die sorgfältige Triangulation verschiedener Quellen – und bleibt trotz allem ein Näherungswert.

Fazit: Politischer Handlungsbedarf

Die Analyse liefert zwar keine vollständige Energiebilanz der KI-Nutzung, aber sie zeigt, wie groß die Informationslücken sind – und wie dringend regulatorische Eingriffe zur Transparenz wären. Nur wenn bekannt ist, wie hoch der Ressourcenbedarf von KI-Anwendungen wirklich ist, können Politik, Infrastrukturplanung und Industrie verlässlich steuern. Ohne verlässliche Daten läuft die Diskussion über die Nachhaltigkeit von Künstlicher Intelligenz Gefahr, zur Blackbox zu werden – mit potenziell hohen Folgekosten für Umwelt und Gesellschaft.

Redaktion AllAboutSecurity


Bild/Quelle: https://depositphotos.com/de/home.html

Teile diesen Beitrag: