Egal, ob wir uns vor KI fürchten, an ihr großes Potenzial glauben oder sie schlicht als hilfreiches Werkzeug betrachten: Um konkrete Auswirkungen der Technologie zu sehen, müssen wir nicht in die Zukunft blicken. Schon heute ist KI für einen enormen Energie- und Wasserverbrauch, hohe CO2-Emissionen und große Mengen Elektroschrott verantwortlich. Laut einer aktuellen Studie des Öko-Instituts im Auftrag von Greenpeace werden sich die globalen Treibhausgasemissionen von KI-gestützten Rechenzentren von 2023 bis 2030 fast versechsfachen – von 29 auf 166 Millionen Tonnen CO2-Äquivalente. Regionen mit einer hohen Dichte an Rechenzentren geht bereits der Strom aus, so dass die Betreiber einfach ihre eigene, meist CO2-intensive Stromquelle installieren oder auf Atomstrom setzen. In vielen ohnehin schon dürregeplagten Regionen regen sich Proteste gegen den Bau neuer Rechenzentren. Und schnelllebiger KI-Hardware lässt den ohnehin schon am schnellsten wachsende Abfallstrom aus Elektroschrott weiter anwachsen.
Damit hinterlässt die Technologie einen rasant größer werdenden ökologischen Fußabdruck. Allerdings können KI-basierte Anwendungen für mehr oder weniger CO2-Emissionen und andere Umweltauswirkungen verantwortlich sein. Das hängt davon ab, wie wir sie gestalten und einsetzen.
Dieser Artikel gibt allen, die KI-Richtlinien entwickeln, für KI-Projekte verantwortlich sind oder sich einfach für das Thema interessieren, einen Überblick über die direkten und indirekten Auswirkungen von KI auf die Umwelt. Aus Nachhaltigkeitsperspektive mitbetrachtet werden dabei auch soziale und ökonomische Aspekte. Verknüpft wird dies mit Ansatzpunkten für eine nachhaltigere KI-Entwicklung und -nutzung.
KI – worum geht es genau?
Wenn wir im Folgenden von künstlicher Intelligenz (KI) sprechen, beziehen wir uns vor allem auf maschinelles Lernen (ML). Damit ist auch generative KI gemeint, aber nicht nur.
Etwas vereinfacht lässt sich ein ML-System als ein auf Modellen basierendes Vorhersagesystem beschreiben, das nach einer Trainingsphase verschiedene Aufgaben mithilfe statistischer Analysen aus vorher eingegebenen Daten ausführt. Dabei trifft das Modell auf der Grundlage der zuvor gesehener Daten eine Vorhersage.
Die Vorauswahl der Daten und das Training geht nicht ohne menschlichen Input. Die Erstellung von Bildern wird beispielsweise mit riesigen Datensätze von Fotos verbessert, die menschliche Expert:innen vorher als „gut“ oder „schlecht“ eingeordnet haben. Einkaufsempfehlungen entstehen daraus, dass verfolgt wird, was andere, die uns als ähnlich eingestuft wurden, gekauft haben. Und bevor ein KI-Assistent in der Lage ist, sinnhafte Antworten zu geben, sind Tausenden von echten Gesprächen in das Training des Modells eingeflossen. Die Antworten setzen sich dann aus Vorhersagen darüber zusammen, welches Wort als nächstes am wahrscheinlichsten ist. Dieses Vorgehen hat den Begriff „generative KI“ geprägt. Generative KI-Modelle wie GPT und Co. werden anhand riesiger Datensätze trainiert und können immer mehr Aufgaben übernehmen, von der Textgenerierung bis hin zur „Videoproduktion“.
Speziell mit großen Sprachmodellen haben wir uns in diesem Artikel ausführlicher befasst: Gibt es nachhaltige Sprachmodelle? Drei Perspektiven aus der aktuellen Debatte um KI und GenAI
KI und Nachhaltigkeit – mehr als chronische Potenzialitis?
Bevor wir uns damit beschäftigen, wie eine KI-basierte Anwendung nachhaltiger gestaltet sein kann, sollten wir zuerst eine grundsätzliche Frage beantworten: Ist die ressourcenintensive Technologie auch wirklich die beste Lösung für unser jeweiliges Problem? So einfach diese Frage auch klingen mag, so oft wird sie dennoch vergessen zu stellen. Der aktuelle gesellschaftliche und politische Diskurs um KI ist hochgradig ideologisch aufgeladen und wird massiv von Big-Tech-Unternehmen gesteuert. Weite Teile von Politik und Wirtschaft haben die Erzählung der KI-Apostel übernommen, die die Potenziale der Technologie als riesig vermarkten. Danach ist KI quasi die universelle Lösung für nahezu alles, egal, ob es um eine bessere medizinische Versorgung und Verwaltung oder die Optimierung industrieller Prozesse geht.
Ähnlich ist es im Umwelt- und Klimaschutz. Angesichts der gewaltigen Herausforderung, vor die uns die Klimakrise stellt, wird viel Hoffnung in die Technologie gesetzt. Die UN ist voller Enthusiasmus, dass KI sich als „bahnbrechende“ und „revolutionäre“ Technologie im Kampf gegen den Klimawandel erweist. Auch aktuelle Dokumente der EU-Kommission zur bevorstehenden „digitalen Transformation” Europas heben vor allem die Chancen hervor, die KI für die Nachhaltigkeit haben könnte. Lesenswert dazu ist zum Beispiel das „White Paper on Artificial Intelligence: A European approach to excellence and trust”.
Die meisten politischen Agenden und Studien beschäftigen sich jedoch vor allem mit Potenzialen. Der Nachhaltigkeitsexperte Vlad Coroamă nennt diese selektive Wahrnehmung der KI-Branche daher „chronische Potenzialitis“. In der Realität ist der tatsächliche Mehrwert jedoch nicht für alle KI-basierten Anwendungen nachweisbar. Viele wissenschaftliche Studien lassen daran zweifeln, dass die Technologie tatsächlich zur Erreichung der Nachhaltigkeitsziele beiträgt – zumindest nicht pauschal.

AI for Good? Von wegen!
Aktuell wird KI alles andere als im Sinne der Nachhaltigkeit eingesetzt. Ein Großteil der Anwendungen wird derzeit für die verbesserte Gewinnung fossiler Brennstoffe genutzt. Keines der bekannten Technologieunternehmen veröffentlicht detaillierte Informationen dazu. Aber verschiedene Analysen gehen davon aus, dass sich die Ausgaben für KI im Öl- und Gassektor bis 2027 auf 2,7 Milliarden Dollar verdoppeln werden. Und ein aktueller Bericht im Atlantic berichtet darüber, dass Microsoft Geschäfte von mehreren hundert Millionen Dollar mit verschiedenen Ölkonzernen wie ExxonMobil, Chevon und Shell vorantreibt.
Dazu kommt, dass sämtliche großen Technologieunternehmen in den letzten Jahren einen bisher beispiellosen Anstieg des Ressourcenverbrauchs gemeldet und ihre ohnehin schon laxen Nachhaltigkeitsversprechen aufgrund ihrer groß angelegten KI-Einführung über Bord geworfen haben.
Zusammenfassend sagen lässt sich daher, dass es durchaus wirkungsvolle KI-basierte Lösungen geben mag. Dazu gehören Bereiche wie die Optimierung der Kreislaufwirtschaft, die Reduzierung des Ressourcen- und Energieverbrauchs, die lokale CO2-Emissionsreduzierung, nachhaltige Mobilität, Abfalltrennung und -entsorgung sowie radikal verbesserte Ansätze zur Erdbeobachtung und die Erkennung von Umweltverschmutzung. Auch mit RESET stellen wir spannende Projekte vor.
Die tatsächlichen Ergebnisse und Konsequenzen einer KI-basierten Anwendung sind jedoch in hohem Maße kontextabhängig. Für konkrete Aussagen über die ökologische Wirksamkeit müssen diese einzeln und jeweils im konkreten Anwendungsfall betrachtet werden.
🌿 Die zentrale Frage vor der Nutzung und Entwicklung von KI sollte also immer sein: Löst die jeweilige Anwendung tatsächlich mein konkretes Problem? In die Beantwortung der Frage einfließen sollte auch immer eine Nachhaltigkeitsbewertung des Modells selbst. Wie diese aussehen kann, schauen wir uns jetzt genauer an.
KI für Nachhaltigkeit ist nicht automatisch selbst nachhaltig
Die meisten „grünen“ Programme, die Nachhaltigkeit durch Technologie fördern wollen, gehen tendenziell von einem harmonischen Verhältnis zwischen der digitalen und der ökologischen Transformation aus. Die Nachhaltigkeit der Technologie selbst wird oft nicht mitgedacht oder bleibt weitgehend intransparent.
Ein Grund für diesen blinden Fleck ist, dass aktuell sowohl der Wille als auch verlässliche Daten, geeignete Messmethoden und verbindliche Standards fehlen, um KI-basierte Anwendungen tatsächlich in ihrer Nachhaltigkeit zu bewerten. Das berichtet auch Josephin Wagner, Forschende am Institut für ökologische Wirtschaftsforschung (IÖW). Im Rahmen des Projekts SustAin hat sie zusammen mit Kolleg:innen einen Nachhaltigkeitsindex für KI entwickelt. Entwickler:innen und Unternehmen würden sich sehr bedeckt halten, wenn sie die Nachhaltigkeit ihrer Systeme dokumentieren sollen, so Wagner. „Noch immer ist zu hören, dass das Offenlegen von Umweltdaten zu KI-Systemen zu aufwendig sei“, so Wagner. Und sie weist auf eine Informationslücke hin: „Der Austausch mit Organisationen hat uns zu der Erkenntnis gebracht, dass viele Organisationen und Unternehmen gar nicht wissen, welche Kriterien überhaupt relevant sind.“
Was sind relevante Kriterien für ressourcenschonende und gemeinwohlorientierte KI?
Das maßgebliche Kriterium für die Nachhaltigkeit einer KI ist für viele immer noch die Höhe der CO2-Emissionen in Rechenzentren. Diskutiert werden beispielsweise Labels, die anzeigen, wie viel CO2 und Rechenleistung zur Erstellung von Algorithmen aufgewendet wurde. Diese Sichtweise auf Nachhaltigkeit greift angesichts der massiven Auswirkungen der Technologie jedoch zu kurz. Vergessen wird dabei, dass jede KI-basierte Anwendung eine lange und weit verzweigte Lieferkette hat, bevor sie überhaupt das erste Mal zum Einsatz kommt.
Bei klassischen Importprodukten haben wir uns schon an diese Perspektive gewöhnt. Den meisten von uns ist bewusst, dass die Tafel Schokolade eine lange Reise hinter sich hat, bevor wir sie in den Händen halten. Die Rohstoffe stammen von dem einen Ende der Welt, von wo aus sie Zwischenhändler ans andere Ende der Welt verschiffen. Dort werden sie zu Schokolade verarbeitet und an vielen weiteren Enden der Welt verkauft.
Mit unseren Technologien ist es ähnlich – nur noch komplexer. Nehmen wir als Beispiel ein Sprachmodell: Die Daten, mit denen es trainiert wird, sammeln die großen Unternehmen aus sämtlichen digitalen Spuren, die Menschen weltweit im Internet hinterlassen. Vorsortiert und gelabelt werden sie oft von Subunternehmen in Niedriglohnländern wie Kenia oder Indonesien. Entwicklung und Training des Modell findet in den USA in Rechenzentren statt, deren Server Mineralien wie Lithium oder Kobalt und Seltene Erden aus dem Kongo und Vietnam benötigen. Stellen wir eine Anfrage an das fertige Modell, wird sie unter Umständen in einem Rechenzentrum in Norwegen verarbeitet. Und ist die Hardware in den Rechenzentren nach wenigen Jahren veraltet, landet sie als Elektroschrott in Indien, China oder Nigeria.
Kleinere KI-Modelle werden mit deutlich weniger und spezifischeren Daten trainiert, ansonsten durchlaufen sie im Wesentlichen die gleichen Phasen.
Um also die Auswirkungen von KI auf Menschen und Umwelt zu verstehen, müssen wir jede Station ihrer Lieferkette kennen. Das ermöglicht uns dann eine sogenannte Lebenszyklusanalyse.
Phase 1: Von Roh- zu Trainingsdaten
Fangen wir mit der Basis jeder KI an: den Daten, die für das Training benötigt werden. Insbesondere für die großer Sprachmodelle und andere generative KI sortieren sogenannte Clickworker die Datensätze für deren Training. Diese Arbeit wird oft an Subunternehmen in Niedriglohnländer ausgelagert, in denen Menschen unter ausbeuterischen Arbeitsbedingungen beschäftigt werden. Die NGO AlgorithmWatch hat in diesem Zusammenhang recherchiert, wie das KI-Training einen globalen Schwarzmarkt für Clickwork-Jobs erschaffen hat.
Die Arbeitskräfte hinter der KI-Entwicklung
Eine lesenswerte Recherche über die Arbeitskräfte hinter der KI-Entwicklung hat Netzpolitik veröffentlicht, in der die Arbeitskräfte ihre Geschichten erzählen.
Zudem können beim Training algorithmischer Systeme Verzerrungen einfließen, da in den Trainingsdaten oft schon ein Bias ist. Das kann zu Diskriminierung und ungerechter Behandlung von Einzelpersonen oder Gruppen führen. Viele Beispiele diskriminierender Algorithmen finden sich in sensiblen Bereichen wie dem Gesundheitswesen und in der Strafjustiz.
Der Einsatz von KI im Umwelt- und Klimaschutz hat weitaus seltener direkte Auswirkungen auf Menschen. Allerdings sollten auch hier ethische Risiken nicht außer acht gelassen werden. Nehmen wir ein Beispiel: Eine KI soll eingesetzt werden, um anhand bestehender Nutzungsmuster von Elektrofahrzeugen zu entscheiden, wo Ladestationen aufgestellt werden. Die KI bevorzugt bei der Platzierung von Ladestationen wohlhabende Gebiete; rein datenbasiert sind hier ja die meisten Elektroautos zu finden. Allerdings werden dadurch systematisch weniger wohlhabende Gebiete benachteiligt.
Auch wenn KI-basierte Anwendungen zur Bekämpfung des Klimawandels eingesetzt werden, birgt das Risiken für die Privatsphäre. Greifen sie auf nicht-personenbezogene Daten wie meteorologische und geografische Daten zurück, um die Klimakrise zu verstehen, ist das meistens unproblematisch. Anderes ist es eventuell in einem Szenario, in dem Muster menschlichen Verhaltens ausgewertet werden, um Emissionen einzusparen. Die Optimierung von Heizungsanlagen auf Basis der Gewohnheiten der Bewohner:innen ist zum Beispiel ein solcher Fall. Zu wissen, wann Menschen zu Hause sind und welche Räume zu welchen Zeiten genutzt werden, sind durchaus sensible Daten.
Datenschutz und schlaue Datennutzung: ecobee zeigt, wie das zusammen passt
Wie können sensible Daten gut geschützt bleiben und gleichzeitig sinnvoll genutzt werden? Ecobee macht mit seinen intelligenten Thermostaten vor, wie das geht – und will so die enormen Emissionen des Gebäudesektors reduzieren.
Natürlich ist es für eine einzelne Organisation, die KI-Systeme nutzt, schwer, Einfluss auf alle Aspekte der KI-Entwicklung zu nehmen. „Aber diese Organisation kann sich als Teil einer Gemeinschaft verstehen, die darauf hinwirkt, dass Wertschöpfungsketten transparenter werden und überall faire Arbeitsbedingungen herrschen“, so Josephin Wagner.
🌿 Wesentliche Maßnahmen für KI-entwickelnde Organisationen:
· Stelle ethische Praxis und Datenschutz durch klare Verantwortlichkeiten sicher.
· Nutze Bewertungsrahmen wie zum Beispiel die Fairwork AI Initiative.
· Überprüfe die Lieferkette – frage Anbieter nach Details zur Datenbeschaffung und zu Arbeitsbedingungen.
· Beziehe Gemeinschaften ein; vor allem die Menschen, die dein System nutzen werden.
· Dokumentiere transparent, was dein KI-System tut und woher die Daten stammen.
· Sorge für Transparenz und Nachvollziehbarkeit deiner Entscheidungen.
Phase 2: Training und Verarbeitung in Rechenzentren
Wollen wir verstehen, was in Rechenzentren passiert, ist es wichtig, zwischen zwei Phasen zu unterscheiden: Das Training (oder „Lernen”) und die Inferenz. Damit ein KI-Modell die gewünschten Aufgaben ausführen kann, wird es mit den ausgewählten Datensätzen trainiert. Ist die Trainingsphase abgeschlossen, kommt der „Inferenzprozess”, also die eigentliche Nutzungsphase.
Kurzfristig ist die Trainingsphase rechenintensiver und damit auch energieintensiver als die Inferenz. Je öfter allerdings ein Modell genutzt wird, desto mehr steigt der Energieverbrauch der Inferenzphase. Ein beliebtes Modell wie Google Translate erhält beispielsweise Milliarden Anfragen pro Tag. Während das Training einen großen, aber einmaligen Energieaufwand darstellt, entsteht der Großteil des Energieverbrauchs heute durch die ständige Nutzung im Alltag.
CO2-Sorgen bei GenAI? So nutzt du Sprachmodelle sparsamer
KI-Chatbots wie ChatGPT, Perplexity oder Gemini bereichern deinen Alltag, aber du machst dir Sorgen um die Nachhaltigkeit? Wir zeigen, wie sich Sprachmodelle sparsamer nutzen lassen – und fragen, ob das überhaupt sinnvoll ist.
Wie hoch die CO2-Emissionen der Entwicklung und Nutzung von KI sind, ist abhängig von der Gestaltung der Modelle und der Stromquelle des Rechenzentrums. Dabei gilt, vereinfacht ausgedrückt, dass kleinere Modelle auch weniger Energie benötigen. Und je höher der Anteil an erneuerbaren Energien in den Rechenzentren ist, desto niedriger fallen die CO2-Emissionen in der Trainings- und Interferenzphase aus.
Eine weitere Ressource, ohne die kaum ein Rechenzentrum auskommt, ist Wasser. Indirekt variiert der Wasserverbrauch je nach Energiequelle, aus der das Rechenzentrum gespeist wird. Der direkte Wasserverbrauch ist das Wasser, das für die Kühlung der Server anfällt. Dieser ist besonders hoch bei KI-Rechenzentren, da die Chips stark erhitzen. Verschärfend kommt hinzu, dass das Wasser in vielen Fällen aus ohnehin schon dürregeplagten Regionen stammt. Mehr dazu in diesem Artikek: KI hat einen großen versteckten Wasserfußabdruck.
Für die in Rechenzentren nötige Hardware wie Mikroprozessoren sind Mineralien und seltene Erden notwendig. Woher diese stammen? Meistens aus Ländern, in denen Menschen diese unter menschenunwürdigen Arbeitsbedingungen abbauen. Außerdem fallen für die Minen Wälder und das Grundwasser wird mit Schadstoffen verschmutzt.
Auch die Produktion der Hardware setzt Treibhausgase frei und ist wasserintensiv. Das US-Unternehmen Nvidia zum Beispiel stellt für KI-Anwendungen unverzichtbare High-End Grafikprozessoren (GPUs) her. Das weltweit führende Unternehmen setzt jährlich über 2,1 Millionen Tonnen CO2-Äquivalente an Treibhausgas-Emissionen frei (Stand Mai 2024) und verbraucht massiv Wasser.
Achtung, es wird komplex!
Spannend hierzu ist eine Analyse von Sophia Falk und anderen, in der die Autor:innen eine umfassende Lebenszyklusanalyse von der Herstellung bis zur Entsorgung der Nvidia A100 SXM GPU durchgeführt haben. Die Grafikkarte ist eine der für das KI-Training am häufigsten eingesetzten.
Aktuell konzentrieren sich die meisten Arbeiten zu den Umweltauswirkungen von KI jedoch weitgehend auf die energiebedingten CO2-Emissionen in der Trainingsphase, da diese relativ einfach messbar sind. Schwerer zu finden sind dagegen detaillierte Untersuchungen zu den CO2-Emissionen der Nutzung. Noch seltener werden der Wasserverbrauch oder der Abbau seltener Erden einbezogen, wie Sasha Luccioni und Yacine Jernite von Hugging Face und Emma Strubell in einer Studie feststellen.
🌿 Wesentliche Maßnahmen:
Um konkrete Aussagen über die ökologische Nachhaltigkeit einer KI-Anwendung zu erhalten, gilt es als erstes die tatsächliche Höhe der CO2-Emissionen und andere umweltrelevante Auswirkungen zu ermitteln. In einem zweiten Schritt können dann gezielte Maßnahmen zu deren Reduktion ergriffen werden.
- Miss die Auswirkungen mit Tools wie CodeCarbon, Carbontracker oder EcoLogits.
- Wähle Rechenzentren, die erneuerbare Energien einsetzen und klare Nachhaltigkeitsziele haben. Lokale Wahl macht hier nicht unbedingt Sinn. Rechenzentren in Nordeuropa zu nutzen hat zum Beispiel den Vorteil, dass weniger Energie oder Wasser für die Kühlung aufgewendet werden muss aufgrund der geringeren Außentemperatur. Auch gibt es hier mehr grünen Strom.
- Bewerte deine Systeme mit Rahmenwerken wie Model Cards und Data Sheets.
- Integriere Monitoring-Tools in den Entwicklungsprozess.
- Stelle dir die Frage, wie groß dein Datensatz wirklich sein muss.
Phase 3: End of Life
Am Ende der Kette steht Elektroschrott, also die veralteten Server, die für das Training neuer Modelle nicht mehr taugen. KI-Hardware veraltet wesentlich schneller als weniger leistungsfähige Server. Daher landet sie nach nur wenigen Jahren auf der Müllhalde. Wo sich diese befinden? Oft in asiatischen oder afrikanischen Ländern, wo kaum sichere Recyclinganlagen vorhanden sind und die Menschen unter den Umweltfolgen der hochgiftigen Abfälle leiden. Mehr dazu hier: Wie giftiger Elektroschrott uns und unserem Planeten schadet.
🌿 Wesentliche Maßnahmen:
· Berücksichtige Hardware-Lebensdauer und Recycling-Möglichkeiten.
· Wähle Rechenzentren, die soziale und ökologische Verantwortung übernehmen.
Wessen Modelle nutze ich?
Die KI-Entwicklung und -Nutzung ist in einen hochgradig monopolisierten Markt eingebunden. Einige wenige globale Unternehmen kontrollieren den Großteil des IT- und Cloud-Infrastrukturmarktes. Das Problem: Der Fokus der Big-Tech-Unternehmen liegt auf Wachstum. Grundlegende Werte, gesellschaftliche Bedürfnisse und ökologische Probleme bleiben dabei auf der Strecke. Zudem nutzen sie ihre Größe und vertikale Integration, um Barrieren für andere Akteure auf dem Markt zu schaffen.
Die Dominanz weniger globaler Akteure hat auch konkrete Auswirkungen auf Gemeinschaften weltweit. Die Anbieter nutzen zwar lokale Ressourcen und Infrastruktur, doch der wirtschaftliche Wert – darunter Steuereinnahmen, die Schaffung von Arbeitsplätzen und Innovationspotenzial – fließt meistens aus den Regionen ab. Am Beispiel von Rechenzentren ist dies vielfach nachgewiesen.
Zudem macht es die mangelnde Transparenz von Big Tech schwierig, nachhaltige Praktiken durchzusetzen, wie auch die SDI Alliance feststellt.
Anders ist es mit Open-Source-Modellen, bei denen der Code offen zugänglich ist. Sie schaffen maximale Transparenz – und aus Nachhaligkeitsperspektive besonders relevant: Open Source ermöglicht Modell-Recycling und Weiterentwicklung. Wird ein Modell nicht von Grund auf neu entwickelt, spart das massiv Ressourcen ein, da datenintesives Training entfällt. Die vortrainierten Modelle des KI-Start-ups Hugging Face zum Beispiel können für bestimmte Anwendungsfälle feinabgestimmt werden.
🌿 Wesentliche Maßnahmen:
• KI-Nutzer:innen haben die Möglichkeit, KI-Modelle von Anbietern zu bevorzugen, die offen ihre Praktiken und ihre Auswirkungen auf die Umwelt und die lokale Wirtschaft teilen. Darin steckt die Chance, dass digitale Infrastrukturen gefördert werden, die den Gemeinschaften vor Ort durch die Schaffung von Arbeitsplätzen, Bildung, Kompetenzentwicklung und Wirtschaftswachstum zugute kommen. Hier berichten wir ausführlicher: Public Interest AI
• KI-Entwickler:innen können auf Open-Source-Modelle zurückgreifen und diese gegebenenfalls anpassen bzw. selbst ihre Modelle frei zugänglich machen.
Hilfe bei der nachhaltigen KI-Entwicklung
Sämtliche Nachhaltigkeitsaspekte zusammenzubringen, kann sehr herausfordernd sein. Der Nachhaltigkeitsindex für Künstliche Intelligenz, den Josephin Wagner und ihr Team im Projekt SustAIn entwickelt haben, will hier unterstützen. Das Projekt ist eine Zusammenarbeit des Instituts für ökologische Wirtschaftsforschung, des DAI-Labors der TU Berlin und von AlgorithmWatch. Mit dem Tool können KI-nutzende und -entwickelnde Organisationen prüfen, wie nachhaltig ihre KI-Systeme sind.
Der Ansatz des Nachhaltigkeitsindex ist sehr umfassend. „Das Tool basiert auf insgesamt 13 Nachhaltigkeitskriterien, die sich auf ökologische, soziale und ökonomische Effekte der KI-Entwicklung und -Nutzung beziehen“, berichtet Josephin Wagner. „Die Entwicklung der ökologischen Kriterien hat federführend unser Projektpartner vom DAI-Labor übernommen und den Fokus auf die direkten und indirekten Auswirkungen der KI-Entwicklung und Nutzung auf die Umwelt gelegt. Ganz prominent sind hier natürlich der Energieverbrauch sowie die Treibhausgasemissionen. Unsere sozialen Kriterien stellen die Würde und Autonomie des Menschen, Diskriminierungsfreiheit und Inklusivität in den Fokus von KI-Entwicklung und -Nutzung. Zwei unserer Kriterien sind zum Beispiel ein inklusives und partizipatives Design sowie die kulturelle Sensibilität des KI-Systems. Bei den ökonomischen Kriterien berücksichtigen wir die Wirkungen der Entwicklung und Nutzung von KI-Systemen auf ökonomische Strukturen und Dynamiken. Insbesondere Marktkonzentrationen und monopolartige Strukturen spielen hier eine Rolle.“
Diese Nachhaltigkeitskriterien fließen in die die Bewertung der KI-Systeme entlang des kompletten KI-Lebenszyklus ein. Wie aussagekräftig die Ergebnisse sind, darüber entscheidet natürlich, wie viel eine Organisation über ihre KI-Systeme weiß. „Eine zentrale Erkenntnis aus dem Test kann daher natürlich auch sein: Wir wissen noch nicht genug über die Systeme, die wir entwickeln oder anwenden“, sagt Wagner.
Wer sich durch das Tool klickt, erhält am Ende eine Auswertung der Selbsteinschätzung und eine Übersicht, die Handlungsbedarfe aufzeigt. „Außerdem wird pro Kriterium aufgeführt, was mindestens erfüllt sein muss, damit es als gut bewertet wird. Zum Beispiel sollte für das Kriterium Transparenz und Verantwortungsübernahme ein Code of Conduct vorliegen, der umfassende Werte und Normen enthält und im Idealfall regelmäßig evaluiert wird“, so Josephin Wagner. Der Nachhaltigkeitsindex macht auch auf die schon jetzt vorhandenen und einfach zu handhabenden Methoden aufmerksam, mit denen der Energie- und Wasserverbrauch von KI-Systemen und die von ihnen verursachten Emissionen gemessen werden können.
Tutorials für eine nachhaltigere KI-Entwicklung
Auch das Tutorial über einen nachhaltigen KI-Einsatz von Civic Coding und die „Guidelines for Green AI“ stellen Möglichkeiten der nachhaltigeren KI-Entwicklung und -nutzung vor. Sie richten sich an KI-Entwickler:innen und Betreiber:innen von Künstlicher Intelligenz.
Natürlich macht das Tool KI-Anwendungen nicht auf Knopfdruck nachhaltiger. Wir erinnern: Nachhaltige KI-Entwicklung ist komplex. „Die Stärke des Tools liegt darin, dass es eben genau diese Komplexität zeigt und Organisationen und Unternehmen mögliche Stellschrauben vermittelt“, sagt Wagner. Und es stellt vielleicht sogar in Frage, dass es so etwas wie nachhaltige KI geben kann – zumindest in absehbarer Zeit. „Wenn man diesen Gedanken zulässt, schließen sich daran Folgefragen innerhalb einer Organisation, aber auch der Gesellschaft als Ganzes an. Brauchen wir wirklich so viele KI-Anwendungen? Verbessern sie wirklich die Gesamtsituation? Und können wir unser Ziel auch mit einer Lowtech-Variante erreichen?“
Impact AI: Evaluation der gesellschaftlichen Wirkung von KI-Systemen für Nachhaltigkeit und Gemeinwohl
Das Forschungsprojekt Impact AI: Evaluation der gesellschaftlichen Wirkung von KI-Systemen für Nachhaltigkeit und Gemeinwohl unter der Leitung von Theresa Züger untersucht insgesamt 15 KI-Initiativen aus verschiedenen Bereichen. Ziel ist es, deren tatsächliche Auswirkungen auf Gesellschaft und Umwelt systematisch und umfassend zu bewerten. Dafür wird eine Methode entwickelt, die Indikatoren wie Energieeffizienz oder durch das KI-System verursachte Emissionen mit der qualitativen Bewertung ethischer und sozialer Aspekte kombiniert. Auf diese Weise sollen sowohl die Nachhaltigkeit von KI als auch Aspekte um Nachhaltigkeit durch KI sichtbar gemacht werden.
Durchgeführt wird es vom Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG) in Zusammenarbeit mit Greenpeace und dem Gemeinwohlökonomie e.V..
Je größer, desto besser?
Mindestens in Anbetracht der „Je größer, desto besser“- und „KI-everything“-Mentalität sind diese Fragen durchaus berechtigt. Statt kleiner, für eine bestimmte Aufgabe trainierter Modelle dominieren aktuell KI-Anwendungen den Markt, die eine Vielzahl von Aufgaben gleichzeitig ausführen sollen. Die Rede ist von Chat-GPT und Co., wir alle kennen sie. Diese Veränderung findet sowohl in der Forschung als auch in Anwendungen für Verbraucher:innen statt.
Doch angesichts des enormen Energiebedarfs der großen Modelle wird oft mit „Kanonen auf Spatzen geschossen“, wenn diese für klar definierte Aufgaben – wie beispielsweise die Websuche und -navigation – eingesetzt werden. Je größer ein KI-System ist, desto verheerender sind die bisher beschriebenen ökologischen und sozialen Auswirkungen. In vielen Bereichen hat sich jedoch gezeigt, dass mit etwas Entwicklungsaufwand ähnlich brauchbare Ergebnisse mit herkömmlichen und ressourcenschonenden Datenverarbeitungsmethoden ohne KI erzielt werden können.
Immerhin seien die am häufigsten verwendeten KI-Modelle zur Bekämpfung des Klimawandels nicht die Modelle, die den größten Schaden anrichten, sagt Dr. Sasha Luccioni, Leiterin für KI und Klima bei Hugging Face. „In der Regel sind die Modelle, die beispielsweise für Klimaprognosen und die Überwachung der Artenvielfalt sowie für die Entwicklung neuer Batteriegenerationen und ähnliches verwendet werden, recht effizient und können lokal auf einem Laptop ausgeführt werden.“
Der Elefant im Raum: Mangelnde Transparenz und fehlende Daten
Ein Problem bleibt jedoch nach wie vor bestehen: Da uns wesentliche Zahlen fehlen, basiert die CO2-Bilanz der verbreitetsten KI-Anwendungen nach wie vor auf „bestmöglichen Schätzungen”, wie auch Lynn Kaack und andere KI-Forschende betonen. Aktuell nutzen KI-Forschende die wenigen öffentlich zugänglichen Daten als auch Hochrechnungen aus offenen, wissenschaftlichen Modellen, um Aussagen treffen zu können. „Wir brauchen mehr Daten über KI!“ ist daher eine ebenso ironische wie dringliche Aussage, wie ein Forschungsteam rund um Sasha Luccioni feststellt. Denn obwohl KI die datenabhängigste Technologie der Geschichte sei, sind umfassende Daten über ihre Umweltauswirkungen nach wie vor bemerkenswert unvollständig. Das gilt für den gesamten KI-Bereich, egal, ob als „grün“ gelabelte Anwendungen oder nicht. Auch Chris Adams, Leiter für Technik und Politik bei der Green Web Foundation, weist in einem Post darauf hin, dass die große Datenlücke die Diskussion über KI erheblich erschweren würde.
Zwar haben Google, OpenAI und Mistral kürzlich Zahlen zum Energie- und Wasserverbrauch ihrer Anwendungen veröffentlicht. Der Druck scheint also groß genug zu sein, dass sich Verschwiegenheit als Strategie nicht mehr länger auszahlt. Allerdings: Die Zahlen sind stark kuratiert, wie auch Ketan Joshi, Data Analyst, anmerkt. „In der klugen Erkenntnis, dass es besser ist, eine von ihnen kontrollierbare Erzählung zu verbreiten, als lästigen Kritikern zu viel Raum für Spekulationen zu lassen, geben die großen Akteure nun ausgewählte Informationshäppchen preis.“ Außerdem scheinen die Unternehmen mit den veröffentlichten Zahlen vor allem beweisen zu wollen, dass die individuelle Nutzung lediglich marginale Auswirkungen auf Umwelt und Klima hat.
Informationen über die CO2-Emissionen einzelner Suchanfragen sagen aber wenig über die massiven Auswirkungen der Milliarden Anfragen aus. Zudem unterschlagen sie die langen KI-Lieferketten mit ihren vielfältigen Auswirkungen. Dazu kommt, dass die Zahlen der Unternehmen kaum vergleichbar sind, da die jeweiligen Berechnungsmethoden nicht offengelegt werden.
Doch um in der Nachhaltigkeitsbewertung wirklich weiterzukommen, sind einheitliche und umfassende Reporting- und Dokumentationsstandards unverzichtbar. Nur so lassen sich die Umweltauswirkungen über den gesamten KI-Lebenszyklus hinweg erfassen und vergleichen. Gleichzeitig sollten solche Messungen nicht länger allein der Branche überlassen werden. Um Greenwashing zu verhindern, müssen unabhängige oder öffentliche Stellen die Bewertungen übernehmen.
Politischer Rahmen entscheidend für die Nachhaltigkeit von KI
Wir haben gezeigt, dass KI-basierte Anwendungen über ihren gesamten Lebenszyklus weitreichende Auswirkungen auf Menschen und Umwelt haben. Und wir haben verschiedene Möglichkeiten genannt, wie KI-Nutzer:innen und -Entwickler:innen auf die Nachhaltigkeit eines KI-Modells einwirken können. Dabei haben wir festgestellt, dass fehlende Transparenz in der KI-Branche eine umfassende Nachhaltigkeitsbewertung verhindert. Daher muss die ökologische Nachhaltigkeit von KI als Risiko in der Politik anerkannt werden und entsprechende Rahmenbedingungen gesetzt werden.
Es gibt viele Möglichkeiten der Regulierung von KI, ohne das Rad neu zu erfinden. Um mehr Transparenz in der Branche herzustellen, fordert AlgorithmWatch zum Beispiel ein verbindliches KI-Transparenzregister für Deutschland. In einem nächsten Schritt könnten bestehende Infrastrukturen zur Umweltbewertung und existierende Umweltanreizsysteme auch auf KI übertragen werden. Dazu gehört beispielsweise eine konsequente Ökobilanzierung digitaler Dienste, wofür im Bauwesen schon entsprechende Tools zur Verfügung stehen, wie Lena Winter und Theresa Züger vom Humboldt-Institut empfehlen. Dafür müsste die gesamte digitale Lieferkette – also alles, was zur Bereitstellung von KI-Systemen nötig ist – offengelegt und in die Bilanzierung aufgenommen werden. Auch könnte die CO2-Bepreisung auf digitale Dienstleistungen ausgeweitet werden, insbesonders auf solche, die außerhalb Europas erbracht werden.
Wie sieht eine grüne digitale Zukunft aus?
Elektroschrott, CO2-Emissionen durch KI, Wasserverbrauch von Rechenzentren – aktuell scheint die ungezügelte Digitalisierung nicht mit einem gesunden Planeten vereinbar. Doch es gibt viele Lösungen für eine ökologische und faire Digitalisierung – wir haben sie recherchiert:
„Der AI-Act der EU ist ein Anfang. Beispielsweise ist es seit Februar 2025 verboten, bestimmte in der Verordnung als schädlich eingestufte KI-Anwendungen in der EU auf den Markt zu bringen oder in der EU zu verwenden“, sagt Josephin Wagner. Im Rahmen des SustAIn-Projekts haben Wagner und ihre Kollegin:innen 13 Empfehlungen für europäische Politiker:innen und KI-Forscher:innen veröffentlicht, mit denen die Auswirkungen der KI-Entwicklung auf die Umwelt verringert werden können.
Angesichts der vielen Herausforderungen und der weit verzweigten Lieferkette lässt sich kaum davon ausgehen, dass KI-Anwendungen jemals wirklich nachhaltig sein können. Zumal die aktuellen Bedingungen einer auf permanentes Wachstum ausgerichteten Wirtschaft die Verwirklichung einer nachhaltigen KI erschweren, wenn nicht sogar unmöglich machen.
Aber natürlich sind wir technischen Entwicklungen nicht hilflos ausgeliefert. „Als Gesellschaft haben wir es in der Hand, welche Technologien wir entwickeln und nutzen“, so Wagner.

Dieser Artikel ist Teil des Dossiers „Digital und grün – Lösungen für eine nachhaltige Digitalisierung“, in dessen Rahmen wir Lösungen für eine ökologische und faire Digitalisierung vorstellen. Wir danken der Deutschen Bundesstiftung Umwelt (DBU) für die Projektförderung!
Du willst keinen Artikel zum Thema verpassen? Dann abonniere unseren Newsletter oder RSS-Feed und folge uns auf Mastodon, Bluesky oder LinkedIn!




