Wie wird der Energiefresser Künstliche Intelligenz nachhaltiger? Friederike Rohde (IÖW) im Interview

Symolbild: Nachhaltige Künstliche Intelligenz
Torge Peters

Unsere neue KI-Welt hat einen großen CO2-Fußabdruck. Mit erneuerbare Energien allein ist das Problem nicht gelöst, sagt Friederike Rohde. Gefragt sind weitere Maßnahmen.

Autor*in Sarah-Indra Jungblut, 12.06.24

Es scheint, als ginge nichts mehr ohne Künstliche Intelligenz (KI); kaum ein Bereich, in den sich nicht „irgendwas mit KI“ integrieren lässt. Auch im Umwelt- und Klimaschutz tut sich einiges. In den letzten Jahren sind viele KI-basierte Anwendungen entstanden, die nachhaltige Ziele unterstützen sollen. Doch mit dem Hype werden neben kritischen sozialen Aspekten auch die ökologischen Kehrseiten immer deutlicher: Die Technologie verbraucht Unmengen an Energie, Wasser und anderen Ressourcen. 

Umso wichtiger ist es, Antworten auf die Frage zu finden, wie Systeme Künstlicher Intelligenz verantwortungsvoller gestaltet werden können. Genau damit beschäftigt sich Friederike Rohde. Sie ist Nachhaltigkeitsforscherin und Techniksoziologin am Institut für Ökologische Wirtschaftsforschung (IÖW) und setzt sich für eine nachhaltige Gestaltung des digitalen Wandels ein. Sie engagiert sich im Rahmen des Bündnis „Bits & Bäume“ und hat das Projekt SustAIn am IÖW. Gemeinsam mit Kolleg:innen, AlgorithmWatch sowie dem DAI-Labor der TU Berlin hat sie im Rahmen des Projekts Nachhaltigkeitskriterien für KI-basierte Anwendungen entwickelt.

Wir haben uns mit ihr darüber unterhalten, woraus sich der ökologische Fußabdruck von KI-basierten Anwendungen zusammensetzt, warum neue Modelle immer energie- und wasserhungriger werden und welche Stellschrauben es gibt, um die Emissionen der Systeme zu senken.

Friederike, du hast im Projekt SustAIn zusammen mit Kollleg:innen einen Nachhaltigkeitsindex für Künstliche Intelligenz entwickelt. Wieso braucht es das?

Die Technologie hat nicht nur einen großen ökologischen Fußabdruck, sondern in KI sind auch sehr viele gesellschaftliche Werte, Normen und Vorstellungen eingeschrieben. Daraus ergeben sich inhärente Risiken, weshalb der Aspekt einer verantwortungsvollen und nachhaltigen Technikgestaltung stärker in den Vordergrund rücken muss. Es geht darum, sich den ganzen Lebenszyklus anzugucken, und zwar von allen KI-Systemen. Und sich dann darüber Gedanken zu machen, wie man solche System entwickelt, die möglichst wenig problematische Auswirkungen auf die Umwelt, die Gesellschaft und möglicherweise auch auf ökonomische Dynamiken wie Marktkonzentration haben.

Ihr habt das Projekt 2020 ins Leben gerufen. KI aus einer umfassenden Nachhaltigkeitsperspektive zu betrachten war damals noch ziemliches Neuland, oder?

Ja, so eine umfassende Nachhaltigkeitsperspektive auf KI einzunehmen war zu dem Zeitpunkt auf jeden Fall Neuland. Was es vorher schon gab – und das hatte auch viele Diskussionen angeregt um die ökologische Nachhaltigkeitsdimension – war ein Paper von amerikanischen Wissenschaftler:innen um Emma Strubbell, die ausgerechnet hatten, wie hoch der Energie- und Ressourcenverbrauch für das Training von KI-Modellen ist.

SustAIn – Ein Nachhaltigkeitsindex für KI

Das Projekt SustAIn zielt darauf ab, Kriterien für die Nachhaltigkeitsbewertung von Anwendungen mit Künstlicher Intelligenz zu entwickeln und die Nachhaltigkeitswirkungen exemplarisch zu erheben.

Das Verbundprojekt wird in der BMU-Förderinitiative KI-Leuchttürme finanziert und vom Institut für Ökologische Wirtschaftsforschung (IÖW) gemeinsam mit AlgorithmWatch und dem Distributed Artificial Intelligence Labor (DAI Labor) der Technischen Universität Berlin durchgeführt.

Bei der Studie von Strubbell und Kolleg:innen kam heraus, dass die Entwicklung einer KI so viele Emissionen verursacht wie fünf Autos über ihren gesamten Lebenszyklus.

Genau, diese Zahl ist rumgegangen und hat große Wellen geschlagen. Sie wurde aber auch teilweise falsch zitiert. So wurde gesagt, dass die hohen Emissionen im Training entstehen würden, obwohl das die Zahlen für die Suche nach einer optimalen neuronalen Modellarchitektur Modellarchitektur für das künstliche neuronale Netz waren – also die Modellentwicklung. Das ist ein Forschungsprozess, der so nicht in jedem Unternehmen passiert, da hier häufig auch vortrainierte Modelle verwendet werden.

Allerdings waren das die ersten Modelle, die neue Maßstäbe in der maschinellen Sprachverarbeitung setzten – sogenannte Transformer Modelle – und die waren noch gar nicht so groß. Mittlerweile sind die Modelle viel größer geworden, sie haben viele Milliarden von Parameter. Dadurch ist auch der Ressourcenverbrauch für viele der eingesetzten Modelle wie GPT3, also das Vorgängermodell des Modells, auf dem der berühmte Chatbot ChatGPT basiert, im Training sehr hoch. Eine aktuelle Studie von Sasha Luccioni und anderen Wissenschaftler:innen hat gezeigt, dass das Training von einem so großen Modell bis zu 552 Tonnen CO2 verursachen kann. Aber das ist auch davon abhängig, mit welchen Energieträgern das Modell trainiert wird. Wird für die Rechenleistung Strom aus erneuerbaren Energien genutzt, dann sinken diese Emissionen natürlich sehr stark.

In Zukunft ist also mit einem weiter steigenden Energie- und Ressourcenverbrauch durch immer größere KI-Anwendungen zu rechnen?

Davon ist auszugehen. Wenn man sich die aktuellen Zahlen von den großen Sprachmodellen anguckt, dann haben die schon im Training einen sehr großen Energieverbrauch. Und wir wissen noch wenig darüber, wieviel für die tatsächliche Anwendung – also die Inferenz – noch hinzu kommt. In der Studie von Luccioni wurden verschiedene Modelle angeguckt und miteinander verglichen und es hat sich außerdem gezeigt – und das fand ich schon einen ziemlich interessanten Aspekt – dass ein großer Teil von rund 30 Prozent des CO2-Fußabdruckes von KI einfach nur durch die Bereitstellung der Infrastruktur zustande kommt. Also, auch wenn sie gerade nicht für Rechenprozesse genutzt wird.

Dass immer mehr Rechenleistung in Anspruch genommen wird, ist aus einer ökologischen Sicht ein großes Problem. Wir haben nun mal einen begrenzten Planeten und wenn das immer nur nach oben geht, dann führt das zu Nutzungskonflikten um die wertvolle Energie.

Allerdings muss man sagen, dass sich bei den großen Cloud-Anbietern einiges tut, um zumindest den Energie- und Ressourcenverbrauch zu verringern, allein schon aus Kostensicht. Dabei setzen sie auf die Nutzung von erneuerbaren Energien. Und sie stellen zum Teil auch Tools bereit, mit denen der Energieverbrauch bei der Modellentwicklung und im Training gemessen oder zumindest geschätzt werden kann.

Was heißt das genau, die Bereitstellung der Infrastruktur? Die Bereitstellung der Server und entsprechend schnelle Netze und so weiter?

Genau, das nennt sich in der Fachwelt „idle consumption“. Im Grunde kann man das als Leerlaufverbrauch darstellen. Die Maschine läuft, auch wenn sie gerade nicht genutzt wird. Die Server müssen gekühlt werden, auch wenn gerade kein Rechenprozess darauf läuft.

Das ist doch eine relativ große Zahl, die zu der Überlegung hin leitet, inwiefern man sich durch die zunehmende Nutzung von KI abhängig von einer nicht-nachhaltigen digitalen Infrastruktur macht. Diese ganze Infrastruktur-Thematik hatten wir natürlich auch schon vorher bei der Debatte um Digitalisierung und Nachhaltigkeit. Aber die Frage wird immer wichtiger. Das zeigt sich auch daran, dass wir im Moment einen totalen Run auf Rechenkapazitäten haben. Es gibt so viele Unternehmen, die Rechenkapazitäten suchen. Das führt leider auch dazu, dass die Unternehmen sich Rechenzentrumsanbieter zum Beispiel in Asien suchen, weil die nicht so teuer wie die großen Cloud-Anbieter sind. Aber die haben oft auch viel weniger Umweltstandards.

Torge Peters

Aktuell haben wir einen Energiemix aus fossilen und erneuerbaren Energien und damit ist der Energieverbrauch auch immer an CO2-Emissionen gekoppelt. In dem Moment aber, wo Rechenzentren mit 100 Prozent erneuerbaren Energien betrieben werden, wird doch deren Energieverbrauch von CO2-Emissionen entkoppelt, oder? Damit ist das doch eine der wichtigsten Stellschrauben.

Das ist auf jeden Fall eine wichtige Stellschraube, aber eben nicht alles. Es hat sich gezeigt – wenn wir jetzt nochmal die vorhin zitierte Studie zu den Sprachmodellen anschauen -, dass beispielsweise ein Modell, das mit erneuerbaren Energien trainiert wurde, nur auf 30 Tonnen CO2-Emissionen kommt im Vergleich zu 550 Tonnen mit fossilen Energieträgern. Da kann man Riesensprünge machen, wenn man auf erneuerbare Energien setzt. Es sind aber noch zwei weitere Aspekte relevant. Zum einen funktioniert eine Energieerzeugung, die auf 100 Prozent erneuerbaren Energien basiert, in Deutschland und anderen Ländern nur, wenn auch der absolute Energieverbrauch reduziert wird. Wenn alle möglichen Sektoren elektrifiziert werden, wie ja auch der Verkehrssektor und so weiter, und wir für das Training und die Nutzung von KI-Systemen immer mehr Energie verwenden, dann werden wir irgendwann einen Nutzungskonflikt kriegen.

Im Endeffekt hat so ein großes Unternehmen wie Google wahnsinnig viel Kapital zur Verfügung. Die bauen sich einfach ihre eigenen erneuerbaren Energieanlagen. Die großen Tech-Konzerne sind mittlerweile die wichtigsten Abnehmer für erneuerbaren Energien in den USA. Aber eine nachhaltige Digitalisierung bedeutet eben nicht nur, auf erneuerbare Energien umzusteigen. Zumal wir in Deutschland ja auch eine wahnsinnige Flächenkonkurrenz haben. Es wird um jedes Windrad gerungen. Daher lässt sich das Problem nicht einfach mit erneuerbaren Energien lösen.

Was also muss getan werden, um den Energieverbrauch von KI nicht weiter wachsen zu lassen?

Letztendlich geht es natürlich auch immer darum, das ins Verhältnis zu setzen. Also die Frage zu stellen, was es aus ökologischer Sicht wirklich bringt, einen Prozess mittels KI – oder besser maschinellem Lernen – zu digitalisieren. Wie viel größer ist der positive Effekt im Vergleich zu den Emissionen aus der Herstellung der Hardware und dem Training? Wie sinnvoll ist es, ein KI-System in einem bestimmten Bereich einzusetzen? Aber diese Frage wird häufig nicht gestellt.

Und es gibt viele Einsatzbereiche, die ja gar nicht das Ziel haben, irgendwelche CO2-Fußabdrücke zu reduzieren. Wir haben im Rahmen von dem Sustain-Projekt eine Fallstudie zum Thema Online-Marketing und Advertising gemacht. Es hat sich gezeigt, dass in diesem Bereich wahnsinnige Datenströme erzeugt werden. Da wird massiv KI eingesetzt, um Menschen dazu zu bewegen, mehr zu konsumieren. Das ist doppelt unnachhaltig. Nicht nur das Ziel des Einsatzes von KI-Systemen – mehr Konsum – ist nicht nachhaltig, sondern auch die Praktiken selbst, also die Art und Weise, wie KI für Tracking und Personalisierung eingesetzt wird.

Der Energieaspekt ist am populärsten, wenn wir über Nachhaltigkeit und Künstliche Intelligenz sprechen. Es gibt aber noch andere Aspekte, die sich auf die Nachhaltigkeit von KI auswirken.

Ja, ein weiterer Aspekt, den wir untersucht haben, sind indirekte Effekte wie der Materialverbrauch. In einem autonom fahrenden Auto zum Beispiel stecken bis zu 30 Hardwarekomponenten drin, vor allem Sensoren, die Daten erfassen oder Lidar-Technologie, also Laserscanning. Dass der zunehmende Einsatz von KI in vielen Bereichen auch damit einhergeht, dass sehr viel mehr Hardware eingesetzt werden muss, ist ein Aspekt, der in der Debatte um die ökologische Nachhaltigkeit von KI stärker berücksichtigt werden muss.

Aus der Forschung wissen wir, dass der größte CO2-Fußabdruck der Digitalisierung bei der Herstellung von Geräten entsteht, in der Regel über die Hälfte. Und natürlich brauchen wir auch für die Rechenleistung Hardware, also die Server.

Das hat auch soziale Implikationen, weil die Geräteherstellung oft im globalen Süden passiert, in Ländern mit schlechten Umwelt- und Sozialstandards und unter menschenunwürdigen Bedingungen. Da verknüpfen sich sehr stark das Soziale und das Ökologische.

Das ist meiner Meinung nach auch beim Thema Wasserverbrauch der Fall, und deswegen wird das in den nächsten Jahren noch mal deutlich wichtiger werden.

Worum geht es bei dem Thema Wasserverbrauch von KI?

Rechenzentren benötigen Wasser zur Kühlung und die meisten nutzen dafür Trinkwasser. Es gibt auch Möglichkeiten, zum Beispiel Grauwasser oder Passivkühlung zu nutzen. Aber das sind entweder sehr moderne Rechenzentren oder dafür ist sehr großer technischer Umbau der bestehenden Infrastruktur notwendig.

Dass mit Trinkwasser gekühlt wird, ist ein großes Problem. Wir beobachten, dass viele Rechenzentren in Gegenden gebaut werden, wo es eine starke Wasserknappheit gibt. 2021 gab es in Chile zum Beispiel Proteste gegen Rechenzentren. Eine Studie der chilenischen Wasserbehörde Dirección General de Aguas (DGA) hatte gezeigt, dass die neuen Rechenzentren, die Google bauen wollte, 169 Liter Trinkwasser in der Sekunde verbrauchen sollten. Das gab einen Riesenaufschrei. In dieser Region herrscht Wasserknappheit und der Bau eines neuen Rechenzentrums führte damit zu einem Nutzungskonflikt. Da wird deutlich, dass ökologische Probleme auch immer etwas mit sozialer Verteilungsgerechtigkeit zu tun haben. Also, wer hat Zugang zu welchen Ressourcen, um welchen Preis? Das ist sicherlich ein Thema, dem in Zukunft auch noch mehr Aufmerksamkeit gewidmet werden muss.

Symbolbild: Wasserverbrauch KI

Wasserverbrauch von KI

Für die Verarbeitung der Daten benötigen Server nicht nur Strom. Als Nebenprodukt entsteht dabei auch Wärme. Daher müssen die Server permanent gekühlt werden, um eine Überhitzung zu vermeiden – und hierzu wird meistens Wasser verwendet. Beim Training großer Sprachmodelle können Millionen Liter Frischwasser für die Kühlung der Kraftwerke und KI-Server verdampfen.

Für Rechenzentren besonders attraktiv sind Gegenden mit viel günstiger Sonnenenergie. Doch hier ist Wasser oft knapp. Wenig überraschend, dass Proteste gegen Rechenzentren zunehmen, wie auch Paris Marx in diesem Talk berichtet: The Backlash to the AI-Fueled Data Center Boom

Was sind noch weitere wesentliche Stellschrauben für nachhaltige Künstliche Intelligenz, wo müssen wir auf jeden Fall ran?

Unser Ansatz war zu zeigen, dass eine integrierte Nachhaltigkeitsperspektive ökologische, soziale und ökonomische Aspekte beinhalten muss. Weil natürlich kann ich meine KI nur noch mit erneuerbaren Energien trainieren, so wie das beispielsweise Google angibt. Aber das kann dann trotzdem noch eine diskriminierende KI sein oder eine, die nicht transparent ist. Oder eine KI, die aus einer ökonomischen Perspektive auf einem Monopolmarkt stattfindet und dadurch problematisch ist.

Also, ich glaube, es gibt drei Ebenen. Das eine sind meiner Meinung nach Paradigmen in der Entwicklung. Wir brauchen auch in der Machine-Learning-Community einen Paradigmenwechsel hin zu kleineren, energieeffizienteren Modellen. Beziehungsweise überhaupt die Perspektive, dass größer nicht immer besser ist und dass man tatsächlich mehr überlegt, wie Modelle nach Kriterien wie weniger Energieverbrauch oder Transparenz entwickelt werden. Dabei ist eine sehr wichtige Stellschraube, dass dokumentiert wird, wie das System entwickelt wurde oder wer möglicherweise vulnerable Gruppen sind.

Und ein anderer Aspekt ist sicherlich auch die politische Dimension, also wie KI reguliert wird. Da ist die im Frühjahr verabschiedete KI-Verordnung auf jeden Fall ein Schritt in die richtige Richtung. Die Verordnung wird sicherlich Auswirkungen darauf haben, dass Unternehmen transparenter werden, weil sie den Energieverbrauch ihrer KI-Anwendungen dokumentieren müssen. Aber da sind wir noch am Anfang. Und wir werden nicht darum herumkommen, auch indirekte Effekte sehr viel stärker zu berücksichtigen. Also, es hilft uns ja nichts, wenn wir den Impact in Länder verlagern, in denen die Geräte hergestellt werden. Es ist jetzt schon zu beobachten, dass immer mehr Rechenzentrumsbetreiber genutzt werden, die in Asien sind, wo es viel weniger Umwelt- und Sozialstandards gibt. Die großen Rechenzentrumsbetreiber sind relativ teuer, und viele kleine Startups können sich diese nicht leisten.

Der dritte Bereich ist das Stärken einer gesellschaftlichen Debatte. Aus unserer Sicht gibt es schon eine gesellschaftliche Debatte, aber es ist noch nicht so richtig im Bewusstsein der Menschen angekommen, dass die Nutzung von KI, jede Anfrage bei ChatGPT und Co., wirklich einen wahnsinnigen Energie- und Ressourcenverbrauch verursacht. Der ist deutlich höher als jede Google-Suche.

Worum geht es genau in der neuen KI-Verordnung?

Die KI-Verordnung bzw. der AI-Act ist auf europäischer Ebene angesiedelt und weltweit eine der ersten Regulationen von KI. Neben ganz vielen anderen wichtigen Aspekten zur Regulierung von KI sind tatsächlich auch Aspekte zur ökologischen Nachhaltigkeit enthalten. Beispielsweise, dass es standardisierte Dokumentationsverfahren für Energie- und Ressourcenverbräuche von KI geben muss, also dass bei generativen KI-Systemen der Energie- und Ressourcenverbrauch gemessen beziehungsweise geschätzt und dokumentiert werden muss.

EU AI-Act, Grafik

AI-Act

Der Artificial Intelligence Act (AI Act) ist die Antwort der Europäischen Union auf die Risiken Künstlicher Intelligenz und richtet sich an Unternehmen und staatliche Behörden, die in der EU KI-Systeme einsetzen. Das Gesetz soll eine rechtliche Grundlage für die Entwicklung und den Einsatz von KI bilden, um mögliche Schäden durch KI abzuwenden bzw. zu minimieren.

Im AI-Act wird die Umwelt als ein schützenswertes Rechtsgut erwähnt. Die darin eingeführten standardisierten Berichts- und Dokumentationsverfahren zur effizienten Ressourcennutzung von KI-Systemen sollen dazu beitragen, den Energie- und sonstigen Ressourcenverbrauch von KI-Systemen mit hohem Risiko während ihres Lebenszyklus zu reduzieren bzw. eine energieeffiziente Entwicklung von KI-Modellen für allgemeine Zwecke („general-purpose AI models“, GPAI) vorantreiben.

Ich denke, die Erkenntnisse aus dem SustAIn-Projekt haben auch einen Beitrag geleistet, weil wir wissenschaftlich fundierte Empfehlungen abgeben konnten. Wenn man sich jetzt aktuelle Entwicklungen in anderen Ländern anguckt, dann sieht man, dass auch da solche Regulationen angestrengt werden oder es zumindest Initiativen gibt. Auch in den USA beispielsweise hat sich gezeigt, dass das ein Thema von nationalem Interesse ist, weil die steigenden Energie- und Ressourcenverbräuche für KI-Systeme problematisch werden.

Soweit ich das verstanden habe, geht es im AI-Act aber nur um die Dokumentation der Energieverbräuche. Das heißt, Umweltauflagen sind darin noch nicht enthalten, oder?

Ja, es sind keine Umweltauflagen enthalten, sondern es geht tatsächlich darum, erstmal den Energie- und Ressourcenverbrauch zu dokumentieren. Dass weniger Energie und Ressourcen verbraucht werden müssen, steht da nicht drin. Wenn das jetzt in die nationale Umsetzung geht, sollte man diese Aspekte stärker berücksichtigen, wie zum Beispiel Verbesserungspotenziale abzuleiten.

Was sagst du, wo liegt die Hauptverantwortung für die Entwicklung nachhaltiger KI-Anwendungen?

Die Verantwortung liegt sowohl bei den entwickelnden als auch bei den einsetzenden Organisationen. Das haben wir auch in unseren Kriterien und Indikatoren relativ klar gemacht. Letztendlich muss ja die Organisation, die die KI einkauft, auch sicherstellen, dass sie verantwortungsvoll entwickelt wurde. Das heißt aber auch, dass die entwickelnde Organisation vernünftig dokumentieren muss, um das nachweisen zu können.

Aber auch die politischen Rahmenbedingungen sind entscheidend. Wenn die gesetzt werden, dann sind nicht allein die Organisation verantwortlich. Das wollten wir ja auch mit den Kriterien und Indikatoren deutlich machen. Und wir haben so ein Self-Assessment-Tool entwickelt, wo wir die Teile der Kriterien, die gut von Entwickler:innen und einsetzenden Organisationen adressiert werden können, aufgenommen haben. Das Tool steht online zur Verfügung und Organisationen können sich durchklicken und sehen, wo sie im Hinblick auf die nachhaltige Entwicklung ihrer KI-Anwendungen stehen und wo noch große Baustellen sind.

Symbolbild Self Assessment Tool KI

13 Nachhaltigkeitskriterien für KI-Systeme – Self-Assessment-Tool

Mit dem digitalen Self-Assessment-Tool können Organisationen, die selbst KI entwickeln oder sie extern einkaufen, ihre KI-Systeme auf den Nachhaltigkeitsprüfstand stellen. Das Tool basiert auf umfassenden Indikatoren, die im SustAIn-Projekt entwickelt wurden.

Es gibt aber auch für Entwickler:innen Tools, um die Nachhaltigkeit der KI-Anwendung zu checken. Mir fällt als erstes immer der Machine Learning Emissions Calculator ein.

Genau, es gibt den Machine Learning Emissions Calculator und es gibt auch CodeCarbon. Das war ein Projekt, welches ein Software Package entwickelt hat und wo man im Code ein paar Zeilen einfügt und dann die CO2-Emissionen der genutzten Rechenleistung geschätzt wird. Es gibt noch viele weitere Tools, und auch die großen Cloud-Anbieter haben zum Teil selber Tools. Man kann einfach mal gucken bei den Cloud-Anbietern, ob sie Berechnungs- oder Schätzungstools haben.

Wenn sich Unternehmen für den Energieverbrauch ihrer KI-Anwendungen interessieren, dann geht es aktuell wahrscheinlich eher darum, Kosten einzusparen.

Ja, klar, weil Unternehmen damit versuchen, ihre KI-Anwendungen kostenmäßig zu optimieren. Ein Modell zu haben, das weniger Rechenleistung benötigt und trotzdem die gleiche Performance hat, lohnt sich natürlich wirtschaftlich.

Was für eine Rolle spielen Open Source Anwendung im Bereich nachhaltige KI-Entwicklung?

Also, ein Open-Source-Modell ermöglicht, dass mehr Akteure einen Zugang bekommen. Und wenn man ein vortrainiertes Modell hat, das Open Source ist, dann muss man dieses Modell auch nicht immer neu trainieren und kann es innerhalb der Community weiterentwickeln. Das kann aus Nachhaltigkeitssicht durchaus sinnvoll sein.

Torge Peters

Du hast viele Bereiche aufgezählt, auf die geachtet werden muss, um im besten Fall zu einer nachhaltigeren KI zu kommen. Was sagst du, wie kann es gelingen, dass auch wirklich an diesen Stellschrauben gedreht wird?

Dadurch, dass die KI-Verordnung jetzt in Kraft getreten ist und sukzessive in die nationale Gesetzgebung überführt wird, wird es erst mal keine weitere Regulation geben. Aber dass es überhaupt eine KI-Verordnung gibt, ist ja auch erst mal ein guter und richtiger Schritt. Auch wenn natürlich in vielen Bereichen noch Luft nach oben ist, das ist klar.

Was man sich aber noch sehr viel stärker angucken muss, ist die ganze Wertschöpfungskette. Also, an welcher Stelle passiert eigentlich was, und wo muss reguliert werden, um diese Wertschöpfungskette tatsächlich zu adressieren? Wenn man sich beispielsweise die Arbeitsbedingung von Clickworkern anguckt, ist natürlich die Frage, inwieweit die Verordnung weiterhilft. Und dann muss man vielleicht noch mal andere Gesetzgebungen bemühen, wie zum Beispiel das Lieferkettengesetz.

Vielleicht kannst du nochmal zusammenfassen: Wie also geht nachhaltige Künstliche Intelligenz?

Tatsächlich kann man sich die Frage stellen, ob es nachhaltig in dem Sinne überhaupt gibt. Sie ist vielleicht nachhaltiger als der Status quo, aber ob es jetzt wirklich eine komplett nachhaltige KI gibt, das würde ich mit einem großen Fragezeichen versehen.

Grundsätzlich bedeutet nachhaltige KI eine verantwortungsvolle Technikentwicklung, also zu schauen, wer vulnerable Gruppen sind, das System möglichst transparent zu machen, auf Fairness zu achten. Das bedeutet aber auch, die Energie- und Ressourcenverbräuche zu dokumentieren und zu schauen, inwieweit man sie reduzieren kann und den Rechenzentrumsbetreiber nach dessen CO2-Fußabdruck auszuwählen. Außerdem kann es Sinn machen, das Modell Open Source zur Verfügung zu stellen, damit andere es weiterentwickeln können, anstatt weitere Modelle zu trainieren.

Friederike, vielen Dank für das Interview!

Torge Peters
Die Digitalisierung kann die nachhaltige Landwirtschaft voranbringen – unter bestimmten Voraussetzungen

In der Landwirtschaft ist die Digitalisierung längst angekommen. Wie aber zahlen diese Entwicklungen auf den Umwelt- und Klimaschutz ein? Wir stellen Lösungen vor.

The home screen of the Well Beyond App providing an array of valuable water system management tools and training resources - Courtesy photo by Well Aware
©
Mit der App Well Beyond können Menschen in abgelegenen Gebieten Kenias ihre Wasserversorgung selbst in die Hand nehmen

Eine App der NGO Well Aware unterstützt Gemeinden in Ostafrika bei der Wartung ihrer Brunnen – und sichert so die Wasserversorgung.

PFANDGEBEN – Flaschenpfand per App an Bedürftige spenden

Mit der App PFANDGEBEN wird Leergut als Ressource bedürftigen Menschen direkt zugänglich gemacht.

Podcast-Folge: Was kann die Digitalisierung zur Agrarwende beitragen?

Wie kommen wir zu einer nachhaltigen Landwirtschaft? Und wie können digitale Tools bei der Agrarwende unterstützen? Darüber sprechen wir mit der Agronomistin Prof. Dr. Bellingrath-Kimura (ZALF).

Fischklingel in Utrecht: Warum tausende Menschen im Internet auf Fische warten

Dank einer Fischklingel leben Fische in Utrecht sicherer. Das Projekt hilft nicht nur Wasserbewohnern auf ihrer Wanderung, es weist auch auf die Gefahren menschlicher Infrastruktur hin.

Künstliche Intelligenz – Können wir mit Rechenleistung unseren Planeten retten?

Längst löst Künstliche Intelligenz komplexe Aufgaben und erleichtert unseren Alltag. Doch liefern die intelligenten Computerprogramme auch neue Lösungen für den Umwelt- und Klimaschutz?

Baus Taka
Baus Taka
Baus Taka App bringt Abfallmanagement in Mombasa voran

Eine neue App bietet Nutzer*innen in Mombasa die Möglichkeit, Abfälle sammeln und recyceln zu lassen und damit Geld zu verdienen.

Torge Peters/ Studio Nørden
Civic Tech – Wie können Bürger*innen und Zivilgesellschaft den Umwelt- und Klimaschutz digital mitgestalten?

Sie gestalten Städte mit und erheben Daten zum Klima und zur Umwelt - mit digitalen Tools nehmen Bürger*innen Einfluss auf globale Probleme. Wie aber kann das digitale Engagement gefördert werden?