Interview: Das Projekt SustAIn entwickelt einen Nachhaltigkeitsindex für Künstliche Intelligenz

Im Projekt SustAIn werden Kriterien entwickelt, um die Nachhaltigkeit von KI-basierten Systemen bewertet zu können. Wir sprachen mit Friederike Rohde, die das Teilprojekt am IÖW koordiniert.

Autor Sarah-Indra Jungblut, 23.06.21

Übersetzung Sarah-Indra Jungblut:

Kaum eine Technologie bewegt sich in einem ähnlich großen Spannungsfeld wie Künstliche Intelligenz (KI). Schon jetzt werden intelligente Algorithmen und maschinelles Lernen in vielen Bereichen eingesetzt – und die Entwicklungen sind noch immer in voller Fahrt. Die Erwartungen sind hoch, dass KI durch Sprach- und Bilderkennung, die Erstellung von Prognosen und komplexen Modellen Produktinnovationen vorantreibt und neue Märkte und Forschungsperspektiven eröffnet. Auch in unserer Publikation Greenbook (1): Künstliche Intelligenz – Können wir mit Rechenleistung unseren Planeten retten? konnten wir zeigen, dass KI-basierte Systeme im Umwelt- und Klimaschutz eingesetzt werden und sie das Potenzial haben, die Energiewende, Kreislaufwirtschaft und den Natur- und Artenschutz voranzutreiben und zu verbessern.

Gleichzeitig mehren sich kritische Stimmen, die auf die ökologischen und ethischen Probleme hinweisen, die Verfahren der Künstlichen Intelligenz mit sich bringen und auch auf politischer Ebene werden Regulierungsmöglichkeiten diskutiert.

Das Projekt SustAIn zielt darauf ab, Kriterien für die Nachhaltigkeitsbewertung von Anwendungen mit Künstlicher Intelligenz zu entwickeln und die Nachhaltigkeitswirkungen exemplarisch zu erheben. Das Verbundprojekt wird in der BMU-Förderinitiative KI-Leuchttürme finanziert und vom Institut für Ökologische Wirtschaftsforschung (IÖW) gemeinsam mit AlgorithmWatch und dem Distributed Artificial Intelligence Labor (DAI Labor) der Technischen Universität Berlin durchgeführt.

csm_friederike_rohde_1_6c90955e4f
Friederike Rohde koordiniert das Teilprojekt am IÖW.

Friederike, wie kam es zu der Idee, einen Nachhaltigkeitsindex für KI zu entwickeln?

Wir haben im September 2019 mit dem Forum Bits & Bäume gestartet, einer Gesprächsreihe, die dazu dienen sollte, die Diskussion, um eine nachhaltige Gestaltung von Digitalisierungsprozessen stärker in den politischen Diskurs zu tragen. Auf der Auftaktveranstaltung haben wir über das Thema KI und Nachhaltige Entwicklung gesprochen und haben bemerkt, dass es noch viel Bedarf zur Verknüpfung dieser Themen gibt. Dabei geht es nicht nur um die gesellschaftlichen Auswirkungen, sondern auch um den ökologischen Impact von KI-basierten Verfahren. Als dann die Ausschreibung der KI-Leuchttürme kam, haben wir uns mit AlgorithmWatch und dem DAI-Labor zusammengetan und die Idee für den Sustainability-Index für Künstliche Intelligenz entwickelt.

Was ist das Ziel von SustAIn?

Unser Ziel ist es, den gesellschaftlichen Diskurs zum Thema KI und die Gestaltung dieser Systeme zu beeinflussen und aufzuzeigen, was die Entwicklung, Implementation und Nutzung von automatisierter Entscheidungsfindung für die Gesellschaft und den Planeten bedeutet. Es fehlt derzeit an systematischen Bewertungsmöglichkeiten und vor allem an Daten, auf deren Basis eine solche Bewertung überhaupt möglich wäre.

In dem Projekt arbeiten wir sehr interdisziplinär und sind ein Kernteam aus acht Menschen aus den Bereichen Informatik, Softwareentwicklung, Soziologie, Ökonomie, Politikwissenschaften sowie Medien und Nachhaltigkeitswissenschaften. Zusammen wollen wir ein Kriterienset für die nachhaltige Gestaltung KI-basierter Systeme entwickeln und dies auch in drei Fallstudien qualitativ und quantitativ untersuchen. Die Ergebnisse wollen wir in jährlichen Reports veröffentlichen.

Warum sollten wir Anwendungen mit KI regulieren?

Es gibt bereits eine lange Diskussion um ethische Aspekte von künstlicher Intelligenz und welche Auswirkungen auf gesellschaftliche Stigmatisierung, Diskriminierung oder Genderstereotype die Nutzung von KI-basierten Verfahren hat. Hier geht es vor allem darum sicherzustellen, dass KI-Systeme nicht die gesellschaftlichen Vorurteile reproduzieren, die sich ja in den Datensätzen widerspiegeln.

Darüber hinaus finde ich es wichtig, sich Gedanken darüber zu machen, wie die Daten eigentlich erhoben werden und was sie repräsentieren sollen. Wir können nicht einfach sagen, die Daten spiegeln die Realität wider, denn sie sind ja häufig auch bereits eine Interpretation der Realität. Wenn Algorithmen dann basierend auf diesen Daten weitreichende Entscheidungen treffen, wie Bewerber*innen auswählen oder Kredite bewilligen, ist das natürlich hochproblematisch. Ich denke, die gesellschaftlichen Konsequenzen der Nutzung dieser automatisierten Entscheidungssysteme können sehr weitreichend sein. Und da sind wir gerade erst am Anfang der Debatte.

Die Europäische Kommission hat ja im Februar einen Rechtsrahmen für KI vorgelegt, der schon viele wichtige Aspekte wie zum Beispiel die hohe Qualität der Datensätze, Rückverfolgbarkeit oder Robustheit und Genauigkeit enthält. Wie so oft steckt auch bei diesen Prinzipien und deren Umsetzung der Teufel im Detail und es ist die Frage, was konkret die vielfältigen Akteure und Organisationen, die KI-Systeme nutzen und entwickeln, machen müssen, um diesen Prinzipien zu entsprechen.

Was sind die ökologischen und sozialen Herausforderungen der intelligenten Algorithmen?

Ein wichtiger Aspekt, der in der Diskussion um KI-Systeme im Hinblick auf soziale und ökologische Herausforderungen betrachtet werden sollte, ist aus meiner Sicht das Verhältnis zwischen Aufwand und Nutzen, beispielsweise wenn es um den Energieverbrauch sehr großer Deep Learning Modelle geht. Hier kursierten recht hohe Zahlen, die von amerikanischen Forscher*innen publiziert wurden. Doch diese werden häufig falsch wiedergegeben bzw. nicht richtig interpretiert. Denn es wurden nicht nur bestehende Modelle wie Transformer oder BERT angeschaut, sondern auch die Architektursuche für ein neuronales Netz (Neural Architecture Search). Und mit diesen Zahlen wird jetzt häufig argumentiert. Das ist, als würde man den Benzinverbrauch eines Formel Eins Rennwagens mit dem eines herkömmlichen Autos vergleichen. Ein anspruchsvolles Modell wie BERT verbraucht der Studie entsprechend im Training ca. 0,65 Tonnen CO2, bei einem häufig genutzten Modell wie Transformer sind es beispielsweise etwa 12 Kilo CO2.

Der Energie- und Ressourcenverbrauch der Modelle ist natürlich ein wichtiges Thema. Aber auch die Frage, wo die ganze Hardware, auf der diese rechenintensiven Prozesse laufen, eigentlich herkommen soll und unter welchen Bedingungen sie produziert wird, muss gestellt werden. Hier sind wir von Nachhaltigkeit noch sehr weit entfernt und diese sehr indirekten Effekte werden häufig nicht betrachtet.

Auch ist noch unklar, wie das Verhältnis von Training und Inferenz (also der Ausführung des Entscheidungsprozesses) sich im Hinblick auf den Energieverbrauch auswirkt. Derzeit wird davon ausgegangen, dass 90 Prozent der Kosten für die Infrastruktur auf die Machine-Learning-Inferenz entfallen, also die Ausführung im jeweiligen Anwendungsfeld. Das Training hat daran nur einen Anteil von etwa 10 Prozent. Ob sich das direkt in den Energieverbrauch übersetzten lässt ist allerdings unklar.

Bei den sozialen Aspekten gibt es natürlich sehr weitreichende Auswirkungen, die ich ja bereits erwähnt hatte. Hier geht es vor allem auch darum zu fragen, welche Auswirkungen automatisierte Entscheidungsprozesse auf die gesellschaftliche Integrität haben und welche Rolle wir als Gesellschaft einer datengetriebenen Steuerung von Entscheidungen und Prozessen einräumen wollen.

Wie wollt ihr zu den Nachhaltigkeitskriterien kommen?

Wir nehmen Bezug auf bestehende Diskurse sowohl in der Wissenschaft als auch in der Praxis und haben in einem ersten Schritt versucht, aus dem Stand der Diskussionen und Forschung einige Kriterien herauszukristallisieren. Im Moment haben wir ein erstes Set von 16 Kriterien entwickelt, die aber noch um verschiedenen Aspekte ergänzt und verfeinert werden. Die Schwierigkeit ist, diese Kriterien anhand konkreter Indikatoren und Maßnahmen bewertbar zu machen. Da sind wir gerade dabei uns zu überlegen, wie man das sinnvoll machen könnte und was für ein Bewertungsraster man dabei nutzt. Wir sind im Moment bei einem Stufenmodell, das kann sich aber auch nochmal ändern.

Wenn wir die Nachhaltigkeitskriterien fertiggestellt haben, wollen wir eine Bewertungssystematik entwickeln und Fallstudien in den Bereichen Energie, Mobilität und Online-Shopping durchführen. Hier wollen wir dann etwas genauer schauen, wie in den jeweiligen Bereichen das Verhältnis zwischen positiven Effekten für sozial-ökologische Transformationen und Risiken für Mensch und Umwelt ist.

In unseren sogenannten „Sustainable AI Labs“ versuchen wir möglichst viel mit Akteuren aus der Praxis und Expert*innen in dem Themenfeld zusammenzuarbeiten. In unserem ersten Lab haben wir bereits erstes Feedback zu unserem Ansatz bekommen und das wollen wir fortführen. Wir wollen ja schließlich etwas entwickeln, das anschlussfähig ist und einen sinnvollen Beitrag leistet, um KI-Systeme künftig nachhaltiger zu gestalten. Dafür wollen wir auch Empfehlungen für Entwickler*innen herausarbeiten und politische Ansatzpunkte, damit Nachhaltigkeitszielsetzungen stärker Berücksichtigung finden.

In welchen Nachhaltigkeitsbereichen siehst du besonders hohes Potenzial von KI und wie können wir diese bestmöglich nutzen?

Im Energiebereich können zum Beispiel durch „Forecasting“ oder intelligente Gebäudesteuerung möglicherweise Energieeinsparungen erreicht werden. Auch im Bereich Erdsystembeobachtung wird von großen Potenzialen ausgegangen. Dennoch müssen wir uns immer bewusst machen, dass für die Erreichung einer sozial-ökologischen Transformation am Ende immer auch soziale Veränderungsprozesse notwendig sind. Es geht um neue Denkmuster oder neue Praktiken und häufig auch um die Infragestellung vorherrschender Strukturen. Da hat die Nutzung von KI natürlich Grenzen und es muss sichergestellt werden, dass sie gemeinwohlorientiert eingesetzt wird.

Wann ist mit den ersten Ergebnissen eures Projekts zu rechnen?

Es ist geplant, dass wir im Frühjahr 2022 den ersten „Sustainable AI-Report“ veröffentlichen, der voraussichtlich in englischer und deutscher Sprache erscheinen wird. Wir erhoffen uns davon, dass wir damit einen wichtigen Beitrag leisten können, um KI-Systeme im Hinblick auf ihre Nachhaltigkeit zu bewerten. Auf jeden Fall zeigt das Projekt, dass eine interdisziplinäre Perspektive und ein Austausch zu diesem Thema zwischen Wissenschaft, Zivilgesellschaft und Praxis sehr große Bedeutung hat und hier noch viel Diskussions- und Wissensbedarf ist.

Wie kann KI im Umwelt- und Klimaschutz wirkungsvoll eingesetzt werden? Welche spannenden Projekte gibt es? Was sind die sozial-ökologischen Risiken der Technologie und wie sehen Löungen aus? Antworten und konkrete Handlungsempfehlungen geben wir in unserem Greenbook(1) „KI und Nachhaltigkeit – Können wir mit Rechenleistung den Planeten retten?“.

greenbook_blog_2_hd
©
RESET-Publikation: Künstliche Intelligenz – Können wir mit Rechenleistung unseren Planeten retten?

Die Entwicklungen im Bereich der Künstlichen Intelligenz sind in voller Fahrt. Aber haben die intelligenten Computerprogramme auch Antworten auf drängende Herausforderungen im Umwelt- und Klimaschutz? Gibt es KI-Anwendungen, denen wir vertrauen können? Und wie sieht es eigentlich mit der Ökobilanz von KI aus? In unserem Greenbook(1) haben wir uns auf die Suche nach Antworten auf diese Fragen begeben.

Neuer RESET-Podcast: Können wir Künstlicher Intelligenz vertrauen?

Künstliche Intelligenz wird längst in vielen Lebensbereichen eingesetzt. Doch können wir den Entscheidungen von KI-Systemen vertrauen? Was tun gegen Diskriminierung durch Algorithmen? Die neue Folge von RESET Radio sucht Antworten und Lösungen

Künstliche Intelligenz neu denken – aus indigener Perspektive

Eine kürzlich gegründete Initiative erforscht neue Ansätze zum Aufbau ethischer KI-Systeme – aus indigener Perspektive. Eine faszinierende und wichtige Arbeit.

bildschirmfoto_2020-10-02_um_14
© Torge Peters/ Studio Nørden
Infografik: Künstliche Intelligenz im Umwelt- und Klimaschutz – wie passt das zusammen?

Wir stehen vor einer Herkulesaufgabe: Das 1,5°C-Ziel erreichen und unseren Planeten vor dem Klimakollaps bewahren. Kann KI dabei helfen? Einen schnellen und übersichtlichen Einstieg ins Thema gibt unsere neue Infografik.

klima_2_kopie
Torge Peters/ Studio Nørden
Policy Brief: Handlungsempfehlungen und konkrete Maßnahmen für den nachhaltigen Einsatz von KI

Künstliche Intelligenz kann auch Lösungen für drängende Herausforderungen im Umwelt- und Klimaschutz bieten. Doch dabei dürfen sozial-ethische und ökologische Aspekte in den Anwendungen nicht außer Acht gelassen werden. In einem Policy Brief fassen wir diese zusammen.

Drohnen und KI erkennen Plastikmüll in Flüssen und Meeren

Eine deutsche Forschungsgruppe setzt Drohnen in Kambodscha ein. Die Fluggeräte identifizieren und lokalisieren Plastikmüll entlang von Wasserwegen und machen Gegenmaßnahmen so effektiver.

Google-KI hilft beim Schutz von Wildtieren – und wirft ethische Fragen auf

Ein neues Tool von Google setzt KI dafür ein, mehr Wissen über Wildtiere zu sammeln, um das weltweite Artensterben aufzuhalten. Aber das Projekt, das Fotos aus Kamerafallen analysiert, wirft auch ethische Fragen auf.

Data4Human: Hilfsorganisationen setzen auf Erdbeobachtung und Künstliche Intelligenz

Im Projekt „Data4Human“ arbeiten Forschende des Deutschen Zentrums für Luft- und Raumfahrt an Datendiensten für Einsatzkräfte von humanitären Organisationen. Das Ziel: schnelle Informationen und präzise Entscheidungsgrundlagen.

Interview: Wie kann Künstliche Intelligenz nachhaltig gestaltet werden?

Welche Potenziale hat KI für den Umwelt- und Klimaschutz? Wie kann man KI-Anwendungen selbst nachhaltiger gestalten? Und was können Unternehmen, Entwickler*innen oder Regierungen dafür tun? Darüber sprachen wir mit Stephan Richter vom Institut für Innovation und Technik.