Die Erhaltung der Biodiversität ist enorm wichtig für das Funktionieren von Ökosystemen. Jedes noch so kleine Tier, jede Pflanze, jeder Pilz ist Teil des Systems. Schon das Fehlen einzelner Teile kann dazu führen, dass Ökosysteme instabil werden oder ganz zusammenbrechen. Deshalb spielen Natur- und Artenschutz eine so wichtige Rolle. Um Tier- und Pflanzenarten effektiv schützen zu können, werden aber zunächst einmal Informationen benötigt: Welche Arten leben wo? Wie viele Tiere gibt es davon? Wo sind sie besonders bedroht? Genaue Schätzungen der Populationsgrößen bzw. -dichte bedrohter Tierarten bilden die Grundlage für Entscheidungsträger, um die richtigen Maßnahmen für den Artenschutz ergreifen zu können. Und gerade bei seltenen Tierarten sind zunächst Daten zum Verhalten der Tiere notwendig, um überhaupt Kriterien für Schutzräume definieren zu können. Nicht zuletzt ist es auch wichtig zu wissen, was abseits der Tier- und Pflanzenwelt in Naturschutzgebieten passiert: Gibt es illegale Aktivitäten von Menschen wie Wilderei oder illegalen Holzschlag?
Um die nötigen Daten zu erhalten, gibt es verschiedene Ansätze und Technologien, darunter von Satelliten aufgenommene Luftbilder oder die Analyse von Audioaufnahmen im Regenwald. Oft kommen in abgelegenen, schwer zugänglichen Gegenden vor allem Kamerafallen zum Einsatz – also die mit Hilfe von Bewegungssensoren automatisch gesteuerte Bildaufzeichnung. Diese ermöglicht eine regelmäßige Arteninventur und Verhaltensbeobachtungen (seltener) Tiere. Zugleich stellen solche Kamerafallen nur eine sehr geringfügige Störung natürlicher Habitate dar – im Vergleich zum Beispiel mit einer Forschungsexpedition, bei der Menschen in die Lebensräume bedrohter Tierarten eindringen.
Doch die Erhebung von Datenmaterial durch Kamerafallen birgt zugleich neue Herausforderungen. Die riesigen Datenmengen müssen von Forscher*innen zunächst ja ausgewertet werden – und innerhalb einer einzigen Standorterhebung können 10.000 bis 100.000 Videoclips und Millionen von Videos an mehreren Standorten anfallen. Denn oft wird von Kamerafallen auch Videomaterial aufgezeichnet, das irrelevant ist, weil die Sensoren beispielsweise durch fallende Äste ausgelöst wurden. Welche Informationen sind also von Belang und welche nicht? Und welche Tiere sind in den Aufzeichnungen überhaupt zu sehen? Für die Verarbeitung und Analyse ist ein enormer zeitlicher Aufwand nötig, der die Kapazitäten der Forscher*innen oft übersteigt. Häufig wird deshalb auf die Unterstützung durch freiwillige Helfer*innen im Rahmen von Citizen Science zurückgegriffen – aber auch die ist nicht selbstverständlich und stets verfügbar.
Eine Lösung dafür bietet das Open-Data-Projekt Zamba, das mithilfe von Künstlicher Intelligenz und Computer-Vision das Videomaterial auswerten und automatisch erkennen kann, welche Tierarten in die Kamerafalle getappt sind und welche Aufnahmen irrelevant sind. Forschende können sich so ausschließlich auf relevantes Videomaterial und ihre eigentliche Arbeit konzentrieren.
Citizen Science trifft Data Science
Zamba entstand auf der Grundlage des Engagements zweier Gruppen: tausender Citizen Scientists und hunderter Data Scientists. Der Grundstein für das Projekt legten Forscher*innen vom Max-Planck-Institut für evolutionäre Anthropologie: Auch sie gelangten bei ihrer Arbeit an die Grenzen des Möglichen, um die hunderttausenden Videoclips einzeln anzusehen und manuell zu kennzeichnen – und veranstalteten daher 2017 gemeinsam mit DrivenData (ein Spin-off aus dem Harvard Innovation Lab) einen Machine-Learning-Wettbewerb. Bei dieser sogenannten Pri-matrix Factorization Challenge arbeiteten Datenwissenschaftler*innen aus über 90 Ländern auf Basis von hunderttausenden Videoclips an der Entwicklung eines Machine-Learning-Algorithmus zur Identifizierung ausgewählter Tierarten. Diese Clips waren zuvor im Rahmen des Chimp&See Zooniverse-Projekts von tausenden Citizen Scientists sorgfältig manuell kategorisiert worden, sodass eine umfassende Datenbank vorhanden war. Durchsetzen konnte sich am Ende ein von Dmytro Poplovskiy entwickelter Algorithmus, der eine KI basierend auf neuronalen Netzen verwendet. Nach Angaben von Driven Data konnte dieser die Präsenz von Wildtieren mit einer Genauigkeit 96 Prozent ermitteln und eine mittlere Genauigkeit von 99 Prozent bei der Identifizierung von Arten erreichen. Der Algorithmus verzeichnete zudem eine durchschnittliche Erinnerungsquote von 70 Prozent bei allen Arten und bis zu 96 Prozent bei den drei häufigsten Labels (Leerwert, Mensch und Elefant).
Der Code der besten Einsendungen für den Wettbewerb wurde unter einer Open-Source-Lizenz veröffentlicht und steht somit zur freien Nutzung zur Verfügung. Außerdem wurde das Modell von Dmytro Poplovskiy zu dem Python-Paket Zamba ausgebaut. Zamba (aus der afrikanische Verkehrs- und Handelssprache Lingála für „Wald“) ist ein Open-Source-Kommandozeilenprogramm, das frei installiert und von Forschenden auf der ganzen Welt verwendet werden kann, um Arten aus Kamerafallen-Aufnahmen zu identifizieren. Außerdem wurde es in eine Webanwendung integriert, so dass Naturschutzforschende dort einfach Videos hochladen und durch die Zamba-Algorithmen laufen lassen können.
Derzeit können von Zamba insgesamt 23 Spezies erkannt werden, wobei der Fokus momentan auf afrikanischen Wildtieren liegt. Nach Angaben von Driven Data gegenüber RESET wird daran gearbeitet, Daten von weiteren Tierarten und anderen Orten einzuspeisen. Erste Tests von Zamba Cloud zur Schätzung von Artenpopulationen hätten zudem vielversprechenden Ergebnisse gezeigt, Driven Data will diese Möglichkeiten nach eigenen Angaben noch weiter ausbauen. Aktuell sucht das Startup nach finanziellen Mitteln, um die Algorithmen weiter zu verbessern und die Benutzerbasis erweitern zu können.
Driven Data arbeitet übrigens schon an einem weiteren Wettbewerb für maschinelles Lernen: Bei Hakuna Ma-Data geht es um die Tierwelt der Serengeti; der Fokus liegt bei dieser Challenge darauf, die Art und Weise, wie Modelle verallgemeinert und ausgeführt werden, voranzutreiben. Wie bei Zamba sollen alle Gewinner-Modelle unter einer Open-Source-Lizenz veröffentlicht werden, so dass sie für die Allgemeinheit frei nutzbar ist und jede*r von ihnen lernen kann.
Wie kann KI im Umwelt- und Klimaschutz wirkungsvoll eingesetzt werden? Welche spannenden Projekte gibt es? Was sind die sozial-ökologischen Risiken der Technologie und wie sehen Löungen aus? Antworten und konkrete Handlungsempfehlungen geben wir in unserem Greenbook(1) „KI und Nachhaltigkeit – Können wir mit Rechenleistung den Planeten retten?“.
Dieser Artikel ist Teil des Dosssiers „Künstliche Intelligenz – Können wir mit Rechenleistung unseren Planeten retten?“. Alle Artikel des Dossiers findest du hier: Dossier KI

Das Dossier ist Teil der Projekt-Förderung der Deutschen Bundesstiftung Umwelt (DBU), in deren Rahmen wir vier Dossiers über zwei Jahre zum Thema „Chancen und Potenziale der Digitalisierung für eine nachhaltige Entwicklung“ erstellen.
Mehr Informationen hier.