Die Überwachung der Gesundheit von Tieren in freier Wildbahn ist mit einer Vielzahl von Herausforderungen verbunden – nicht zuletzt damit, dem Tier so nahe zu kommen, um es überhaupt untersuchen zu können. Dieses Problem wird noch verschärft, wenn man es mit bedrohten Tierarten wie Nashörnern oder Tigern zu tun hat, die auch für den Menschen sehr gefährlich werden können.
Aus diesem Grund greifen Naturschützer*innen und Forscher*innen oft auf Betäubungsmittel oder Fallen zurück, um nahe genug an die Tiere heranzukommen und sie genau inspizieren, Messungen vornehmen und ihre Lebenszeichen aufzeichnen zu können. Das ist jedoch eine sehr unzureichende Methode, da die Betäubung von Tieren auch mit einer Fülle von Risiken verbunden ist, wie erhöhtem Stress und sogar dem Tod, wenn ein Tier besonders alt oder krank ist.
Zur Lösung dieses Problems hat Javaan Chahl, Professor für Sensorsysteme an der University of South Australia, einen neuen Kameratypus entwickelt, der die wichtigsten Vitalfunktionen von Tieren präzise messen kann – und zwar auch aus der Entfernung. Das Projekt ist zwar derzeit nur als Prototyp im Einsatz, hat sich jedoch bereits in einer Testumgebung bewährt.
Ursprünglich entwickelte Chahl die Idee als ein Mittel zur Messung der Gesundheit menschlicher Patient*innen. Ihm wurde jedoch schnell klar, dass die Technologie hier nur von begrenztem Nutzen sein würde, da es für die meisten Menschen kein Problem darstellt, wenn ihre Vitalparameter gemessen werden – für Tiere tut es das hingegen oft. Im Austausch mit Menschen, die sich im Artenschutz und mit der Tierpflege beschäftigen, erfuhr er, dass eine solche Technologie eine große Bereicherung für deren Arbeit wäre und ihnen erlauben würde, auf gefährlichere Methoden zu verzichten.
Chahl und sein Team bauten also ein spezielles Aufnahmeinstrument, das aus einer hochauflösenden digitalen Videokamera, einem Teleobjektiv und einem in der Computersoftware MATLAB geschriebenen Signalverarbeitungsprogramm bestand. Diese Software ist in der Lage, die Bewegungen der Tiere genau zu analysieren, wie z.B. die Ausdehnung des Brustkorbs und kleinere, manchmal winzige rhythmische Bewegungen, um die Vitalfunktionen wie Herzfrequenz und Atmung zu schätzen.
Im Dezember 2019 testete das Team seine besondere Kamera im Zoo von Adelaide, Australien, an zehn verschiedenen Tierarten, darunter Löwen, Pandas, Sumatra-Tiger, Orang-Utans, Koalas, Paviane und Pinguine. Die Ergebnisse der Pilot-Studie zeigten, dass die Kamera tatsächlich zuverlässige Aussagen und Analysen über die Gesundheit der Tiere machen konnte, wobei der Erfolg noch größer war, als Chahl ursprünglich gehofft hatte. Gegenüber dem Scientific American sagte Chahl: „Wir haben eine ganze Reihe von Tieren untersucht. Ich dachte, bei Orang-Utans könnte es problematisch werden, einfach weil sie so behaart sind, aber wir haben ein Signal bekommen.“
Dadurch, dass das System lichtbasiert ist, kann es durch die Verwendung verschiedener Linsen leicht an verschiedene Maßstäbe angepasst werden. So kann ein Tier aus einer Entfernung von etwa drei Metern bis hin zu 40 Metern betrachtet werden. Die Computersoftware ist auch in der Lage, große Mengen von „Geräuschen“ aus den Bewegungen eines Tieres zu entfernen, um sich auf die Bewegungen zu konzentrieren, die gemessen werden sollen.
Die Technologie hat jedoch einige Limitierungen. Erstens muss das zu überwachende Tier idealerweise ruhig stehen – oder darf zumindest nicht rennen – und es sollte in einem optimalen Winkel, z.B. von oben oder von der Seite, betrachtet werden. „Stellen Sie sich ein wirklich schlechtes Selfie-Foto vor, das alle Ihre Makel hervorhebt. Genau dann funktioniert die Technik am besten“, wie Chahl erklärte.
Zweitens können zwar fast alle Tiere mit dem System untersucht werden, Schildkröten stellen aber eine erwähnenswerte Ausnahme dar, da ihre Panzer den zu messenden Bereich verdecken. Außerdem erfordert das System aktuell auch einen menschlichen Operator und eignet sich daher derzeit nur für die Untersuchung von einzelnen oder kleinen Gruppen von Tieren. Dies bedeutet, dass der Prozess noch recht zeitaufwendig ist und ein hohes Maß an Fachwissen erfordert, um vollständig zu funktionieren.
Trotzdem wird das System als ein Schritt in die richtige Richtung gegenüber früheren Methoden der Fernerkundung angesehen. So setzten Tierschützer*innen bisher oft Wärmebildtechnologie ein, um den Gesundheitszustand eines Tieres zu beurteilen. Damit diese gut funktioniert, ist jedoch die Nähe zum Tier notwendig und oft ist das resultierende Bild von schlechter Qualität. Da das System von Chahl lichtbasiert und hochauflösend funktioniert, hat es keine dieser Einschränkungen.
Der nächste Schritt für das Projekt ist die Durchführung von Versuchen in der freien Natur und unter Feldbedingungen. Chahl geht auch davon aus, dass es möglicherweise doch Anwendungsbereiche für die Kamera gibt, die den Menschen betreffen. Gegenüber Scientific American schlug er vor, dass die Technologie zur Durchführung von Massenuntersuchungen an Orten wie Flughäfen eingesetzt werden könnte, was angesichts der aktuellen Weltgesundheitssituation ein interessanter Vorschlag sein könnte. Darüber hinaus könnte sie möglicherweise als Gesundheits- oder Fitnessmonitor in Krankenhäusern, Pflegeheimen, Turnhallen und Privatkliniken eingesetzt werden.
Modernste Kameratechnologie wird auch in anderen Projekten für den Natur- und Artenschutz nutzbringend eingesetzt. So haben wir bei RESET bereits über ein Projekt aus der Dominikanischen Republik berichtet, das Luftbildaufnahmen zur Erhaltung von Korallenriffen nutzt. Und das Open-Data-Projekt Zamba wertet Videoclips von Kamerafallen mithilfe von Machine Learning aus, um die relevanten Daten zum Schutz gefährdeter Tierarten erkennen zu können.
Dieser Artikel ist eine Übersetzung von Lydia Skrabania. Das Original erschien zuerst auf unserer englischen Website.