Der Krieg in der Ukraine beschäftigt uns alle. Viele Menschen versuchen, auch aus der Ferne der ukrainischen Bevölkerung zu helfen. An vorderster Front mischen jedoch die unzähligen humanitären Organisationen mit, um die bedrohte Zivilbevölkerung bestmöglich zu unterstützen. Leider werden aber gerade diese Organisationen in Kriegen und Konflikten auch häufig selbst zur Zielscheibe für technologische Angriffe – durch Viren, Spionage-Software oder Desinformationen und sogenannte „Bot Farms“, also ganzen Massen an falschen Accounts, die irreführende Informationen verbreiten.
Humanitären Organisationen fehlen jedoch oft die Mittel und die Kenntnisse, sich digital zu schützen. Das wird schnell zum Problem, insbesondere angesichts immer „virtueller“ werdender Kriege und neuer Technologien, die die moderne Kriegsführung grundlegend verändern. Aber welche Werkzeuge und Technologien stehen den humanitären Organisationen zur Verfügung, um sich gegen digitalen Angriffe und Bedrohungen zu wappnen?
Künstliche Intelligenz – Chance oder neue Herausforderung in der humanitären Hilfe?
Künstliche Intelligenz (KI) kann humanitäre Organisationen dabei unterstützen, Informationen zu sammeln und in großen, vielschichtigen Datensätzen Muster zu erkennen, die uns Menschen ohne die intelligenten Algorithmen kaum zugänglich wären. Das ermöglicht es, bestimmte Tendenzen und Trends vorherzusagen und zu analysieren, sodass sich die Organisationen besser vorbereiten können. Zudem können mit KI viele Prozesse digital automatisiert werden – dadurch behalten die Organisationen Ressourcen besser im Blick und zusätzlich kann die Effizienz ihrer Arbeit gesteigert werden.
Es gibt bereits einige Projekte, in denen KI im Non-Profit und humanitären Bereich angewandt wird, viele davon sind aber noch in der Entwicklungsphase. Im „Project Jetson“ der UN-Flüchtlingskommission (UNHCR) zum Beispiel werden mithilfe von maschinellem Lernen Vorhersagen zu den Routen heimatvertriebener Menschen erstellt. Save the Children verfügt über ein ähnliches Programm, das auf der Basis verschiedener Datensätze vorhersagt, in welchem Zeitraum und in welchem Ausmaß es zur Flucht- und Verdrängungsbewegungen durch Konflikte kommt. Und das World Food Programm (WFP) tritt über einen Chatbot und ähnliche mobile Technologien in den direkten Austausch mit Menschen, die von Krisen und Konflikt betroffen sind. Im virtuellen Dialog soll herausgefunden werden, in welchen Regionen der Bedarf an Nahrung hoch ist und vor allem, ob die Nahrungsversorgung auch zukünftig gesichert ist.
Doch wie bei jeder anderen Technologie müssen auch hier die Risiken und Herausforderungen bedacht werden. KI-Systeme werden mit Daten „gefüttert“, um Vorhersagen zu treffen oder Prognosen zu erstellen. Handelt es sich hier um einseitige Daten, kann der Output der KI voreingenommen, ja sogar diskriminierend sein, wie es häufig an Sprachsteuerungssoftwares und intelligenten ‚Home Assisstants‘ kritisiert wird. Und wie immer, wenn es um Daten geht, müssen auch bei Technologien, die humanitäre Hilfe vereinfachen sollen, Datensicherheit und Privatsphäre sehr genau überprüft werden. Sicherheitslücken können in Kontexten von Kriegen und Konflikten die Gefahrenlage für humanitären Organisationen noch verschärfen.
Medienkompetenz als wichtigste Waffe gegen Desinformation
Algorithmen, die Medien manipulieren und gezielt Desinformationen veröffentlichen, verbreiten sich immer weiter und werden immer ausgeklügelter. Es ist bereits die Rede von einer „Informationskrise“. Sogenannte ‚Deepfakes‘ sind nur ein Beispiel dafür, wie leicht es bereits ist, falsche Informationen als unbestreitbar authentisch darzustellen. In den vergangenen Tagen kursierten bereits Videos im Internet, die nahezu täuschend ähnlich den ukrainischen Präsidenten Selenskyi zeigten, wie er in einer Ansprache die Kapitulation der Ukraine verkündete. Ähnlich fingierte Videos tauchten auch schon über den russischen Präsidenten auf.
Gezielte Desinformationskampagnen können die Wahrnehmung humanitärer Hilfeleistungsorganisationen in der Bevölkerung, aber auch international, beeinflussen. Das kann das notwendige Vertrauen zwischen den Menschen vor Ort und der Organisation zerstören oder den Zugang zu den Menschen, die wirklich Hilfe in Krisensituationen benötigen, erschweren. Auch falsche oder irreführende Informationen darüber, wo es Hilfe und Unterstützung gibt, sind gefährlich und können dazu führen, dass Situationen falsch eingeschätzt werden.
Deshalb ist es wichtig, dass sich humanitäre Akteure auf fundierte Informationen verlassen und selbst transparent und öffentlich kommunizieren. Das Massachussets Institute of Technology (MIT) bietet jetzt einen ersten Kurs zu Medienkompetenz an, um die Aufklärung über Falschinformationen auf vielen verschiedenen Ebenen anzugehen – von öffentlicher Gesetzgebung bis zu technologischen Innovationen.
Unverzichtbar: Strategien für humanitäre Cyber-Sicherheit
Angriffe auf Online-Daten und -Informationen scheinen auch in der Ukraine zurzeit wieder eine alltägliche Bedrohung zu sein. Digitale Überwachungstechnik ist mittlerweile ein erstaunlich einfacher und kostengünstiger Weg, allgemeine Informationen – wie zum Beispiel Ortungsdaten – abzugreifen. Fortgeschrittene Technik ermöglicht es zudem, ohne viel Aufwand an empfindlichere Informationen zu kommen.
Internationale humanitäre Organisationen und NGOs werden zunehmend zum Opfer solcher Cyber-Angriffe. Einerseits sind ihre Sicherheitsnetze häufig nicht ausreichend ausgebaut, wodurch sie einfache Ziele abgeben. Genauso können die Angriffe aber auch politischen Zwecken dienen, wie im Jahr 2020 ein vermutlich durch Russland gestützter Hackerangriff auf die amerikanische humanitäre Organisation USAID. Was genau das Ziel der Hacker war, bleibt unklar, aber fest steht, dass auf diesem Weg sensible, geschützte Daten eingesehen, verändert oder sogar komplett zerstört werden können.
Um weiterhin effektiv Menschen in Krisensituationen zur Seite stehen zu können, müssen sich humanitäre Organisationen gegen diese Angriffe wappnen. Ein erster Schritt könnte sein, eine Strategie für humanitäre Cyber-Sicherheit zu entwickeln. Häufig fehlt es den Organisationen aber an der dafür nötigen finanziellen Unterstützung. Die Plattform des Cyber Peace Institute mit Sitz in der Schweiz arbeitet zurzeit an einem Cyber Incident Tracer, der es ermöglichen soll, digitale Angriffe und deren Auswirkungen auf humanitäre Organisationen zu überwachen. Aus diesen Daten können dann wieder Informationen für mögliche zukünftige Angriffe – und wie diesen begegnet werden kann – gezogen werden. Das Team von Tactical Tech berät darüber hinaus Menschenrechtsorganisationen in einem holistischen Ansatz dazu, wie sie ihr Wohlergehen in Einsätzen schützen können. Dazu zählt auch digitale Sicherheit und der Schutz von Informationen.
Cyber-Sicherheit braucht eine gezielte Förderung
Es wird sich zeigen, wie effektiv solche Initiativen im anhaltenden Ukraine-Krieg sind. Währenddessen sollte aber weiter oberstes Gebot sein, unschuldige und unbeteiligte Zivilist*innen in diesem Krieg zu schützen und damit auch die humanitären Organisationen, die sich zum Teil unter Einsatz des eigenen Lebens für sie einsetzen. Was also tun gegen Cyber-Angriffe und Desinformation? Zunächst benötigen humanitäre Organisationen, von denen der überwiegende Teil non-profit arbeitet, mehr finanzielle Unterstützung. Darüber hinaus müssen humanitär-tätige Personen gezielt im Umgang mit Cyber-Sicherheit geschult werden, um zu verstehen, welche Gefahren bestehen und wie diesen begegnet werden kann.
Letztlich kann auch der Tech-Sektor selbst tätig werden. Unternehmen, die sich zum Beispiel auf Cloud-basierte Innovationen fokussieren, können für den humanitären Sektor spezialisierte Produkte anbieten. Erste Vorstöße in diesem Bereich gibt es bereits; Microsoft bietet beispielsweise den AccountGuard für Non-Profits an. Cloudfare stellt mit dem Project ‚Galileo‘ kostenfrei Cybersicherheitsdienste für Organisationen, die sich unter anderem für Menschenrechte einsetzen, zur Verfügung.