Jedes Jahr verarbeitet Google sage und schreibe fünf Billionen Suchanfragen. Diese gewaltige Zahl – eine 5 mit 15 Nullen – ist ein klarer Indikator für das Monopol, das Google auf dem Markt der Suchmaschinen hat. Ganz zu schweigen von den ökologischen und sozialen Problemen, die mit den Suchmaschinen der Big-Tech-Unternehmen verbunden sind. Was wäre also nötig, um einen freien, unvoreingenommenen Zugang zur Suche im Internet zu entwickeln?
Darüber haben wir mit Professor Michael Granitzer gesprochen. Er hält den Lehrstuhl für Data Science an der Universität Passau und erklärte uns im Interview seine Erkentnisse zur Entwicklung von Suchmaschinen. Zusammen mit der Open Search Foundation leitet Granitzer zudem das von der EU finanzierte Projekt „OpenWebSearch„, das einen neuen europäischen Suchindex entwickelt. Stand Januar 2026 sind darin bereits 2,7 Milliarden URLs indexiert. Aber wie funktioniert das und warum kann ein Open-Source-Index die Websuche der Zukunft verbessern?
RESET: Welche Gefahren birgt ein Monopol im Bereich der Suchmaschinen? Und warum ist die digitale Souveränität Europas im Hinblick auf die Suche wichtig?
Michael Granitzer: Ich glaube, niemand in Europa würde akzeptieren, dass es nur eine oder zwei Zeitungen gibt, aus denen man seine täglichen Informationen bezieht. Aber genau das ist die Situation, wenn es um die Internetsuche geht. Wir konsumieren viele Informationen aus dem Internet, und einer der wichtigsten Zugangspunkte ist die Websuche. Natürlich sind soziale Medien ein weiterer Zugangspunkt, der immer wichtiger wird, aber die Websuche ist nach wie vor vorhanden. Und sie wird von einigen wenigen Gatekeepern kontrolliert.
Ich glaube nicht, dass es ein Risiko darstellt, dass es sich hierbei nicht um europäische Gatekeeper handelt oder dass es sich dabei um große Tech-Unternehmen handelt. Das zentrale Problem ist das Monopol: Nur wenige Unternehmen kontrollieren die Suchlandschaft. Wir müssen uns fragen, was im Extremfall passieren würde, wenn sie einfach ihre Dienste einstellen. Es wäre unmöglich, Informationen zu finden, da wir keine Suchmaschine mehr hätten.
Wie erstellt ihr den European Open Web Index und was möchtet ihr damit erreichen?
Unsere Mission ist es, die Isolation einzelner Suchmaschinen aufzubrechen. Dazu durchsuchen wir das Internet, sammeln Webseiten und bereiten sie für die Nutzung durch Suchmaschinen vor. Hierfür entfernen wir Werbung und Navigationslinks und extrahieren den Hauptinhalt. Dieser Index kann von Einzelpersonen oder Organisationen genutzt werden, um eigene Suchmaschinen zu entwickeln.
Ein Szenario wäre etwa die Unterstützung von Unternehmen, die Suchvorgänge in ihren eigenen Datensätzen durchführen. Möglicherweise möchten sie diese Suche um Webdaten ergänzen, die unser Index bereitstellen könnte. Unser Partner, das Deutsche Zentrum für Luft- und Raumfahrt, tut das etwa für wissenschaftliche Forschungszwecke. Das Team verfügt über interne wissenschaftliche Ressourcen zu Geodaten und ergänzt diese Daten mit unserem Webindex. Dadurch entsteht eine spezielle Suchmaschine für ihren Anwendungsfall.
Ist der Index für alle vollständig zugänglich? Wäre ein weiterer Anwendungsfall auch, dass ich als Einzelperson eine Suchmaschine erstellen möchte? Und wenn ja, wie kann ich darauf zugreifen?
Ja, man findet unsere Datensätze unter openwebindex.eu. Wir hoffen außerdem, in den nächsten Monaten eine Suchmaschine für Forscher:innen einführen zu können, mit der diese alle unsere Daten durchsuchen können.
Und wie lange dauert diese Indizierung?
Wir indexieren rund um die Uhr. Derzeit verfügen wir über etwa 25 bis 30 Maschinen, die täglich rund 100 Millionen URLs crawlen.
Könnte euer Suchindex in Bezug auf den Umfang mit Brave oder Google mithalten?
Um mit dem, was es da draußen gibt, mithalten zu können, müssten wir unsere Anstrengungen um das 20- bis 30-Fache steigern. Wir könnten das schaffen, aber es ist eine Frage der Ressourcen und Kosten. Wir müssten Leute einstellen, um den Dienst aufrechtzuerhalten, und wir müssten mehr Speicherplatz kaufen.
Wir wollen all diese Daten gemeinschaftlich verfügbar machen, ähnlich wie bei Wikipedia. Wenn wir dieses Projekt als Gemeinschaft vorantreiben können, könnten wir diese Unterstützung nutzen, um gemeinsam zu wachsen.
Mit welchen Rechenzentren arbeitet ihr zusammen?
Wir haben unseren Sitz in Passau und arbeiten mit europäischen HPC-Rechenzentren zusammen, wie dem Leibniz-Rechenzentrum in München (nur 200 Kilometer von hier entfernt), dem IT4Innovations Czech EuroHPC JU Center, dem CSC EuroHPC JU Center in Finnland und dem CERN in der Schweiz. Wir sind also ein akademisches Projekt mit einem Netzwerk von Supercomputing-Zentren, die sich auf Hochleistungsrechnen und KI konzentrieren. Wir sind jedoch offen für die Zusammenarbeit mit kommerziellen Rechenzentren und allen, die sich unserer Mission anschließen möchten.
Wenn du eine derzeit verfügbare Suchmaschine empfehlen müsstest, welche wäre das?
Ich halte es für einen schlechten Rat, nur eine einzige Suchmaschine zu empfehlen. Stattdessen würde ich dazu raten, aktuelle Gewohnheiten kritisch zu überprüfen, um zu sehen, ob etwas anderes besser passen könnte. Ich persönlich nutze Qwant für bestimmte Aufgaben, DuckDuckGo für andere und manchmal auch Ecosia.
Wenn Menschen neue Suchmaschinen ausprobieren, entdecken sie möglicherweise Teile des Internets, die für sie besonders interessant sein könnten. Deshalb empfehle ich nicht nur eine einzige Suchmaschine. Nutzer:innen sollten nach anderen Suchmaschinen schauen und aktiv nach neuen, aktuellen Informationen suchen.
Ratgeber für datenschutzorientierte, klimafreundliche Suchmaschinen
Suchst du nach einem Überblick über aktuelle Suchmaschinen? Hier geht’s zu unserem Ratgeber: Wie man im Zeitalter der KI die richtige Suchmaschine findet.
Wie stehst du dazu, dass Suchmaschinen um KI-Übersichten erweitert werden?
Nun, ich denke, es ist hilfreich. KI ist ein Werkzeug. Man muss sich nur bewusst sein, dass KI-Tools falsch liegen können, sodass man immer gegenprüfen und doppelt überprüfen muss, ob etwas wirklich korrekt ist. Aber das unterscheidet sich nicht so sehr vom Lesen eines Blogartikels, der von einem Nicht-Experten geschrieben wurde. Ich glaube, die Leute vergessen oft, dass man im Internet auf so viele schlechte Inhalte stoßen kann, denen die Menschen automatisch glauben. KI kann also als Teil der Recherche hilfreich sein, aber man sollte Antworten nicht als gegeben hinnehmen. So wie man das auch bei allem, was es sonst im Internet gibt, nicht tun sollte. Gleichzeitig sollte man aufpassen, dass man die eigenen Recherchekompetenzen nicht verliert, wenn man sich zu sehr auf KI verlässt!
Was wünschst du dir, was mehr Menschen über Suchmaschinen wissen sollten? Gibt es weit verbreitete Missverständnisse, die du richtigstellen möchtest?
Das ist schwierig. Das vielleicht größte Missverständnis ist, dass man ohne Google keine Informationen finden kann. Und das zweite wäre, dass diese Dienste kostenlos sind. Suchmaschinen kosten viel Geld in Betrieb und Wartung. Als Suchender ist man selbst das Produkt. Das ist der wichtigste Punkt, den die Menschen verstehen müssen. Wir zahlen so viel an Werbesteuern, und Google hat ein Werbemonopol. Das ist das große Missverständnis, das die Menschen verstehen müssen: dass sie einen hohen Preis dafür zahlen, dass sie keine alternativen Suchmaschinen nutzen.
Wie geht das Team des European Open Web Index auf die Umweltauswirkungen der Suche ein?
Wenn man sich ansieht, was derzeit in der Big-Tech-Branche geschieht, hat man dort jegliche Agenda zur Erreichung der CO2-Neutralität komplett aufgegeben. Wir müssen uns fragen, was wirklich notwendig ist. Ist eine KI-basierte Suche wirklich notwendig? Warum bauen wir Tausende von Rechenzentren?
Indem wir die Suche zu einem öffentlichen Gut machen, könnten wir das digitale Ökosystem in eine nachhaltigere Richtung lenken. Nachhaltig im Sinne von Energie und grüner Technologie, aber auch im sozialen Sinne. Wir haben gesehen, was passiert ist, als Grok AI gefälschte sexistische Bilder generiert und auf X gepostet hat. Wir brauchen Alternativen zu den großen Technologieunternehmen, die einen ethischen, moralischen und humanistischen Ansatz verfolgen. Deshalb bauen wir den European Open Web Index auf.
Wie sieht eine grüne digitale Zukunft aus?
Elektroschrott, CO2-Emissionen durch KI, Wasserverbrauch von Rechenzentren – aktuell scheint die ungezügelte Digitalisierung nicht mit einem gesunden Planeten vereinbar. Doch es gibt viele Lösungen für eine ökologische und faire Digitalisierung – wir haben sie recherchiert:
Wie sieht deine Vision für die Zukunft der Suche aus?
Wir müssen uns die Gesellschaft der Zukunft so vorstellen, dass es Menschen und Modelle gibt: KI-Modelle, die von Menschen bedient werden. Im Idealfall läuft das KI-Modell auf meinem Rechner und kontrolliert meine Daten. Es ist ein Werkzeug, das mir hilft, für mich Suchanfragen durchführt und versteht, was ich tun möchte. Ich spreche hier eher von kleinen Sprachmodellen als von großen Sprachmodellen. Ein Modell, das mir hilft, Informationen auf der Grundlage von Suchendpunkten, die ich auswähle, zu suchen, zu aggregieren und zu synthetisieren.
Um noch einmal auf das Beispiel der Zeitung zurückzukommen: Ich kann eine Reihe von Zeitungen auswählen, aus denen ich meine Informationen beziehe. Aber die Zeitung wird immer noch von einem Menschen geschrieben. Dezentralisiert, mit sehr unterschiedlichen Akteuren, von denen jeder seine Spezialität in die Erstellung von Inhalten einbringt. Und ich habe meinen persönlichen Agenten, der mir dabei hilft, all dies zu sammeln und zu analysieren. Das wäre für mich ideal.
Michael, vielen Dank für das Interview!

Dieser Artikel ist Teil des Dossiers „Digital und grün – Lösungen für eine nachhaltige Digitalisierung“, in dessen Rahmen wir Lösungen für eine ökologische und faire Digitalisierung vorstellen. Wir danken der Deutschen Bundesstiftung Umwelt (DBU) für die Projektförderung!
Du willst keinen Artikel zum Thema verpassen? Dann abonniere unseren Newsletter oder RSS-Feed und folge uns auf Mastodon, Bluesky oder LinkedIn!


