Stereotype von

Suchmaschinen fördern
rassistische Vorurteile

Der Algorithmus hinter der Google-Suche soll Minderheiten diskriminieren

Stereotype - Suchmaschinen fördern
rassistische Vorurteile © Bild: Ralph Orlowksi/Getty Images

Google ist längst zur wichtigsten Anlaufstelle für Informationen aller Art geworden. Doch liefert uns die Suchmaschine auch eine objektive und faire Darstellung der Welt? Durch die Auswahl der Ergebnisse und durch ihre eigenen Vorschläge bestärke sie Vorurteile, sagt ein neues Buch.

Google, das stellen sich viele Menschen wie eine gigantische Bibliothek vor, in der die Inhalte des Internets gelagert sind. Bei Bedarf wird einem jener Teil des Netzes zur Verfügung gestellt, nach dem man gerade sucht. Einer Bibliothek vertraut man, selbst wenn die Qualität der Bücher mal besser und mal schlechter sein sollte. Und ebenso vertraut man Google, selbst wenn sich in den Ergebnissen auch falsche Informationen, bedenkliche oder sogar illegale Seiten finden. Weil die Suchmaschine selbst nichts dafür könne, sondern das Internet eben so abbilde, wie es aussehe, heißt es.

"Latina Mädchen" gibt es nur in Pornos

Genau diese Vorstellung bekämpft nun die amerikanische Forscherin Safiya Umoja Noble. Die Professorin für Kommunikation an der University of Southern California räumt in ihrem neuen Buch "Algorithmen der Unterdrückung: Wie Suchmaschinen Rassismus verstärken" mit der Idee auf, Google würde das Internet oder gar die Welt in neutraler, fairer Art und Weise abbilden. Vor allem die finanziellen Interessen des Konzerns, der sein Geld großteils mit Werbung verdient, würden die Suchergebnisse massiv beeinflussen und so unsere Sicht der Dinge verzerren. Und bestimmte Gruppen von Menschen, insbesondere Minderheiten, werden von Google deshalb seit langem falsch oder einfach gar nicht dargestellt, so Noble.

© 2018 Getty Images Safiya Umoja Noble (rechts) bei einer Diskussion

Der Algorithmus der Suchmaschine repräsentiere vorrangig einen männlichen und westlichen Blick auf die Welt, sagte die Wissenschafterin in einem Interview mit der Nachrichtenseite Vox. Dafür hat sie über die Jahre zahlreiche Beispiele gesammelt. Suchte man vor einigen Jahren mit Google nach "schwarze Mädchen", "asiatische Mädchen" oder "Latina Mädchen", kamen auf der ersten Seite der Suchergebnisse vor allem pornographische Treffer. Damit würden diese Frauen zu "sexualisierten Objekten" reduziert. Mittlerweile unterdrücke Google viel Pornographie, aber ausgewogener geworden seien die Ergebnisse nur für "schwarze Mädchen".

Google allein entscheidet, was wichtig ist

Herauszuarbeiten, wie genau es zu solchen Ergebnissen kommt, ist für Forscher außerhalb von Google so gut wie unmöglich. Die Software ist nämlich nicht frei zugänglich. Noble erinnert aber daran, dass ein Algorithmus nichts anderes als ein "automatisierter Entscheidungsbaum" sei. Welche Inhalte Google für wichtig hält und welche für weniger wichtig, liege letztlich allein im Ermessen des Unternehmens. Sie vermutet, dass der Kauf von Anzeigen durch Firmen dabei eine große Rolle spielt. Gesellschaftliche Konsequenzen wären Google hingegen egal. Ein weiteres Beispiel, dass Noble erwähnt: Die Suche nach dem Wort "schön" ergebe fast nur Bilder von leicht bekleideten, ausschließlich weißen Frauen.

Noch ein Stück weiter als in den Suchergebnissen geht der Einfluss Googles auf unser Denken bei den "Suchvorschlägen": Mithilfe der sogenannten Autovervollständigung schlägt die Seite noch während des Tippens Suchbegriffe vor, die ihrer Meinung nach für uns interessant wären. Stärker als bei der Ergebnisauswahl können Menschen so auf Dinge gestoßen werden, an die sie selbst gar nicht gedacht hätten. Die sich die Suchvorschläge aber danach richten, was andere bisher gesucht haben, bevorzuge diese Funktion aber zugleich die Sicht der Mehrheit, etwa auf Minderheiten, sagt Noble. Auf dem Cover ihres Buches werden die Vorschläge für eine Suche nach "Warum sind schwarze Frauen so" anzeigt: Wütend, laut, gemein, attraktiv und faul.

Und was schlägt Google in Österreich vor?

Wir haben uns anhand ähnlicher Eingaben angesehen, wie es mit den Google-Vorschlägen in Österreich aussieht. Werden auch hierzulande bzw. bei deutschsprachigen Suchanfragen minderheitenfeindliche Vorurteile bedient? Zum Teil definitiv ja. Will man etwa näheres über Frauen wissen, schlägt Google unter anderem vor, dass sie "kompliziert", "falsch", "nicht witzig" oder "anstrengend" seien:

© Screenshot/Google

Auch bei Muslimen dominieren anscheinend negative Assoziationen, etwa "streng", "verschleiert", "gläubig" und "empfindlich":

© Screenshot/Google

Ausgewogener sind die Suchanfragen zu Schwarzen, denen durchaus positive Eigenschaften wie "groß", "muskulös", "schnell" und "sportlich" zugeschrieben werden:

© Screenshot/Google

Bunt gemischt, aber ebenfalls eher vorurteilsbehaftet, sind die Fragen, die sich Österreicher in Zusammenhang mit Asiaten stellen. Laut Google könnte uns interessieren, warum sie "klein", "schlank", "süß", "schlau" und "schüchtern" sind:

© Screenshot/Google

Auf Kritik reagiert hat Google offenbar bezüglich der Autovervollständigung zum Suchbegriff "Juden". Hier wurden sämtliche Vorschläge entfernt, wohl weil sie vorurteilsbehaftet oder antisemitsch waren:

© Screenshot/Google

Kommentare