"Facebook ist eine
Drama- Maschine"

Warum Facebook uns von anderen abschottet und warum die Spaltung der Gesellschaft trotzdem noch zu verhindern ist

Filterblasen, Hass und Fake News - das Internet verlor heuer seine Unschuld. Für die Autorin und Social-Media-Expertin Ingrid Brodnig liegt darin aber auch eine Chance.

von Digitalisierung - "Facebook ist eine
Drama- Maschine" © Bild: Ricardo Herrgott News

Donald Trump liegt selten richtig, doch nach der Wahl zum US-Präsidenten sagte er: "Ich verdanke meinen Sieg den sozialen Medien, denn sie sind mächtiger als Werbegelder." Ist das der eine Satz eines blinden Huhns, das auch einmal ein Korn findet?

Da ist schon was dran. Gerade Kandidaten, die von der Wut der Wähler leben, profitieren von den sozialen Medien. Durch emotionalisierende Meinungen und Postings ernten sie die Zustimmung der Gleichdenkenden und den Zorn der anderen - beides belohnt etwa der Algorithmus von Facebook mit erhöhter Reichweite. Das wiederum greifen klassische Medien auf.

Also benutzen Social Media, das vermeintliche Werkzeug der Demokratie im Informationszeitalter, plötzlich uns - und nicht andersherum?

Ich kann mit einem Hammer auf einen Nagel hauen, aber eben auch auf meinen Daumen - und wir erleben derzeit häufig Letzteres. Die Begeisterung darüber, mit Schulfreunden von früher in Kontakt zu bleiben und das ganze Wissen der Welt auf einen Klick zu finden, ist verflogen. Jetzt merken wir, dass das Bild des Internets, in dem jeder eine Stimme hat, die von jedem gleichermaßen gehört werden kann, oft nicht stimmt. Wir müssen schnell lernen, auch im Netz zu differenzieren.

Zu unterscheiden wird gleichzeitig aber immer schwerer. Auf Facebook sehen User in ihrer Filterblase nur, was ihnen gefällt, durch "Instant Articles" sehen alle Nachrichtenquellen gleich aus, egal ob seriös oder nicht -und trotzdem sagt Facebook-Chef Mark Zuckerberg, dass "Fake News" keinen Einfluss auf Wahlen hätten.

Um das zu widerlegen, müsste sich Zuckerberg nur einmal mit all jenen Amerikanern unterhalten, die an "Pizzagate" glauben, eine erfundene Verschwörung, laut der Hillary Clinton einen Kinderpornoring im Keller einer Pizzeria betreibt. Ein Anhänger dieser Theorie stürmte die besagte Pizzeria mit einem Sturmgewehr. Trotzdem glaube ich Zuckerberg, dass er lieber keine Falschmeldungen auf Facebook hätte, nur sein System ist dafür falsch ausgerichtet. Der Algorithmus hinter Facebook ist auf Emotionen ausgelegt, egal, ob ich etwas mag oder es mich wütend macht. Facebook ist eine Drama-Maschine - und Falschmeldungen liefern Drama. Das führt wiederum dazu, dass Nutzer mehr Zeit auf der Seite verbringen.

Vertreter klassischer Medien scheinen sich über die Debatte zu freuen und sehen sich in der Kritik an Facebook bestätigt. Doch trifft sie nicht eine Mitschuld, weil sie das Internet sich selbst überlassen haben und ihr Angebot in den sozialen Netzen einfach nicht mehr wahrnehmbar ist?

Die Analyse manch klassischer Medien ist zu einfach: Donald Trump ist nicht US-Präsident, weil er auf Facebook und Twitter polarisiert, sondern auch, weil herkömmliche Medien über alles berichten, was er dort postet. Frei nach dem Motto: Trump ist schlecht für die Demokratie, aber gut für die Quote. Außerdem dürfen wir nicht vergessen, dass viele wertvolle journalistische Aufgaben, die in der "analogen Welt" von klassischen Journalisten erledigt werden, im Netz neuen Medien und eben Menschen, die keine Journalisten sind, überlassen wurden. Das erste Video, in dem die rhetorischen Tricks von Norbert Hofer erklärt wurden, stammt von einem Blogger, keinem Medienhaus. Hier zeigt sich einerseits die publizistische Demokratisierung durch das Internet, andererseits aber auch das Vakuum, weil klassische Medien dieses Feld nicht besetzen.

Müssen Medien gemeinsame Sache mit Facebook & Co. machen?

Werden wir als Medien also künftig gemeinsame Sache mit Facebook, Google und Co. machen müssen, um unsere Relevanz zu bewahren?

Wir dürfen uns nicht nur fragen, was Facebook verbessern kann, sondern auch, was Redaktionen besser machen können. "Die Zeit" hat einen Blog gestartet, der erklärt, warum die Redaktion ein Thema aufgreift -und warum nicht. Das ist ein wichtiger Schritt: Wir müssen besser erklären, wie Nachrichten und Medien funktionieren - genau wie Facebook transparent erklären sollte, wie die Logik der Seite aufgebaut ist und welche Quellen vertrauenswürdig sind.

Aus unseren Echokammern und Filterblasen, also den abgeschotteten Welten, in denen nur eine - nämlich die eigene - Meinung immer und immer wieder bestätigt wird, holt uns das aber noch nicht heraus.

Zuerst ist es wichtig, dieses Phänomen zu verstehen: Die Echokammern sind kein neuer Effekt und auch nicht zwangsläufig negativ. Ich umgebe mich mit Dingen und Menschen, die mich interessieren, das nennt man "selektive Wahrnehmung". Auf Facebook wird das jedoch zu einem effektiven Mittel der Abschottung, denn hier kann ich mich noch selektiver informieren. Hinzu kommen die Filterblasen und damit die Sorge, dass Algorithmen unseren Blick auf die Welt einengen.

Die Rufe nach einer Regulierung oder gar einer Zerschlagung von Facebook wurden deshalb zuletzt lauter.

Das ist natürlich völlig übertrieben. Ein sanfter Schritt, der aber vom Staat gefördert werden kann und muss, sind Transparenzvorschriften für Algorithmen. Facebook behauptet, seine Timeline würde aus über 800 Faktoren bestimmt. Wir müssen jetzt nicht einmal in den geheimen Code des Unternehmens schauen, aber zumindest sollten wir wissen dürfen, welche Faktoren das sind. Da geht es um Transparenz und Verbraucherschutz, wir müssen mehr über die Inhaltsstoffe erfahren, nicht die geheime Rezeptur.

Transparenz bringt Menschen aber nicht bei, worauf sie in den Netzwerken achten müssen.

Weshalb wir dringend in den Schulen aktiv werden müssen. Jedes Kind muss wissen, wie eine Suchmaschine funktioniert, wie man Nachrichten überprüfen kann und wie man mit Hasspostings und Mobbing umgeht. Kinder können wir aber noch darauf vorbereiten. Sorgen machen mir die Erwachsenen, die wir nicht einfach in eine "Nachschulung" schicken können.

Am Horizont ist schon heute ein neuer Trend erkennbar, der die Meinungsbildung prägen und auch den Hass im Netz erneut anfachen könnte: Social Bots, also Maschinen, die im Netz Propaganda verbreiten.

Schon jetzt im US-Wahlkampf gab es Abertausende Bots, die Accounts auf Twitter und Facebook betrieben. Eine Studie der Oxford University fand heraus, dass siebenmal so viele Maschinen für Donald Trump aktiv waren wie für Hillary Clinton. Meine Sorge sind andere, sagen wir "moralisch flexible Politiker", die jetzt auf diesen Zug aufspringen wollen, zum Beispiel die deutsche AfD, die bereits laut darüber nachdenkt. Das Problem dabei ist, dass eine Partei nicht offenlegen muss, welche meinungsfördernden Maßnahmen sie im Netz ergreift. Im schlimmsten Fall führt das dazu, dass Roboter-Accounts genutzt werden, um ein verzerrtes Bild der Öffentlichkeit darzustellen. Wird Donald Trump 20.000-mal retweetet, aber zwei Drittel davon sind Roboter, reagieren Medien und Wähler auf ein vermeintlich wichtiges Thema, das in Wahrheit gar keines ist.

Das Internet scheint seine Unschuld verloren zu haben. Schaffen wir es trotzdem noch, optimistisch in die Zukunft zu blicken?

Ich finde es sogar gut, dass wir nüchterner auf das Netz blicken und Probleme erkennen, die seit Jahren vorhanden sind. Das ist der Anfang der Lösung.

Ingrid Brodnig: "Hass im Netz" Brandstätter, 232 Seiten, € 17,90. Auch als E-Book erhältlich

Kommentare

Das Fratzenbuch muss man links liegen lassen. Dort findet man keine Freunde sondern nur Dummköpfe !

AdLa melden

Ganz einfach, kein Facebook !

KurtiW melden

...dem ist nichts hinzuzufügen!
Seit 3 Jahren ohne FB und keine Sekunde davon bereut!

Seite 1 von 1