US-Wahl von

Die Roboterarmee Trumps

Immer öfter werden in Wahlkämpfen computergesteuerte Kommentare eingesetzt

US-Wahl - Die Roboterarmee Trumps © Bild: REUTERS/Carlo Allegri

Jeder dritte Tweet von Unterstützern Donald Trumps während des ersten TV-Duells zur US-Präsidentenwahl wurde von Computerprogrammen abgesetzt. Bei Hillary Clinton war es immerhin noch jeder fünfte. Solche Programme, Social Bots genannt, werden immer häufiger politisch verwendet. Für die Demokratie können sie gefährlich sein.

Social Bots sind Computerprogramme, die man zur automatischen Beantwortung gewisser Fragen programmiert. Sie sind eine praktische Sache. Unternehmen können sie beispielsweise verwenden, um immer wiederkehrende Kundenanfragen automatisch und sehr rasch beantworten zu können. Man kann Bots auch so programmieren, dass sie bei bestimmten Problemstellungen helfen. Im US-Wahlkampf kamen beispielsweise Bots zum Einsatz, um den Wählern bei der Registrierung zu helfen. User haben ganz übliche Fragen, beispielsweise wann sie wo ihre Registrierung abwickeln können. Die Beantwortung dieser Fragen kann man vorab wissen, dann ein Programm entwickeln, das die Fragen beantwortet und so Wählern einen einfachen Zugang zur Wahl bieten. In gewisser Weise ist selbst Apples iPhoneassistent Siri ein Bot, der bei der Bewältigung von Problemen hilft.

Bots werden also immer wichtiger und je besser sie werden, desto mehr Aufgaben können sie übernehmen, für die es heute zum Beispiel Mitarbeiter bei Servicehotlines gibt. Kein Wunder, dass sie auch in der Politik zum Einsatz kommen. Dort ist ihr Einsatz aber von wenigen Ausnahmen, wie der Unterstützung bei der Wählerregistrierung, nur selten positiv.

Einfluss auf die Politik

Bots werden seit einiger Zeit verwendet, um politische Debatten zu beeinflussen. Im US-Wahlkampf war das in einem noch nie gesehenen Ausmaß der Fall. Das Ziel ist es, Stimmung zu machen und dadurch den Eindruck zu erwecken, als würde eine große Masse an Usern für ein gewisses Anliegen eintreten. Twitter ist besonders anfällig für Bots, da die Neuregistrierung von Usern einfacher als bei allen anderen Plattformen ist.

Twitter ist bei uns politisch kein großes Thema, aber in den USA wird es sehr häufig verwendet. Mehr als 20 Prozent der Amerikaner nutzen Twitter, in Österreich wird es hingegen vor allem von sehr Politikinteressierten genutzt, insgesamt jedoch von weniger als zwei Prozent der Österreicher. In den USA haben die meisten Stars Accounts und die besprochenen Themen sind viel breiter. Selbst Politikern, wie beispielsweise Donald Trump, folgen 13 Millionen User auf Twitter.

Überzeugen mit Masse

Die Programmierer der Bots zielten im Wahlkampf besonders darauf ab, ihre automatisierten Nachrichten möglichst als erste unter einen Tweet eines der beiden Kandidaten setzen zu können. Die meisten User nutzen Twitter mobil und bekommen so die Tweets in chronologischer Reihenfolge angezeigt. Wer es also als erster unter einen Kandidatentweet schaffte, erreichte eine sehr große Zielgruppe.


Dadurch und durch die schiere Masse der Bots soll der Eindruck entstehen, dass viele Wähler so denken wie die Roboter. Das beeinflusst die Wähler direkt aber auch indirekt, denn Journalisten ändern womöglich ihre Berichterstattung, wenn sie sehen, dass ein Thema offenbar sehr beliebt ist.

Im US-Wahlkampf wurden Social Bots in beiden Kampagnen genützt, sowohl von Donald Trump als auch von Hillary Clinton. Besonders intensiv aber von rechtsradikalen Gruppen, die im Umfeld der Trumpkampagne Aufmerksamkeit für ihre radikalen Ansichten erzeugen wollten. Womöglich gelang es ihnen, bei einigen Wählern den Eindruck zu erzeugen, dass sehr viele Wähler rechtsradikale Ansichten hatten, obwohl es eigentlich vor allem Bots waren, die diese Meinungen äußerten. Social-Media-Expterin Judith Denkmayr kennt ein ähnliches Beispiel aus Österreich: „Den Identitären gelingt es seht gut, über ihren Onlineauftritt den Eindruck zu vermitteln, als wären sie eine breite Bewegung“. Dort sind es allerdings nicht Bots, sondern sehr engagierte User, die den Eindruck einer großen Masse erzeugen.

Ein Bot für Trump

Einer der bekanntesten Social Bots ist Neil Turner. Er kommt angeblich aus Mississippi, ist Trumpfan und hat mehr als 30.000 Fans. Ihm ist es besonders oft gelungen als einer der ersten unter Trumps Tweets zu posten. Oder eigentlich seinem Programmierer, denn Neil Turner existiert nicht, er ist ein von einem Nationalisten programmiertes Computerprogramm.

Den zahlreichen Usern, die sich mit ihm unterhielten, ist das zumeist aber nicht klar. Viele glaubten, dass sie sich mit einem Menschen unterhielten. Denn viele Bots machen nicht klar, dass sie nicht echt sind, sondern täuschen die User.

Aber welchen Sinn macht es, diese Bots zu verwenden?

Bots, die entweder vorprogrammiert zu einer gewissen Zeit etwas twittern, oder auf ein gewisses Reizwort hin immer den selben Tweet absondern, können viel mehr Tweets verfassen als ein normaler User. Im Schnitt sind es laut einer Studie 50 Tweets pro Tag , bei normalen Usern sind es viel weniger. Dadurch kann man den Eindruck erwecken, echte Personen würden sich zu einem Thema sehr intensiv äußern. Judith Denkmayr meint ebenfalls: „Es geht darum, den Eindruck einer Masse zu erzeugen.“ Ob das Anliegen freilich immer erreicht wird, ist aber nicht klar. Denkmayr nennt beispielsweise den Brexit. In der Folge gab es eine Petition, die eine Rücknahme forderte. Diese wurde von Bots massiv beeinflusst. „Und was war die Folge? Genau gar keine!“, sagt Denkmayr.

Wie groß ist das Risiko, dass unsere Politdebatten künftig von Bots beeinflusst werden, die versuchen unsere Meinung zu steuern? Die deutsche AfD-Partei kündigte kurz an, dass sie sich für Bots interessieren würde, ruderte dann jedoch rasch zurück. Ein Einsatz in Österreich ist aber kaum realistisch. In Österreich spielt Twitter kaum eine Rolle. Allerdings ist es dort besonders einfach Bots einzusetzen. Doch der finanzielle Aufwand würde sich kaum lohnen.

Auf Facebook ist es ungleich schwieriger Bots zu betreiben. „Aber es ist möglich“, sagt Denkmayr. Doch dazu braucht es Personen, die den Bot mit einer glaubhaften Biographie und möglichst variantenreichen Statusupdates füttern. Das ist ungleich schwieriger. Solche Bots sind derzeit im Einsatz, ob sie die öffentliche Meinung beeinflussen, ist aber umstritten.

Angriff der Trollarmee

Denkmayr geht davon aus, dass solche Facebook-Bots oft Meinungen beeinflussen, die ohnehin irrelevant sind. Beispielsweise wenn aus Eitelkeit Institutionen Firmen bezahlen, um mit solchen Bots Stimmung zu erzeugen, wenn sie sich in Foren oder generell im Netz ungerecht behandelt fühlen, oder es kommt auch vor, dass sich manchmal Botarmeen zu Themen bekriegen, die außer den Bots gar niemanden interessieren. „Bei Bots geht es immer um Masse, aber wenn das Thema nicht interessiert, kann das auch kein Bot ändern“, sagt Denkmayr. Kunden hätten zwar manchmal den Wunsch, Einfluss auf die Meinung zu nehmen, „aber das geht nicht, die Meinung bildet sich selbst“, sagt Denkmayr.

Mit solchen Facebook-Bots die öffentliche Meinung zu beeinflussen, sei nur sehr eingeschränkt möglich. Der Aufwand ist hoch und die Anwendung schwierig. Twitter hat aber schlicht nicht diese Relevanz wie in den USA. „Ich fürchte eher Trollarmeen, wie sie beispielsweise Russland beschäftigt, das ist leichter umsetzbar“, sagt Denkmayr. Russland nutzt Trolle, User die sich sehr einseitig und aggressiv zu einem Thema äußern, als politische Waffe. Dabei handelt es sich jedoch um bezahlte Aktivisten. Diese kamen beispielsweise im Ukrainekonflikt zum Einsatz, damals jedoch nicht nur von Russland sondern auch von der Gegenseite. Solche Trollarmeen sind jedoch sehr teuer und damit nur eingeschränkt anwendbar.


Aber wie kann man sich schützen? Bei Trollen ist die Antwort einfach, wenn sehr intensiv zu einem Thema gepostet wird, sollte man immer die Motive hinterfragen. Gibt es hier eine Meinungsbildung die nachvollziehbar ist? Agieren alle uniform, oder sind die User unterscheidbar? Wenn das verneint wird, dann sollte man sehr skeptisch sein. Bei Bots, auch wenn diese in Österreich noch kein großes Thema sind, ist es schwieriger. Judith Denkmayr hat dennoch einen Tipp: „ Haben die User keine Ecken und keine Kanten und wirken sehr stromlinienförmig und allzu perfekt, dann sollte man skeptisch sein.“ Wenn es einem zu leicht gemacht wird, dann sollte man vorsichtig sein. Denn Menschen sind nicht so berechenbar. Wenn man selbst politisch links ist, Joga macht und sich für vegane Ernährung einsetzt und plötzlich von Profilen angesprochen wird, die sich auch vegan ernähren, auch Joga machen, aber einem politisch rechte Botschaften vermitteln, dann ist womöglich etwas zu irritierend perfekt. Echte Menschen haben Ecken und Kanten, sie sind nicht nur in einem Punkt plötzlich total konträrer Meinung, das geht sich im echten Leben nicht aus. Das wäre ein bisschen wie der plötzliche Lottogewinn im Postfach ohne je bei einem Gewinnspiel mitgemacht zu haben. Ein bisschen zu perfekt um zu stimmen, also stimmt es auch nicht. Dasselbe gilt für Bots auch. Ist es zu perfekt um echt zu sein, dann ist es das womöglich auch nicht. Außerdem hilft auch Eigenverantwortung. Es können schließlich auch viele irren. Unabhängig davon, ob sie echt sind. Dem eigenen Urteilsvermögen zu vertrauen ist nie ein Fehler.

Kommentare

na werden wir sehen, was er alles kann ...

Seite 1 von 1