News Logo
ABO

"Demokratien sind sehr verwundbar"

Subressort
Aktualisiert
Lesezeit
9 min
Künstliche Intelligenz - "Demokratien sind sehr verwundbar"

©Getty Images
  1. home
  2. Leben
  3. Technik

Der Technikphilosoph Mark Coeckelbergh befasst sich in einem neuen Buch mit den Gefahren der Künstlichen Intelligenz für die Demokratie. Er plädiert für einen verantwortungs- und planvolleren Umgang mit den neuen technologischen Möglichkeiten. Denn die Bedrohungen, die von ihnen ausgehen, sind groß – und der Umgang damit oft naiv.

Die neuesten Studienergebnisse sind besorgniserregend, wenn auch nicht ganz überraschend: Chatbots wie Chat GPT geben nicht sachliche Informationen wieder, sondern verstärken die Vorurteile des Fragenden, haben Forscher der Johns Hopkins Universität herausgefunden. Ein weiteres Mosaiksteinchen in einem großen Bild, das vielen politischen Entscheidungsträgern große Sorgen macht. Bedroht der Siegeszug der Künstlichen Intelligenz die Demokratie? Und wenn ja, wie lässt sich dieser Entwicklung begegnen?

Manipulation und Überwachung

Mark Coeckelbergh, Professor für Medien- und Technikphilosophie an der Universität Wien, hat dazu ein erhellendes Buch geschrieben. In "Why AI undermindes democracys and what to do about it"* ("Warum KI Demokratie untergräbt und was man dagegen tun kann") analysiert er das Problem systematisch und definiert Grundprinzipien der Demokratie, die durch den Einsatz von Künstlicher Intelligenz gefährdet sind.

Am wichtigsten vielleicht: die Gefahren für Freiheit und Gleichheit. Es gefährdet die Freiheit von Menschen, argumentiert Coeckelbergh, wenn sie nicht mehr in der Lage sind, sich eine eigene Meinung zu bilden, sondern manipuliert werden – durch automatisch generierte Social-Media-Posts und Leserbriefe zum Beispiel, die Fake News verbreiten und bestimmte Befindlichkeiten vortäuschen, um die Spaltung der demokratischen Gesellschaften voranzutreiben. Freiheitsgefährdend sind auch die Überwachungsmöglichkeiten, die mit KI einhergehen. Coeckelbergh nennt den Fall eines schwarzen Amerikaners, der ohne Angabe von Gründen verhaftet wurde, weil ein Gesichtserkennungsalgorithmus ihn falsch identifiziert hatte.

Auch Gleichheit, ein weiteres demokratisches Grundprinzip, ist durch den Einsatz von Künstlicher Intelligenz bedroht: Wenn Künstliche Intelligenz durch die Auswertung großer Datenmengen eigenständig und ohne menschliche Intervention bewertet, ob jemand z. B. kreditwürdig ist, besteht die Gefahr, dass Ungleichheit fortgeschrieben und verstärkt wird – eine "falsche" Postleitzahl, die "falsche" ethnische Zugehörigkeit und schon ist man draußen.

Ein Fall aus Österreich: Das AMS wollte via Alghorithmus erheben, wie gut die Arbeitsmarktchancen von Menschen sind und wie intensiv sie gefördert werden sollen – auf Basis von Alter, Staatengruppe, Geschlecht, Ausbildung, Betreuungspflichten, gesundheitlicher Beeinträchtigung etc. Kritiker befürchten eine Verfestigung von Diskriminierung auf dem Arbeitsmarkt. Menschen, die es ohnehin schon schwerer haben, könnten automatisiert benachteiligt werden und keine Förderungen mehr erhalten.

Blurred image background

Mark Coeckelbergh

 © Uni Wien/Martin Jordan
Wir sollten Einfluss auf unsere technologische Zukunft nehmen

Coeckelbergh analysiert nicht nur aktuelle Fälle, sondern befasst sich auch mit der Geschichte. Neue Technologien seien immer schon von Mächtigen eingesetzt worden, um zu regieren, führt er aus. Und: Technologien fördern zentralisierte, nicht-demokratische Gesellschaftsordnungen. Die Hoffnungen, dass digitale Technologien – z. B. das Internet – zu mehr Demokratie führen, haben sich nicht bewahrheitet.

Das bedeute aber nicht, dass Technologie per se schlecht sei, sagt Coeckelbergh im Gespräch mit News: "Ich glaube nicht, dass es zwangsläufig in eine bestimmte negative Richtung geht. Wir können diese Prozesse auch lenken, müssen uns aber bewusst sein, dass es unbeabsichtigte Nebeneffekte gibt, mit denen wir lernen müssen umzugehen. Aber letztlich ist Technik immer mit Menschen verbunden, und wir haben die Freiheit, sie zu steuern."

Allerdings, auch wenn die Europäische Union mit dem "AI Act", einem Gesetz zur Regulierung der Künstlichen Intelligenz, einen wichtigen Schritt gesetzt habe, die Gesellschaft habe zu spät auf gewisse Entwicklungen reagiert. "Wir haben die großen Tech Companys all diese Dinge entwickeln lassen, und naiverweise geglaubt, dass sie damit nur Gutes wollen. Wir haben auch viel zu spät mit Regulierungen begonnen. Ich schlage in meinem Buch vor, politische Entscheidungsträger viel enger mit Experten zu vernetzen. Und eine Institution einzurichten, die sich permanent mit Technologiepolitik befasst. Jetzt ist bei jeder neuen Entwicklung die Überraschung groß und es werden Ad-Hoc-Kommissionen eingesetzt. Es wäre viel besser, prozesshaft an diesen Fragestellungen zu arbeiten."

Ins Alltagsleben integrieren

Es müsse auch viel mehr darüber gesprochen werden, sagt Mark Coeckelbergh, wie die neuen Technologien sinnvoll ins Alltagsleben integriert werden können. "Wir vermitteln das sehr akademisch und helfen Kindern und jungen Erwachsenen nicht richtig dabei, darüber nachzudenken, wie sie ihr Leben führen sollen. Dabei wäre das eine sehr wichtige philosophische Frage, die seit der Antike gestellt wird. Wir müssen auch fragen, wie kann Technologie dazu beitragen, ein besseres Leben zu führen? Wir brauchen also eine Art von Bildung, bei der es nicht nur um Wissensvermittlung geht, sondern darum, kritisches Denken zu lernen. Es wäre wichtig, eine Art Weisheit in Bezug auf die neuen Technologien zu entwickeln. Und gleichzeitig natürlich darüber nachzudenken, wie wir die Technologie selbst verändern und regulieren können. Technologie sollte nicht als gegeben hingenommen werden. Wir sollten als demokratische Gesellschaft Einfluss auf unsere technologische Zukunft nehmen. Wenn wir die Macht dort belassen, wo sie jetzt ist, dann wird das nicht passieren. Und wir werden immer wieder überrascht werden, sei es positiv oder negativ."

Damit das menschliche Erleben mit der technologischen Entwicklung mithalten könne, müsse mehr Augenmerk auf die ethischen Aspekte dieser Entwicklung gelegt werden, sagt Coeckelbergh. "Gleichzeitig müssen wir der Frage nach der Technologie und ihrer Beziehung zum Menschen viel mehr Zeit widmen, um irgendwann Prozesse und Institutionen zu haben, die mit der aktuellen Situation besser umgehen können."

Kafkas Labyrinth

Sein 2022 erschienenes Buch "The Political Philosophy of AI"* beginnt Coeckelbergh mit der Erwähnung von Franz Kafkas "Der Prozess". Was hat dieser Klassiker der deutschsprachigen Literatur mit Künstlicher Intelligenz zu tun? Viel, sagt Coeckelberg, mehr wahrscheinlich, als den meisten lieb ist. "Ich glaube, wir können von Kafka eine Menge lernen. Da ist einerseits dieses Gefühl, in einem Labyrinth verloren zu sein. Es gibt derzeit viele Krisen. Die Menschen fühlen sich von Kräften überwältigt, die sie nicht wirklich kontrollieren können. Ich denke, eine Herausforderung der modernen Gesellschaft besteht darin, eine Welt zu schaffen, in der wir uns noch irgendwie zu Hause fühlen können. Was ich spezifisch von Kafka übernommen habe, ist die Tatsache, dass KI natürlich von totalitären Regimes benutzt werden kann. Plötzlich stehen sie vor der Tür und holen dich. Es geht also um die Gefahr von Autoritarismus und Totalitarismus, und das sollte nicht auf die leichte Schulter genommen werden. Demokratien sind sehr verwundbar. Es gibt derzeit in vielen westlichen Ländern autoritäre Tendenzen, und wir sollten uns darüber im Klaren sein, dass das sehr gefährlich ist."

Why AI Undermines Democracy and What To Do About It

Why AI Undermines Democracy and What To Do About It

EUR 19,88
Jetzt Kaufen

Dieser Beitrag ist ursprünglich in der News-Printausgabe Nr. 21/2024 erschienen.

Dieser Beitrag enthält Affiliate-Links. Wenn Sie auf einen solchen klicken und über diesen einkaufen, bekommen wir von dem betreffenden Online-Shop oder Anbieter eine Provision. Für Sie verändert sich der Preis nicht.

KI

Über die Autoren

Logo
Monatsabo ab 20,63€
Ähnliche Artikel
2048ALMAITVEUNZZNSWI314112341311241241412414124141241TIER