Laut Experten „relativiert sich der Hype in gewisser Weise“. Plädoyer für „AI-Literacy“ gegen „blindes Vertrauen“.
von
Wer versucht, ein KI-System mit der Lösung eines komplexeren Problems im Arbeitskontext zu betrauen, erlebt mitunter Überraschungen. Bei all den erstaunlichen „Fähigkeiten“, die solche Systeme an den Tag legen, werde vielen Anwendern zunehmend klar, dass sie eher als Unterstützer von Routinetätigkeiten taugen, so Experten gegenüber Journalisten. Der Hype „relativiert sich in gewisser Weise“, „blindes Vertrauen“ sollte einer „nüchternen Auseinandersetzung“ weichen.
Ob Künstliche Intelligenz – oder KI – heute auch quasi in aller Munde wäre, wenn sie landläufig als „stochastische Verfahren zur Mustererkennung“ benannt würden, sei ein Stück weit fraglich, wie der Soziologe Uli Meyer von der Universität Linz in einem Online-Pressegespräch von „Diskurs. Das Wissenschaftsnetz“ am Dienstag erklärte. Letztere Bezeichnung treffe aber zu – arbeiten solche Systeme doch im Grunde genommen auf der Basis von Wahrscheinlichkeiten zum gemeinsamen Auftreten von zum Beispiel sprachlichen Begriffen. Sie erkennen also Muster.
Blick auf eigentliche Technik wird verstellt
Die – auch medial oder politisch geprägten – Bilder zeigen hingegen mitunter menschenähnliche Roboter. Das prägt ein Verständnis von KI als „Wesen“, das sie nicht ist. Bei all den hochtrabenden Metaphern und Erzählungen verliere man den Fokus auf die Technik an sich. In Bezug auf den Einsatz von KI im Arbeitsalltag vieler Menschen, helfe das Bild des Roboters ebenso wenig, wie die These, dass die Technologie des maschinellen Lernens mehr oder weniger alles umbauen wird – eine Idee, die laut Meyer übrigens schon seit den 1950ern, und nicht erst seit dem größeren Ausrollen von ChatGPT kursiert.
Infolge von Letzterem und diversen Überlegungen zu vermeintlich großen Effizienzsteigerungen sprangen und springen viele Unternehmen auf den Zug auf. Das geschehe mitunter auch, weil man modern sein will, ohne dabei die Lösung eines konkreten Problems im Auge zu haben. Letztlich gibt es dann vielleicht eine Lösung, für die fieberhaft ein Problem im Unternehmen gesucht wird, meint der Wissenschafter.
Soziologe: „Genau hinsehen, was sich ändert“
Ergo: Es brauche eine „nüchterne Auseinandersetzung mit KI“, ein Überlegen, wie sie sinnvoll eingesetzt werden kann, eine Unterscheidung zu vielfach transportierten Bildern eines Universal-Problemlösers und eine Abkehr von der Idee, dass man der Technologie sozusagen ausgeliefert ist. Wer allerdings glaubt, dass sich durch KI nichts ändert, liege ebenso falsch: „Es ist es wert, genau hinzusehen, was sich wie ändert“, sagte Meyer.
Das tut etwa Stefan Strauß, Wirtschaftsinformatiker vom Institut für Technikfolgen-Abschätzung (ITA) der Akademie der Wissenschaften (ÖAW), unter dem Projekttitel „Critical AI Literacy“ in Bezug auf Wissensarbeit – also Tätigkeiten, bei denen Problemlösen im Vordergrund steht. Laut Erhebungen nutzen immerhin 80 Prozent von Österreichs Firmen KI nicht bzw. noch nicht. Auch die Gründe, dies so handzuhaben, hätten zugenommen: „Der Hype relativiert sich in gewisser Weise.“
KI als kapriziöse Wundertüte
Die Verheißung der sprunghaften Produktivitätssteigerung halte oft nicht. KI-Systeme seien etwa in Produktionsprozessen weniger zuverlässig, weil sie mitunter plötzlich andere Ergebnisse liefern, ohne dass klar ist warum. In der Regel trage Wissensarbeit zur Stabilität in Unternehmen bei. „KI ist vieles, aber nicht stabil“, betonte Strauß. Dementsprechend schwierig sei es, ein belastbares Ergebnis zu erzielen. Und: Komplexe Aufgaben sind immer in einer Weise neuartig. Zu ihrer Lösung braucht es neues Wissen und Kreativität. Damit hat Künstliche Intelligenz aber ihre liebe Not. Sie „kann keine komplexen Aufgaben lösen“, weil sie bestehendes Wissen auf teils erstaunliche Weise neu aufbereiten, aber keine neuen Erkenntnisse generieren kann.
Dementsprechend sei man höchstwahrscheinlich besser damit beraten, die KI-Kirche im Dorf zu lassen und die Technologie in erster Linie als Unterstützungstool etwa für Routinetätigkeiten zu begreifen. Fähigkeiten im Umgang mit KI – sprich „AI-Literacy“ – sind für Strauß heute daher eine „Grundvoraussetzung“ für „eigentlich uns alle“ – auch um „blindes Vertrauen“ in Systeme, die vielfach fragwürdige, fehlerhafte, irreführende und nicht nachvollziehbare Ergebnisse produzieren, möglichst hintanzuhalten. Sollte einem eine KI empfehlen, einen Nagel mit einer gefrorenen Banane einzuschlagen, dann funktioniert das bekanntlich. Besser bleibt es aber trotzdem, sich bei der Lösung dieses Problems an den Hammer zu halten, so der Forscher.