Sebastian Thrun: KI-Pionier und Visionär im Silicon Valley

Der deutsche Stanford-Professor Sebastian Thrun gilt als einer der klügsten Visionäre im Silicon Valley. Er ist der Pionier der selbstfahrenden Autos und elektrischen Flugtaxis und gründete die Online-Akademie Udacity. Künstliche Intelligenz hält er für einen Segen.

von Stanford-Professor Sebastian Thrun © Bild: Alexander Migl/Wikimedia

Steckbrief Sebastian Thrun

  • Name: Sebastian Thrun
  • Geboren am: 14. Mai 1967 in Solingen, Deutschland
  • Sternzeichen: Stier
  • Ausbildung: 1988 Studium der Informatik, Medizin und Ökonomie an der Universität Hildesheim; 1995 Promotion an der Universität Bonn in Informatik und Statistik
  • Beruf: Informatiker, Unternehmer und Experte für Robotik; Professor für Künstliche Intelligenz an der Stanford University;
  • Kinder: 2

Der Deutsche Sebastian Thrun war 36 Jahre alt, als er an der US-amerikanischen Elite-Universität Stanford den Lehrstuhl für Künstliche Intelligenz übernahm. Der Weg des jüngsten Kindes einer fünfköpfigen Familie aus der deutschen Stadt Solingen hatte über die Universitäten Hildesheim und Bonn sowie die Forschungsuniversität Carnegie Mellon in Pittsburgh nach Kalifornien geführt. Im Umfeld zwischen universitärer Forschung und wirtschaftlichem Silicon-Valley-Denken entfaltete sich der als "Hyperoptimist" beschriebene Thrun zu einem der weltweit wichtigsten Vordenker. Er hat die Entwicklung der künstlichen Intelligenz, des maschinellen Lernens und der Robotik entscheidend geprägt.

Sebastian Thrun - Pionier der selbstfahrenden Autos

Als Leiter des Artificial Intelligence Lab der Universität entwickelte er mit dem Stanford Racing Team das selbstfahrende Auto "Stanley", das im ersten Rennen autonomer Fahrzeuge 2005 den Sieg holte. Google-Gründer Larry Page war begeistert und holte Sebastian Thrun für das Projekt "Driverless Car" an Bord, aus dem sich das Alphabet-Tochterunternehmen Waymo entwickelt hat. Waymo-Fahrzeuge fahren heute völlig autonom durch San Francisco und Phoenix. Thrun brach damals zu neuer Forschung auf. Für Google baute er ab 2011 die geheime Forschungsabteilung Google X auf, in der unter seiner Führung die Datenbrille Google Glass entstand, sowie die Street-View-Autos, die das Navigationssystem Google Maps ermöglicht haben.

Vater der Flugtaxis und Online-Unis

Zuletzt gründete Thrun gemeinsam mit Larry Page 2010 das Unternehmen Kitty Hawk für autonome, elektrische Flugtaxis. Im Jahr 2011 war er Mitgründer der Online-Akademie Udacity, die aus dem Erfolg seines Gratis-Onlinekurses in Stanford entstand. Das technologische Fortbildungsangebot nutzen aktuell Großkonzerne wie Airbus, Audi, BMW, die Deutsche Telekom, Mercedes und Porsche. Im Jahr 2023 zählte Udacity eine Viertelmillion Absolventen.

Das Buch:

In der Biografie "Sebastian Thrun -Eine deutsche Karriere im Silicon Valley" beschreibt Andreas Dripke alle Stationen des KI-Visionärs und ihre Hintergründe im Detail (erschienen im Verlag der UNO-Denkfabrik Diplomatic Council).*

Die mit Sternchen (*) gekennzeichneten Links sind sogenannte Affiliate-Links. Wenn Sie auf so einen Affiliate-Link klicken und über diesen Link einkaufen, bekommen wir von dem betreffenden Online-Shop oder Anbieter eine Provision. Für Sie verändert sich der Preis nicht.

Der deutsche Hightech-Visionär, der u. a. in Deutschland 2022 als "Vordenker" und vom US-Fernsehsender CNBC 2018 als "Disruptor #8" ausgezeichnet wurde, glaubt fest an die positive Kraft künstlicher Intelligenz und ein gesellschaftliches Regulativ. "Keine Technologie setzt sich durch, wenn das Leben dadurch schlechter wird", formuliert er in seiner Biografie "Sebastian Thrun: Eine deutsche Karriere im Silicon Valley". Im News-Interview erklärt er seine optimistische Sicht auf Künstliche Intelligenz.

Herr Thrun, Sie halten Künstliche Intelligenz für einen Segen. Warum?
Mit künstlicher Intelligenz, also KI, ergibt sich die Möglichkeit, Dinge, die wir heute immer wieder von Hand tun, zu automatisieren. Für manche mag das furchterregend klingen, aber für mich ist es eine positive Nachricht. Denn wenn wir es schaffen, einfache Vorgänge zu automatisieren, machen wir Menschen produktiver und geben uns allen mehr Zeit zurück. Ein gutes Beispiel ist das selbstfahrende Auto. Wäre es nicht toll, am Weg zur Arbeit noch ein bisschen zu schlafen? Jeder Mensch hätte einen Chauffeur, der ihn sicher zum Arbeitsplatz bringt. Das erstreckt sich auf alle Lebensbereiche. Wir haben mit der Universität Stanford gerade eine Studie fertiggestellt, die zeigt, dass Mitarbeiter in Callcentern 14 Prozent produktiver werden, wenn sie einen KI-Coach zur Seite haben. Das bedeutet für Personen, die Produkte verkaufen, auch 14 Prozent mehr Einkommen bei gleichem Zeitaufwand.

Bedeutet die Produktivitätssteigerung nicht auch Einsparungen beim Personal und Jobverlust für andere?
Ja, das zu antizipieren folgt einer Logik. Unsere Gesellschaft hat auch in der Vergangenheit bereits Änderungen in der Berufswelt durch mehr Effizienz erlebt. In Europa hat vor 200 Jahren jeder Mensch in der Landwirtschaft gearbeitet. Es gab noch keine Dampfmaschine, es gab keine modernen Dünger, und die Produktivität war sehr gering. Durch das Anheben der Produktivität ist die Zahl der Personen, die in der Landwirtschaft arbeiten müssen, nach unten gegangen. Aber das hat sich für die Gesellschaft als positiv herausgestellt, und wir haben heute viele neue Jobs.

Sie leiten als Professor für KI in Stanford verschiedene Projekte. Welche Gebiete machen aktuell die größten Forschungsfortschritte?
Eindeutig die medizinische Diagnostik und das Design von neuen Medikamenten. Selbstfahrende Autos sind ebenfalls ein gutes Beispiel. Auch der Bereich relativ einfacher Aufgaben, wie Datenübertragung, ist sehr weit fortgeschritten. Neu sind die sogenannten Large Language Models, die plötzlich eine offene Konversation führen können. Man kann ihnen Fragen stellen, und sie können wie ein Mensch antworten. Die besten dieser Modelle bestehen hier in Kalifornien inzwischen das Aufnahmeexamen für Juristen, und zwar auf dem Niveau der besten zehn Prozent der Bewerber. Das heißt, wir haben Modelle, die Sprache so anwenden können, dass sie wie Juristen argumentieren.

»Wir müssen überlegen, wie der Wohlstand, der sich aus der künstlichen Intelligenz ergibt, gut verteilt wird«

Künstliche Intelligenz wird sich auf alle Berufe auswirken, bei denen primär das Gehirn arbeitet und repetitive Abläufe vorherrschen, prognostizieren Sie in Ihrer Biografie. Genannt werden Rechtsanwälte, Ärzte oder Piloten. Was bedeutet das langfristig für die Arbeitswelt? Müssen wir unser System von Arbeit und Entlohnung neu denken?
Es wird sicherlich Änderungen geben, und eine der großen Fragen ist, was die neuen Jobs sein werden, die dadurch entstehen. Generell glaube ich, dass die Menschheit kreativer werden wird, mehr Dinge erfinden wird, und dass mehr Menschen an diesem Prozess teilnehmen können. Es wird immer leichter, ein Onlinegeschäft aufzubauen. Früher hätte es Jahre gedauert, heute dauert es Tage. Wir sehen bereits, dass es im Bereich künstlerischer Berufe viel leichter geworden ist, sich eine Zielgruppe per YouTube oder TikTok aufzubauen und damit Geld zu verdienen. Influencer ist ein Job, den es vor einiger Zeit nicht gab. Wir müssen auch überlegen, wie wir sicherstellen, dass alle Menschen von den Neuerungen profitieren. Das ist eine der großen Herausforderungen der Gesellschaft, sicherzustellen, dass der Wohlstand, der sich aus der KI ergibt, gut verteilt wird.

Sie haben den erfolgreichen Einsatz von KI in Callcentern erwähnt. In Ihrem Start-up Cresta setzen Sie seit 2020 Künstliche Intelligenz im Training von Callcenter-Mitarbeitern ein. Wie funktioniert das konkret?
Üblicherweise dauert es Zehntausende Stunden, bis man in einer Sache wirklich gut ist. Wir wollten diese 10.000 Stunden auf hundert Stunden reduzieren. Als Telefonmarketing-Mitarbeiter gibt es einfache Schritte, um gut zu werden, dazu gehört, sich den Namen des Gesprächspartners zu merken oder auf eine bestimmte Art zu fragen. Cresta hört Zehntausenden solcher Mitarbeiter zu und lernt, warum jemand erfolgreich ist. Dann kann es diese Fähigkeiten an Leute weitergeben, die gerade erst angefangen haben. Man kann sich das wie einen persönlichen Coach vorstellen, der einem hilft, in seinem Job schnell gut zu werden. Das ist sehr beliebt, und die Mitarbeiter, die das benutzen, freuen sich, dass sie jemanden an ihrer Seite haben, der sie berät.

Spätestens mit den beiden KI-Chatbots Chat GPT und Google Bard ist die Künstliche Intelligenz im Alltag und in der breiten Masse angekommen. Was hat diese Revolution letztlich bedingt?
Es gibt zwei große Änderungen, die uns in den letzten Monaten bewegt haben. Die erste hat mit der Größe der Datenmengen zu tun. Inzwischen haben wir Computer, mit denen wir Netze aufbauen können, die mehr Parameter haben, als das menschliche Gehirn Neuronen hat. Diese Netze werden mit Datenmengen trainiert, die selbst Tausende von Menschen in ihrer Lebenszeit nicht angucken können. Die zweite Änderung ist, dass Netze bis vor zwei Jahren immer für eine spezielle Aufgabe trainiert wurden, zum Beispiel ein Auto zu fahren, ein Flugzeug zu fliegen, Schach zu spielen oder Krebs zu diagnostizieren. Die neue Generation von Netzen kann gleichzeitig viele Aufgaben übernehmen. Das ist neu. Ich hatte kürzlich ein Abendessen mit der CTO von Open AI, Mira Murati, die mir berichtet hat, dass sie abends aus Langeweile in Chat GPT einen italienischen Satz eingetippt hat und dann zu ihrer Überraschung das System perfekt Italienisch sprach. Das ist interessant, weil keiner der Ingenieure jemals ein System bauen wollte, das 90 verschiedene Sprachen sprechen kann.

Das heißt, die KI denkt und lernt selbst? Sind die Konsequenzen daraus denn überhaupt abschätzbar?
Es wäre ein Fehler, das so zu beschreiben. Ich glaube, dass die Systeme sehr reaktiv sind. Auf der technischen Seite sind sie darauf trainiert, das nächste Wort vorherzusagen. Das ist kein tiefes Denken. Man kann sie sehr leicht irreführen, indem man Fragen stellt, die keinen Sinn ergeben. Dann kommt großer Unsinn dabei heraus. Der Nobelpreisträger David Kahneman hat ein Buch geschrieben, "Thinking Fast and Slow", in dem er zwei Arten des Denkens unterscheidet, das reaktive, schnelle und das tief logische, langsame Denken. Ich glaube, wir haben in der KI die erste Form des Denkens erreicht, aber die zweite Form des Denkens fehlt noch.

Sie beschreiben, das von Ihnen entwickelte selbstfahrende Auto hätte ein Bewusstsein für den Zustand der Straße, auf der es fährt. Braucht es eine tiefgreifende Diskussion darüber, wie viel Bewusstsein KI haben darf?
Das hängt davon ab, wie man Bewusstsein definiert. Ich würde sagen, dass heute jeder Geschirrspüler, jede Waschmaschine selbstbewusst ist und auch das Auto, wenn es mit einer kleinen roten Lampe anzeigt, dass der Reifen platt gefahren ist. Das ist eine Form von Selbstbewusstsein von Maschinen, an die wir uns schon lang gewöhnt haben. Das heißt nicht, dass diese Maschinen Intentionen haben, die von menschlichen Intentionen abweichen. Das Bewusstsein geht nicht so weit, dass sich der Geschirrspüler irgendwann in den Kühlschrank verliebt und mir sagt, dass er keine Lust mehr hat, meine Teller zu waschen. Diese Art von Bewusstsein gibt es nicht und wird es hoffentlich auch nie geben, weil ein solcher Geschirrspüler kein gutes Produkt wäre.

Sebastian Thrun mit dem selbstfahrenden Auto "Stanley"
© imago/ZUMA Press PIONIER MIT SELBSTFAHRENDEM AUTO. Sebastian Thrun führte als Direktor des Stanford Artificial Intelligence Lab 2005 das selbstfahrende Auto "Stanley" zum Sieg eines Rennens über 212 Kilometer

Elon Musk hat eine Pause vorgeschlagen, was die KI-Forschung betrifft. Auch der Ex-Chef von Google Brain, Geoffrey Hinton, und 19 Führungskräfte der Association for the Advancement of Artificial Intelligence warnen vor weitreichenden Gefahren der KI. Braucht es eine Pause, um die Konsequenzen auszuloten?
Die große Gefahr einer Pause ist, dass sich zwar die ethisch guten Personen daran halten, nicht aber Staaten wie Nordkorea und China. Damit gibt man denen einen Vorteil, die keinen Vorteil haben sollten. Für mich ist die Gefahr einer Pause sehr groß. Ich bin der gegenteiligen Auffassung, dass die Grundlagenforschung vorangetrieben werden muss, wir aber nach wie vor einen Dialog mit der gesamten Gesellschaft führen müssen, wie wir die Technologien am besten einsetzen. In der Vergangenheit haben wir immer Wege gefunden, neue Technologien positiv einzusetzen. Jede Technologie kann missbraucht werden, bis hin zum Küchenmesser. Den Kopf in den Sand zu stecken hilft niemandem.

Sie implizieren, dass die Forschung ethisch verantwortungsbewusst betrieben werden muss. Welche Eigenschaften darf Künstliche Intelligenz denn haben und welche nicht?
Ich glaube, es ist sehr wichtig, dass die Verantwortung beim Menschen bleibt und nicht beim System. Wenn Menschen KI-Systeme einsetzen, die einen Schaden erzeugen, müssen diese Menschen und diese Firmen zur Verantwortung gezogen werden. Das ist nichts Neues. Die meisten Flugzeuge werden bis zur Landung durch Autopiloten kontrolliert. Wenn sich da ein Fehler findet, wie zum Beispiel in Boeings MCAS-System, dann ist es fair, die Firmen, die Fehler gemacht haben, zur Verantwortung zu ziehen. Auch KI-Systeme werden in sicherheitsrelevanten Sektoren eingesetzt, wie in selbstfahrenden Autos. Die Firmen, die diese Systeme einsetzen und davon profitieren, müssen dafür sorgen, dass sie sicher benutzbar sind.

In der Talkshow von Markus Lanz hat Digitalisierungs-Autor Sascha Lobo kürzlich demonstriert, wie einfach er die Stimme von Olaf Scholz mittels Handy und KI einen unsinnigen Text über Markus Söder sagen lassen kann. Wir Menschen sind aber trainiert zu glauben, was wir sehen und hören. Halten Sie es für wichtig zu wissen, ob man mit einem Mensch oder einer Maschine spricht?
Diese Deepfake-AI-Systeme, die auditorisch und visuell völlig erfundene Dinge vorspielen können, sind eine große Herausforderung in der neuen Welle der künstlichen Intelligenz. Das ist leider nicht zu stoppen. Wir sehen bereits, dass Kriminelle solche Systeme nutzen. Dagegen müssen wir ganz gezielt als Gesellschaft vorgehen und überlegen, wie wir Authentizität und Glaubwürdigkeit weiter erhalten können.

Welche Kompetenzen braucht der Mensch dafür künftig?
Wir werden uns beibringen müssen zu lernen, was authentisch ist und was nicht. Es gibt seit Langem die sogenannten Phishing-Attacken, bei denen man in einer E-Mail gebeten wird, einen Link anzuklicken und sein Passwort einzugeben. Inzwischen wird viel daran gearbeitet, diese Attacken zu minimieren. Wir werden eine Welle von Fällen sehen, in denen auch vor Gericht Videos gezeigt werden, die gar nicht so entstanden sind. Wir müssen Künstliche Intelligenz einsetzen, um solche Fälle zu finden und jene zur Verantwortung zu ziehen, die diese falschen Informationen erzeugt haben.

Besonders heiß ist europaweit die Debatte über Künstliche Intelligenz im Bildungsbereich. Was passiert, wenn Studenten und Schüler ihre Arbeiten mit KI erzeugen und selbst nichts mehr lernen, so die Frage. Wie stehen Sie zu dieser Befürchtung?
Wenn man Schülerinnen und Studentinnen verbietet, Kreativität zu nutzen, ist man auf eine Art und Weise ein bisschen unehrlich, weil Schule und Studium zielen unter anderem darauf ab, dass Absolventen gut kommunizieren können. Und sich bei Kommunikation helfen zu lassen ist eine gute Sache. Es ist auch völlig okay, wenn ich im Supermarkt mein Steak kaufe, statt die Kuh mit meinen eigenen Händen zu töten und zu zerschneiden. Es ist wichtig, dass man technologieoffen ist. Dass es nun einfacher geworden ist, die Studienziele zu erreichen, ist eine positive Sache, keine negative Sache. Ich glaube, dass es für Schülerinnen und Studentinnen wichtig ist, diesen neuen Technologien offen gegenüberzustehen. Keiner weiß, wo es genau hingeht. Vielerorts kann man mit solchen Systemen deutlich schneller und deutlich besser kommunizieren. Die, die in der Lage sind, die Systeme gut zu nutzen und besser zu kommunizieren, werden am Ende vorn liegen.

Sie haben seit 2012 mit Ihrer Online-Akademie Udacity viel Erfahrung im Bildungsbereich gesammelt. Welche Lehren haben Sie daraus gezogen, und was könnten Schulen und Universitäten von Ihnen lernen?
Wir haben in den vergangenen Wochen unser Mentor-Programm auf Künstliche Intelligenz umgestellt. Vorher hatten wir ein Mentor-Programm, das hauptsächlich Experten eingesetzt hat, um Fragen zu beantworten. Jetzt werden die gleichen Fragen von Chat GPT vorbeantwortet. Der Erfolg war unglaublich. Die Zahl der Fragen pro Tag ging um den Faktor 100 hoch, von 200 Fragen auf 20.000. Die Kosten gingen gleichermaßen nach unten. Dann haben wir die Erzeugung von neuen Kursen auf KI umgestellt, sodass die Professoren KI nutzen können, um Kurse zu entwerfen und Videos zusammenzustellen. Neuerdings sind wir in der Lage, zwei Kurse pro Tag zu erzeugen, vorher waren es zwei Kurse im Monat. Der heilige Gral ist, eine Ausbildung zu schaffen, die absolut personifiziert ist, die den Auszubildenden komplett versteht und zum richtigen Zeitpunkt genau die Dinge serviert, die er lernen möchte. Theoretisch ist es jetzt möglich, dass jeder Lernende seinen eigenen Mentor bekommt und seinen eigenen Ausbildungsweg. Das wird die Gesellschaft gewaltig nach vorn treiben. Studien haben bewiesen, dass ein persönlicher Mentor Durchschnittsschüler ganz an die Spitze bringt. Oft versagen Schulen, weil sie Schüler dazu zwingen, zur selben Zeit dasselbe zu lernen. Das wird sich in den kommenden Jahrzehnten radikal ändern.

Was ist Ihnen als zweifacher Vater in Sachen Erziehung wichtig, wenn derart rasante Veränderungen durch Künstliche Intelligenz bevorstehen?
Es gibt drei Dinge, die für jeden jungen Menschen wichtig sind, inklusive meiner eigenen Kinder. Das erste ist Durchhaltevermögen. Die Fähigkeit, Sachen durchzuziehen, auch wenn es mal nicht so einfach ist. Das zweite ist Neugier. Die Fähigkeit, neue Dinge zu erkunden und dadurch zu lernen. Und die dritte Fähigkeit ist Social-Emotional Learning. Die Fähigkeit, mit anderen Menschen umzugehen und Empathie zu zeigen. Sozial-emotionales Lernen, bei dem es nicht darum geht, Fakten zu zitieren, sondern über den eigenen Einfluss auf andere Menschen zu lernen. All diese Dinge werden auch in 100 Jahren noch wichtig sein, und es wird weniger wichtig sein, sich in der Grammatik gut auszukennen und die Rechtschreibung perfekt zu beherrschen.

»In spätestens 20 Jahren werden selbstfahrende Autos durch fliegende Autos ersetzt«

Die selbstfahrenden Autos von Waymo, für die Sie die Pionierarbeit geleistet haben, sind heute in begrenzten Gebieten in San Francisco und Phoenix unterwegs. Wird die Entwicklung so weit gehen, dass wir in Österreich auf Kurvenstraßen bei schlechtem Wetter selbstfahrend auf Skiurlaub reisen?
Ich glaube fest daran, dass in den nächsten zehn oder 20 Jahren selbstfahrende Autos durch das fliegende Auto ersetzt werden. Es ist inzwischen klar, dass fliegende Fahrzeuge sehr viel effizienter, schneller und sicherer sind als Fahrzeuge, die sich auf dem Boden bewegen, und darüber hinaus viel weniger Infrastruktur benötigen. Das wird auch für Züge gelten oder für den UPS-Lastwagen, der das Amazon-Paket liefert. Ich glaube, dass man auf diesem Weg künftig viel schneller, sicherer und grüner auch in die Alpen kommen kann.

Ihre Firma für elektrische Flugtaxis, Kitty Hawk, hat aber Ende des Vorjahres nach zwölf Jahren geschlossen. Wie passt das zusammen?
Diesbezüglich gibt es einige empfehlenswerte, tiefgehende Analysen nachzulesen. Für eine wirkliche Revolution müssen noch einige Dinge erfunden werden. Zum Beispiel ein besseres System, den Luftraum zu verwalten. Das heutige System kann nicht hochskalieren auf Hunderttausende Flugzeuge zum selben Zeitpunkt in der Luft. Es beruht auf den 1950er-Jahren, als es nur eine Handvoll Flugzeuge gab. Da muss sich noch Grundlegendes tun.

Sie arbeiten lieber mit Quereinsteigern aus der Praxis als mit Experten. Wie kommt das?
Ich habe festgestellt, dass sich Experten meistens in Best-Practice-Dingen und in der Vergangenheit sehr gut auskennen, aber genau deswegen größere Schwierigkeiten haben, sich eine völlig andere Zukunft vorzustellen. Denken Sie an das berühmte Zitat von Henry Ford, der gesagt hat, hätte man die Menschen vor der Erfindung des Autos gefragt, was sie wollen, hätten sie schnellere Pferde verlangt, keine Autos. Die Pferdeexperten seinerzeit hätten einen beraten können, wie man Pferde schneller machen kann, aber sie hätten nicht das Auto erfunden. Um radikal neue Dinge zu erfinden, braucht man einen neuen Geist und Offenheit. Das finde ich viel öfter in Personen, die sich im Fachgebiet gar nicht auskennen. Wir haben zum Beispiel im Bereich der selbstfahrenden Autos keine automotiven Experten eingesetzt, sondern Programmierer aus dem KI-Bereich, die noch nie an Autos gearbeitet haben. Damit hatten sie eine völlig neue Perspektive, was möglich ist.

Wenn Sie, wie wir es aus der berühmten Steve-Jobs-Rede kennen, die Meilensteine Ihres Lebens verbinden: Was sehen Sie?
Zwei Dinge, die immer wichtig gewesen sind. Als Erstes wollte ich immer neue Dinge lernen. Das hat sich auf meinem Berufsweg gezeigt, als ich Professor in Stanford war und der Punkt kam, an dem ich merkte, dass ich gar nicht mehr so viel lernen kann. Damals habe ich meine Professur aufgegeben, was wenige Menschen machen. Das Zweite ist, ich wollte immer meine Zeit einsetzen, um das Leben anderer zu verbessern. Daher kam auch mein Interesse für das selbstfahrenden Auto. Ich habe im Alter von 18 Jahren meinen besten Freund durch einen Verkehrsunfall verloren und mir die Frage gestellt: Ist das die beste Art und Weise, wie wir Fortbewegung gestalten können? Und die Antwort war: Nein. Wenn wir Autos sicherer machen können, dann kann ich vielleicht irgendwann eine Million Menschenleben pro Jahr retten, die wir jährlich durch Verkehrsunfälle verlieren.

Sie kennen Tesla-und Twitter-Chef Elon Musk und Google-Gründer Larry Page gut. Gibt es Eigenschaften, die alle Silicon-Valley-Vordenker gemeinsam haben?
Was Elon und Larry wirklich gut können, ist logisch und prinzipiell anders zu denken. Sie denken über Dinge nach, wie noch keiner darüber nachgedacht hat. Zum Beispiel als Larry im Jahr 2008 YouTube aufgekauft hat, hat er mir erklärt, dass YouTube die Zukunft von Fernsehen ist. Damals hat das kein Mensch so gesehen. Heute ist es ganz offensichtlich der Fall. Das Gleiche gilt für die Diskussion um fliegende Autos, bei der Larry mir schon früh mitgeteilt hat, dass nach seiner Auffassung alles durch die Luft gehen muss und nicht mehr auf dem Boden festgezurrt sein darf. Elon hat als Erster wirklich erkannt, wie wichtig die Batterie im Autobereich ist, und hat dann radikal Tesla aufgebaut. Heute schauen die Autofirmen zu ihm hoch, früher haben sie auf Tesla heruntergeschaut.

Das Silicon-Valley-Erfolgsgeheimnis ist also, vereinfacht gesagt, logisches Denken gepaart mit radikal freiem Denken.
Genau das ist es, was wir im Silicon Valley machen. Einfach radikal nachdenken. Wie kann man die Gesellschaft durch Technologie besser gestalten? Dabei lassen wir uns nicht davon zurückhalten, wie die Welt heute aussieht. Das ist eine Eigenschaft, die ich gern in allen deutschen Unis sehen würde. Dort sollte man sich radikal fragen: Wie wird die Gesellschaft in 50 Jahren aussehen, und warum ist das dann besser so? Zu sagen, heute ist die Gesellschaft perfekt, dem stimme ich nicht zu, weil historisch gesehen war das immer falsch.

Dieser Beitrag ist ursprünglich in der News-Printausgabe Nr. 21/2023 erschienen.