Grundsatzfragen der künstlichen Intelligenz: Wie lange können wir den Maschinen noch trauen?
Künstliche Intelligenz soll das menschliche Leben verbessern und ihm nicht schaden – das ist das Mantra von Toby Walsh, einem der weltweit führenden KI-Forscher. Er leitet ein KI-Forschungsteam an der Universität New South Wales in Sydney und hat zahlreiche Forschungsprojekte auf der ganzen Welt verantwortet. 2015 war er Mit-Initiator eines offenen Briefs, der ein Verbot von autonomen Waffen forderte und von über 20.000 KI-Forschern unterschrieben wurde – darunter hochkarätige Wissenschaftler, Unternehmer und Intellektuelle wie Stephen Hawking, Noam Chomsky, Steve Wozniak und Elon Musk.
t3n Magazin: Im Januar hat eine künstliche Intelligenz vier der besten Poker-Spieler geschlagen – zum ersten Mal. Warum hat das so viel länger gedauert als beispielsweise be Schach oder Go?
Toby Walsh: Bei Spielen wie Schach oder Go haben wir bereits KI-Systeme gesehen, die die menschliche Performance deutlich überstiegen. Aber beim Schach oder auch bei Go haben die Spieler und die KI alle Informationen, die für das Spiel relevant sind, offen vor sich: den Spielplan und die Schachfiguren zum Beispiel. Es gibt keine versteckten Informationen, es gibt keine Ungewissheiten. Das ist aber die besondere Herausforderung bei Poker: Es geht darum, Eventualitäten einzuschätzen, Ungewissheiten abzuwägen und Risiken einzugehen – Fähigkeiten, die auch im realen Leben ständig gefragt sind. Das sind enorme Herausforderungen für eine künstliche Intelligenz.
t3n Magazin: Wie viele KI-Systeme sind denn bei dem Pokerspiel angetreten?
Toby Walsh: Es waren zwei: Ein Deep-Learning-Bot der Universität of Alberta und ein KI-System der Carnegie Mellon University, das konventionellere Machine-Learning-Ansätze verfolgte. Aber beide haben von Grund auf gelernt, wie Pokern funktioniert. Ihnen wurde nicht erklärt, was Bluffen ist – sie haben es einfach irgendwann gemacht.
t3n Magazin: Und wir Menschen stehen dabei nicht unbedingt, wie eine künstliche Intelligenz ihre Lösung erarbeitet. Wie kann das sein?
Toby Walsh: Um das zu erklären, muss ich etwas ausholen und ein Beispiel anführen: Fliegen. Wenn wir Menschen lernen wollen zu fliegen, könnten wir einfach versuchen, bis ans Ende der Flugbahn zu laufen und dann mit den Armen weiterzuflattern. Aber das ist eben nicht das, was wir gemacht haben. Wir haben eine Ingenieurslösung erdacht, um das Problem „Fliegen“ zu lösen – wir haben die Tragfläche erfunden. Und wir erfanden sehr mächtige und komplexe Maschinen und können mittlerweile besser fliegen als Vögel. Mittlerweile ist es uns möglich, in 24 Stunden um den gesamten Globus zu fliegen. Dabei haben wir nie versucht, das dynamische Zusammenspiel zwischen Federn und flatternden Flügeln nachzuahmen. Wenn wir Menschen das versucht hätten, würden wir vermutlich immer noch nicht fliegen – denn bis heute lässt sich nicht zu 100 Prozent verstehen, wie Federn funktionieren und wie Vögel es schaffen, zu fliegen.
t3n Magazin: Und am Ende ist es egal, wie das Fliegen realisiert wird.
Toby Walsh: Ganz genau. Hinter diesen zwei sehr unterschiedlichen Lösungen des einen Problems „Fliegen“ stecken die gleichen fundamentalen Gesetze der Aerodynamik in der Flugphysik – nur sind wir Menschen einem anderen Lösungsansatz gefolgt. Wir können also nicht davon ausgehen, dass künstliche Intelligenz zwangsläufig die gleichen Lösungsansätze verfolgt wie wir Menschen als Vertreter einer biologischen Intelligenz. Aber auch hier gelten die gleichen fundamentalen Gesetze der Intelligenz.
t3n Magazin: Aber ist es nicht ein ethisches Problem, wenn wir nicht nachvollziehen können, wie eine KI zur ihrer Lösung kommt?
Toby Walsh: Das ist in der Tat eine der größten Herausforderungen unserer heutigen Zeit. Diese zwei KI-Systeme können nicht erklären, warum sie bestimmte Entscheidungen getroffen haben. Wenn es sich um ein Spiel wie Poker handelt, fragst du dein Gegenüber auch nicht unbedingt, warum er sich für eine bestimmte Wette in einer Partie entschieden hat. Wenn du hoch setzt und gewinnst – super. Oder du verlierst eben. Aber wir gehen zunehmend dazu über, Maschinen auf Basis solcher Algorithmen Entscheidungen zu überlassen, die unser Leben betreffen: über unsere Kreditwürdigkeit, unseren Facebook-Newsstream, unsere Google-Suchergebnisse oder unsere Versicherungsprämien. Und wir wollen Systeme, die ihre Entscheidungen erklären können. Dabei wissen wir heute gar nicht, wie wir solche Systeme bauen können.
t3n Magazin: Klingt ein wenig beängstigend.
Toby Walsh: Diese KI-Systeme sind noch immer Black Boxes. Wir arbeiten daran, mehr Transparenz zu schaffen, aber es bedarf noch viel Forschung.
t3n Magazin: Und was passiert eigentlich, wenn eine KI sich selbst Ziele setzt?
Toby Walsh: Eins muss ich klarstellen: Computer folgen nur Regeln. Sie haben nicht die Fähigkeit, Regeln zu brechen oder eigene Entscheidungen zu treffen. Alpha Go wird nur Go spielen und den entsprechenden Regeln folgen. Die KI wird nicht irgendwann feststellen, dass es Go langweilig findet und dann stattdessen Poker spielen. Dazu ist sie nicht in der Lage. Trotzdem bleibt es aus heutiger Sicht eine Herausforderung, vorherzusehen, wie diese komplexen Systeme mit verschiedenen, untereinander interagierenden Subsystemen handeln.
t3n Magazin: Was bedeutet das genau?
Toby Walsh: Ein Blick aufs autonome Fahren hilft dabei, sich dieser Komplexität zu nähern. In Singapur beispielsweise fahren autonome Taxis auf vorgefertigten Spuren. Im Vergleich zu Googles Strategie basieren diese Taxis auf einem grundlegend anderen Ansatz fürs autonome Fahren. Sie folgen einem recht groben Satz von Regeln – aus einfachen Gründen: Die Entwickler des Systems wollen in der Lage sein, klare Regeln im Sinne von „Passiere nicht die weiße Linie“ oder „bei bestimmten Gegebenheiten nicht überholen“ für diese autonomen Taxis festzulegen. Und sie wollen sicher sein, dass diese Regeln auch zu 100 Prozent eingehalten werden. Wenn es zu einem Unfall kommt, können die Entwickler das System entsprechend interpretieren und genau eruieren, was zu einem bestimmten Fehlverhalten geführt hat. Im Betriebsmodus setzt das Team auch auf Machine und Deep Learning, um Fußgänger zu erkennen oder die Straßenführung wahrzunehmen. Aber auf einer Top-Level-Ebene – überhalb des Codes sozusagen – gibt es klare Regeln, sodass jede Entscheidung jederzeit nachvollziehbar bleibt.
t3n Magazin: Und das Google-Auto?
Toby Walsh: Das ist ein deutlich komplexeres System mit sehr verschiedenen Bestandteilen und es gibt keine expliziten Regeln auf einer übergeordneten Ebene. Es gibt keine explizite Regel, von der wir ausgehen können, dass sie immer zu 100 Prozent eingehalten wird. Was passiert, wenn das System überholt, wenn es das eigentlich nicht tun sollte? Was aber, wenn es durch ein solches Überholmanöver ein Menschenleben rettet? Oder aufgrund eines komplexen Fehlers eben doch einen Menschen anfährt?
t3n Magazin: Das Problem ist also auch die Umgebung, in der die künstliche Intelligenz agieren muss.
Toby Walsh: Exakt. Es sind nicht nur komplexe Systeme, die wir in in ihrer Entscheidungsfindung nicht zu 100 Prozent verstehen. Diese Systeme treffen auch auf komplexe Umgebungen: die uns umgebende Welt. Und genau aufgrund dieser doppelten Komplexität ist es heute fast unmöglich, genaue Vorhersagen zu treffen, wie eine KI sich verhalten wird. Aber genau deshalb ist es so wichtig, dass die Forschung weiter daran arbeitet, die künstlichen Intelligenzen besser zu verstehen – schließlich übernehmen sie immer verantwortungsvollere Aufgabenbereiche. Um es auf den Punkt zu bringen: Sie treffen Entscheidungen über Leben und Tod, wenn sie über die Straße fahren.
t3n Magazin: Wenn es noch solche Schwierigkeiten gibt, ist es dann politisch überhaupt sinnvoll, Technologien wie autonomes Fahren zu erlauben?
Toby Walsh: Bei aller Komplexität der Diskussion: Am Ende dürfen wir nicht die Ziele aus den Augen verlieren, um die es letztlich geht – und die sind überaus positiv. Jedes Jahr sterben tausende Menschen auf deutschen Straßen, eine Million Menschen jedes Jahr weltweit – 95 Prozent dieser Todesfälle werden durch Fahrfehler verursacht. Je schneller wir also schlechte Fahrer aus dem Verkehr ziehen, desto besser. Es wäre schlicht viel sicherer auf den Straßen, wenn wir autonom fahrende Autos hätten. Die herausfordernde Zeit wird sein, wenn sowohl autonom fahrende Autos als auch menschliche Autofahrer sich gleichzeitig auf den Straßen tummeln werden.
t3n Magazin: Warum?
Toby Walsh: Autonom fahrende Autos können untereinander kommunizieren und sich darauf einigen, was in einer konkreten Situation zu tun ist. Die Kommunikation mit einem menschlichen Fahrer ist schwieriger.
t3n Magazin: Reichen die aktuellen Regulatorien überhaupt aus?
Toby Walsh: In meinen Augen nicht. Ich halte es für sehr problematisch, dass die großen Tech-Unternehmen in Kalifornien jetzt ihre autonom fahrenden Autos zertifizieren können. Wir erlauben das in der Luftfahrt nicht und sind hier sehr vorsichtig. Wir sollten auch sehr vorsichtig sein, was wir auf öffentlichen Straßen zulassen. Das Problem bei autonom fahrenden Autos: Es geht um viel Geld. Es ist ein Wettbewerb ausgebrochen, wer das erste autonom fahrende Auto zur Marktreife bringt – das ist die nächste Billionen-Dollar-Industrie. Und es ist überhaupt nicht klar, ob Ford, General Motors oder Mercedes-Benz dieses Rennen gewinnen wird. Genauso gut können Apple, Google oder Tesla die Nase vorn haben.
t3n Magazin: Das zeigt, dass KI die digitale Wirtschaft verändern und die Automatisierung vorantreiben wird. Wie können sich Unternehmen darauf vorbereiten?
Toby Walsh: Unternehmen brauchen heute einen KI-Plan – genauso wie sie vor 20 Jahren einen Internet-Plan und vor zehn Jahren einen Plan für Mobile brauchten. KI-Systeme benötigen eine Vielzahl an Daten, deshalb wäre es ein guter Start, sich die vorhandenen Daten gut anzuschauen. Der zweite Schritt bestünde dann darin, zu entscheiden, welche zusätzlichen Daten gesammelt werden könnten, um Prozesse und Abläufe von Computern erledigen zu lassen.
t3n Magazin: Was wären das für Prozesse beispielsweise?
Toby Walsh: All solche, über die Menschen nicht lange nachdenken müssen. Mit dem Auto eine Straße entlangfahren – darüber müssen wir nicht lange nachdenken. Oder Entscheidungen im Marketing treffen, welches Produkt ich einem spezifischen Kunden anbiete – das sind Entscheidungen, die Unternehmen einer KI überlassen können. Entscheidungen, die viel Nachdenken und Reflektion erfordern, eignen sich hingegen nicht dafür und sollten entsprechend auch nicht in einen KI-Plan einfließen.
t3n Magazin: Wird das nicht viele Menschen den Arbeitsplatz kosten?
Toby Walsh: Es gibt zwei Perspektiven auf die Arbeitsplatzthematik. Auf der einen Seite können Unternehmen darüber nachdenken, welche Jobs sie automatisieren, wie viele Stellen sie entsprechend streichen und wie sie ihr Business so effizienter machen. Das ist aber kein besonders verantwortungsvoller Umgang mit künstlicher Intelligenz. Auf der anderen Seite ließe sich darüber nachdenken, wie es mit Hilfe von KI-Systemen möglich wird, das eigene Business einfach besser zu machen, indem Unternehmen beispielsweise bessere Personalisierungsangebote einrichten und ihren Kunden eine bessere Produkterfahrung bieten – mit den Menschen, die sie bereits beschäftigen und eben nicht mit weniger.
t3n Magazin: Facebook hat mit seinen knapp zwei Milliarden Nutzern eines der größten Daten-Archive der Welt. Zuckerberg investiert massiv in KI. Seine Vision ist es, eines Tages in Echtzeit zu verstehen, was auf der Plattform inhaltlich passiert – vor allem auch, um Missbrauch einzudämmen. Wird das eines Tages möglich sein?
Toby Walsh: Absolut. Ich glaube, dass es die einzige Chance für Facebook ist, über intelligente Maschinen die Milliarden von Updates in den Griff zu bekommen. Und es wird aktuell ein erheblicher Fortschritt gemacht, um genau das zu erreichen. Auf Satz-Ebene – schauen Sie etwa auf Google Translate – lassen sich bereits Übersetzungen realisieren. Auch die Beantwortung einfacher Fragen ist möglich – das ist ja oftmals auch die Basis von Chatbots. Eine KI versteht aber nicht den Sinn einer Konversation, die mehrere Sätze, Absätze oder Seiten umfasst. Dass KIs eines Tages ein tiefe Verständnis von echten Gesprächen erreichen – davon sind wir vermutlich noch Jahrzehnte entfernt.
t3n Magazin: Im Bereich der Textproduktion können KIs schon kurze Texte wie Zusammenfassungen von Fußballspielen oder Finanznachrichten schreiben, die heute auch schon veröffentlicht werden.
Toby Walsh: Ja, das funktioniert. Und solche Systeme schreiben derartige Texte auch deutlich schneller als wir Menschen. Aber was KI-Systeme auf absehbare Zeit nicht leisten können, sind große investigative Geschichten mit 5.000 Wörtern und mehr – der Job des Journalisten wird nicht aussterben. Der Pulitzer-Preis wird für eine sehr lange Zeit weiterhin an Menschen gehen.
t3n Magazin: Wird es überhaupt eines Tages eine künstliche Intelligenz geben, die die Gehirnleistung eines Menschen übersteigt? Der Google-Futurist Ray Kurzweil glaubt an die Singularität, also an einen Zeitpunkt in der Zukunft, ab dem Maschinen die menschliche Intelligenz übertreffen und sich selbstständig weiterentwickeln …
Toby Walsh: Ich bin absolut davon überzeugt, dass wir eines Tages Maschinen bauen werden, die so smart sind wie wir Menschen. Und wenn das möglich sein wird, gibt es auch keinen Grund, dass wir nicht auch Maschinen bauen werden, die sogar intelligenter sind als Menschen. Aber worin ich und viele meiner Kollegen mit Ray Kurzweil nicht übereinstimmen, ist seine These von der Singularität – also dass es einen spezifischen Zeitpunkt in der Zukunft geben wird, an dem die Maschinen anfangen werden, sich zu verbessern und selbst Maschinen zu bauen, die sich wiederum selbst verbessern – also so eine Art Schneeball-Effekt auslösen. Und dass dieser Zeitpunkt dann die von Kurzweil beschriebene Singularität ist, bei der sich die Intelligenz in gewisser Weise verselbstständigt. Es ist ja nicht so, dass wir eines Tages aufwachen und plötzlich die intelligenten Maschinen vor unserer Tür stehen. Es wird ein sehr langsamer, harter Prozess werden. Und die Milliarden US-Dollar, die aktuell in die KI-Entwicklung fließen, werden uns definitiv darin unterstützen, Maschinen mit menschenähnlicher Intelligenz zu bauen – aber es wird eben sehr viel Zeit und Arbeit in Anspruch nehmen.
t3n Magazin: Wenn Maschinen intelligenter sind als Menschen, wozu braucht es uns dann eigentlich noch?
Toby Walsh: Wenn wir Maschinen erschaffen, die intelligenter sind als wir, dann wird das in der Tat ein bedeutender Moment für uns Menschen sein – weil wir bisher eben die intelligenteste Spezies auf der Erde sind. Wir sind nicht die schnellste, nicht die stärkste, aber eben die intelligenteste Spezies – weshalb wir auch unsere Umwelt dominieren. Sollte das irgendwann einmal nicht mehr der Fall sein, dann wird das sicher ein interessanter Zeitpunkt in unserer Geschichte und Evolution, der zu einem tieferen Nachdenken über unsere Existenz führen wird und uns hoffentlich auch Demut lehrt. Und es wird auch unsere Gesellschaft radikal verändern, wenn Maschinen bessere Entscheidungen treffen als wir. Ich hoffe, dass wir diese Entwicklung positiv gestalten werden.
t3n Magazin: Aber der Mensch ist doch mehr als sein Gehirn, er hat auch einen Körper und ist beispielsweise schlecht gelaunt, weil es seit Wochen regnet oder euphorisch, weil die Sonne scheint und er die warmen Sonnenstrahlen auf der Haut spürt. Werden Maschinen jemals so etwas wie ein Bewusstsein oder Gefühle erlangen?
Toby Walsh: Das sind in der Tat tiefgründige Fragen, die wir nicht beantworten können. Wir wissen bis heute nicht, was Bewusstsein oder Empfindungen eigentlich genau sind. Das menschliche Gehirn ist ein hoch faszinierendes „Ding“, es ist das komplexeste System, das wir in unserem Universum kennen. Nichts kann es bisher mit den Milliarden von Neuronen, den Billionen von Verbindungen und Synapsen im menschlichen Gehirn aufnehmen. Und es braucht lediglich 20 Watt an Leistung für den Betrieb, was die atemberaubendste Ingenieurskunst der Evolution ist. Es waren Millionen von Jahren nötig, um sie zu erreichen. Es kann deshalb durchaus sein, dass wir intelligente Maschinen erschaffen, die niemals Bewusstsein oder Empfindungen haben werden. Oder aus der Komplexität der Systeme erwacht eine Art Bewusstsein. Das sind die großen und noch unbeantworteten Fragen der Wissenschaft.