Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

t3n 48

Grundsatzfragen der künstlichen Intelligenz: Wie lange können wir den Maschinen noch trauen?

Wenn maschinelle Intelligenz die des Menschen übertrifft, hat das Folgen für unsere gesamte Gesellschaftsordnung, glaubt Toby Walsh: „Ein interessanter Zeitpunkt in unserer Geschichte und Evolution.“

(Foto: Toby Walsh)

Toby Walsh bringt Computern bei, bessere Entscheidungen zu treffen. Uns erklärt er, was künstliche Intelligenz von menschlicher unterscheidet, woran es bei KI-Systemen derzeit noch hapert.

Künstliche Intelligenz soll das menschliche Leben verbessern und ihm nicht schaden – das ist das Mantra von Toby Walsh, einem der weltweit führenden KI-Forscher. Er leitet ein KI-Forschungsteam an der Universität New South Wales in Sydney und hat zahlreiche Forschungsprojekte auf der ganzen Welt verantwortet. 2015 war er Mit-Initiator eines offenen Briefs, der ein Verbot von autonomen Waffen forderte und von über 20.000 KI-Forschern unterschrieben wurde – darunter hochkarätige Wissenschaftler, Unternehmer und Intellektuelle wie Stephen Hawking, Noam Chomsky, Steve Wozniak und Elon Musk.

t3n Magazin: Im Januar hat eine künstliche Intelligenz vier der besten Poker-Spieler geschlagen - zum ersten Mal. Warum hat das so viel länger gedauert als beispielsweise be Schach oder Go?

Toby Walsh: Bei Spielen wie Schach oder Go haben wir bereits KI-Systeme gesehen, die die menschliche Performance deutlich überstiegen. Aber beim Schach oder auch bei Go haben die Spieler und die KI alle Informationen, die für das Spiel relevant sind, offen vor sich: den Spielplan und die Schachfiguren zum Beispiel. Es gibt keine versteckten Informationen, es gibt keine Ungewissheiten. Das ist aber die besondere Herausforderung bei Poker: Es geht darum, Eventualitäten einzuschätzen, Ungewissheiten abzuwägen und Risiken einzugehen – Fähigkeiten, die auch im realen Leben ständig gefragt sind. Das sind enorme Herausforderungen für eine künstliche Intelligenz.

t3n Magazin: Wie viele KI-Systeme sind denn bei dem Pokerspiel angetreten?

Toby Walsh: Es waren zwei: Ein Deep-Learning-Bot der Universität of Alberta und ein KI-System der Carnegie Mellon University, das konventionellere Machine-Learning-Ansätze verfolgte. Aber beide haben von Grund auf gelernt, wie Pokern funktioniert. Ihnen wurde nicht erklärt, was Bluffen ist – sie haben es einfach irgendwann gemacht.

t3n Magazin: Und wir Menschen stehen dabei nicht unbedingt, wie eine künstliche Intelligenz ihre Lösung erarbeitet. Wie kann das sein?

Toby Walsh: Um das zu erklären, muss ich etwas ausholen und ein Beispiel anführen: Fliegen. Wenn wir Menschen lernen wollen zu fliegen, könnten wir einfach versuchen, bis ans Ende der Flugbahn zu laufen und dann mit den Armen weiterzuflattern. Aber das ist eben nicht das, was wir gemacht haben. Wir haben eine Ingenieurslösung erdacht, um das Problem „Fliegen“ zu lösen – wir haben die Tragfläche erfunden. Und wir erfanden sehr mächtige und komplexe Maschinen und können mittlerweile besser fliegen als Vögel. Mittlerweile ist es uns möglich, in 24 Stunden um den gesamten Globus zu fliegen. Dabei haben wir nie versucht, das dynamische Zusammenspiel zwischen Federn und flatternden Flügeln nachzuahmen. Wenn wir Menschen das versucht hätten, würden wir vermutlich immer noch nicht fliegen – denn bis heute lässt sich nicht zu 100 Prozent verstehen, wie Federn funktionieren und wie Vögel es schaffen, zu fliegen.

t3n Magazin: Und am Ende ist es egal, wie das Fliegen realisiert wird.

Toby Walsh: Ganz genau. Hinter diesen zwei sehr unterschiedlichen Lösungen des einen Problems „Fliegen“ stecken die gleichen fundamentalen Gesetze der Aerodynamik in der Flugphysik – nur sind wir Menschen einem anderen Lösungsansatz gefolgt. Wir können also nicht davon ausgehen, dass künstliche Intelligenz zwangsläufig die gleichen Lösungsansätze verfolgt wie wir Menschen als Vertreter einer biologischen Intelligenz. Aber auch hier gelten die gleichen fundamentalen Gesetze der Intelligenz.

t3n Magazin: Aber ist es nicht ein ethisches Problem, wenn wir nicht nachvollziehen können, wie eine KI zur ihrer Lösung kommt?

Toby Walsh: Das ist in der Tat eine der größten Herausforderungen unserer heutigen Zeit. Diese zwei KI-Systeme können nicht erklären, warum sie bestimmte Entscheidungen getroffen haben. Wenn es sich um ein Spiel wie Poker handelt, fragst du dein Gegenüber auch nicht unbedingt, warum er sich für eine bestimmte Wette in einer Partie entschieden hat. Wenn du hoch setzt und gewinnst – super. Oder du verlierst eben. Aber wir gehen zunehmend dazu über, Maschinen auf Basis solcher Algorithmen Entscheidungen zu überlassen, die unser Leben betreffen: über unsere Kreditwürdigkeit, unseren Facebook-Newsstream, unsere Google-Suchergebnisse oder unsere Versicherungsprämien. Und wir wollen Systeme, die ihre Entscheidungen erklären können. Dabei wissen wir heute gar nicht, wie wir solche Systeme bauen können.

t3n Magazin: Klingt ein wenig beängstigend.

Toby Walsh: Diese KI-Systeme sind noch immer Black Boxes. Wir arbeiten daran, mehr Transparenz zu schaffen, aber es bedarf noch viel Forschung.

t3n Magazin: Und was passiert eigentlich, wenn eine KI sich selbst Ziele setzt?

Toby Walsh: Eins muss ich klarstellen: Computer folgen nur Regeln. Sie haben nicht die Fähigkeit, Regeln zu brechen oder eigene Entscheidungen zu treffen. Alpha Go wird nur Go spielen und den entsprechenden Regeln folgen. Die KI wird nicht irgendwann feststellen, dass es Go langweilig findet und dann stattdessen Poker spielen. Dazu ist sie nicht in der Lage. Trotzdem bleibt es aus heutiger Sicht eine Herausforderung, vorherzusehen, wie diese komplexen Systeme mit verschiedenen, untereinander interagierenden Subsystemen handeln.

t3n Magazin: Was bedeutet das genau?

Toby Walsh: Ein Blick aufs autonome Fahren hilft dabei, sich dieser Komplexität zu nähern. In Singapur beispielsweise fahren autonome Taxis auf vorgefertigten Spuren. Im Vergleich zu Googles Strategie basieren diese Taxis auf einem grundlegend anderen Ansatz fürs autonome Fahren. Sie folgen einem recht groben Satz von Regeln – aus einfachen Gründen: Die Entwickler des Systems wollen in der Lage sein, klare Regeln im Sinne von „Passiere nicht die weiße Linie“ oder „bei bestimmten Gegebenheiten nicht überholen“ für diese autonomen Taxis festzulegen. Und sie wollen sicher sein, dass diese Regeln auch zu 100 Prozent eingehalten werden. Wenn es zu einem Unfall kommt, können die Entwickler das System entsprechend interpretieren und genau eruieren, was zu einem bestimmten Fehlverhalten geführt hat. Im Betriebsmodus setzt das Team auch auf Machine und Deep Learning, um Fußgänger zu erkennen oder die Straßenführung wahrzunehmen. Aber auf einer Top-Level-Ebene – überhalb des Codes sozusagen – gibt es klare Regeln, sodass jede Entscheidung jederzeit nachvollziehbar bleibt.

Bitte beachte unsere Community-Richtlinien

Schreib den ersten Kommentar!

Du musst angemeldet sein, um einen Kommentar schreiben zu können.

Jetzt anmelden