Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

Interview

„Manche Maschinen sind Menschen – philosophisch gesehen“

(Bild: Shutterstock / PHOTOCREO Michal Bednarek)

Als zeitgenössischer Philosoph plädiert der australische Denker Huw Price für ein Innehalten: Wir müssen zunächst einmal verstehen, was unsere menschliche Intelligenz ist, bevor wir weiter über künstliche Intelligenz sprechen.

Der australische Philosoph Huw Price ist Professor an der Fakultät für Philosophie in Cambridge und akademischer Direktor des Centre for the Future of Intelligence. Das Vodafone-Institut sprach mit ihm über den Einfluss künstlicher Intelligenz auf die Politik und die Gesellschaft. Bisher, sagt er, gehört die Zukunft uns, nicht den Maschinen – denn nur der Mensch ist in der Lage, sich Szenarien in der Zukunft vorzustellen.

Sprechen wir über das Centre for the Future of Intelligence – über welche Art von Intelligenz reden wir hier?

Huw Price: Aus einer leicht skeptischen Sichtweise fragen die Leute: „Wir wissen nicht einmal, was Intelligenz ist. Wie können Sie vorschlagen, ein Zentrum über deren Zukunft zu gründen?“ Meine Antwort darauf lautet: Lasst uns nicht darüber nachdenken, was Intelligenz ist, sondern was Intelligenz tut. Es gibt Dinge an uns, die dafür verantwortlich sind, dass wir die erfolgreichste Spezies auf dem Planeten sind. Was auch immer das ist, es ist – zumindest im Prinzip – auch für Maschinen möglich. Was auch immer diese spezifisch humanoiden Inhaltsstoffe in uns sind, sie existieren nicht in anderen Spezies.

Huw Price ist Bertrand-Russell-Professor für Philosophie in Cambridge und akademischer Direktor des Leverhulme Centre for the Future of Intelligence. (Foto: Huw Price)

Nehmen wir die aktuelle Debatte über Fake News und die Suche nach Wahrheit, in der wir darüber diskutieren, was eine Tatsache ist und was nicht. Gibt es eine Überschneidung zwischen Logik und Intelligenz?

Ich denke, dass logisches Denken eher ein Aspekt der Intelligenz ist. Es ist eine raffinierte Form des symbolischen Denkens, eindeutig eine Schlüsselkomponente der Intelligenz. Aber ich denke, Intelligenz ist viel breiter als echte Logik.

„Eine Maschine müsste eine Szenarioplanung machen, wenn sie sich wie ein Mensch verhalten wollte.“

Was ist dann der Unterschied, die Besonderheit der beiden?

Wir können problemlos sagen, dass es die Intelligenz ist, die uns von anderen Tieren unterscheidet und die für den Aufstieg verantwortlich ist, den wir Menschen im Moment auf dem Planeten vollziehen. Und das können wir mit Zuversicht sagen, ohne zu wissen, was die verschiedenen Bestandteile der Intelligenz sind. In gewisser Weise ist Logik lediglich eine Art Abstraktion von einem Aspekt symbolischer Argumentationsprozesse.

Müssen Maschinen unsere Vorstellungskraft erlernen, um uns ähnlicher zu werden? Ist das das entscheidende Element?

Eine Maschine müsste eine Szenarioplanung machen, wenn sie sich wie ein Mensch verhalten wollte. Aber das ist oft gar nicht nötig. Ein Netzwerk von Maschinen ist in einem anderen Sinne auch nur eine einzige Maschine. Ich glaube nicht, dass es einen großen Unterschied machen würde, wie wir die Maschinen gestalten.

Was werden wir in den nächsten zehn Jahren sehen?

Wir werden viel mehr Menschen sehen, die über die langfristige Zukunft der künstlichen Intelligenz nachdenken. Darüber, wohin uns diese Technologie führt, wo die Chancen liegen, wo wir etwas bewegen können. Meiner Ansicht nach müssen wir jetzt vor allem die Gemeinschaft der Menschen, die über diese Fragen nachdenken, erweitern. Insbesondere müssen wir junge Menschen aus vielen verschiedenen Bereichen finden, Menschen, die ihr Berufsleben damit verbringen werden, über diese Themen nachzudenken. Menschen, die wirklich einen Unterschied machen werden, wie sich dieser Übergang in ein Maschinenzeitalter gestalten wird, in dem wir den Planeten mit nicht-biologischer Intelligenz teilen. Und genau diese Menschen werden es sein, die die wichtigen Entscheidungen treffen.

Das Szenario ist also, dass wir unseren Lebensraum mit nicht-biologischer Intelligenz teilen werden?

Ja, auf jeden Fall. Wir haben eine sehr unklare Vorstellung davon, was die Fähigkeiten dieser Maschinen sein werden, aber wir können ziemlich sicher sein, dass die meisten Dinge, die wir mit unserem Gehirn tun können, auch Dinge sind, die Maschinen tun können werden. Und es kann gut sein, dass sie Dinge tun können, an die wir noch nicht einmal gedacht haben.

Ist das eine utopische oder dystopische Idee für Sie?

Ich denke, dass es an beiden Enden des Spektrums Möglichkeiten gibt, über die man nachdenken sollte. Wir müssen nicht nur darüber nachdenken, was auf der Sicherheitsseite zu tun ist, um die dystopischen Möglichkeiten zu vermeiden, sondern auch die Bandbreite der Möglichkeiten zum utopischen Ende des Spektrums zu klären. Es kann durchaus sein, dass die Technologie unterschiedliche Wege gehen kann, die in mancher Hinsicht gut und in anderer Hinsicht schlecht sein können. Daher scheint es klug zu sein, ein Ziel zu bestimmen, bevor wir diesen Weg einschlagen.

Ich möchte damit sagen, dass es einen wichtigen Unterschied zwischen der Entwicklung eines selbstfahrenden Autos und der Frage nach der Zukunft der künstlichen Intelligenz gibt. Im Falle des selbstfahrenden Autos wollen Sie etwas, das Sie effizient von A nach B bringt. Im Falle der künstlichen Intelligenz haben wir im Allgemeinen keine Ahnung, wo es eingesetzt wird und noch alarmierender ist, dass wir keine Ahnung haben, was die möglichen Ziele sind.

Was sind für Sie als Philosoph die faszinierendsten Fragen, die sich aus dieser Entwicklung ergeben?

Ich denke, dass einige der philosophisch interessantesten Fragen sich darauf beziehen, ob die Maschinen jemals eine Einheit sein werden, von der wir denken, dass sie ihre eigenen Interessen hat. Für viele Menschen hängt dies davon ab, ob Maschinen irgendwann einmal bewusst sein werden – was auch immer das bedeutet. Und es gibt eine Reihe von Fragen, ob unsere eigene Zukunft als Mensch ganz auf der biologischen Seite bleibt oder ob wir irgendwann die Möglichkeit haben, uns vielleicht so zu verbessern, dass wir zu Hybriden werden, teils biologisch, teils nicht. Dadurch hätten wir Zugang zu einer größeren Bandbreite an Fähigkeiten. Zum Beispiel könnten wir sofort auf viel mehr Daten zugreifen.

„Ein generelles Desinteresse, Gott zu spielen, wird uns nicht vom Haken lassen – denn machen müssen wir es sowieso.“

Dann denken einige Leute, dass es Szenarien gibt, in denen wir völlig unbiologisch werden. Wir laden uns in Computer oder dergleichen hoch. Es gibt also eine Menge faszinierender langfristiger Probleme in diesem Bereich und es könnte sich herausstellen, dass einige von ihnen wahr werden. Insbesondere die Frage, ob wir wollen, dass die Maschinen Werkzeuge oder Instrumente bleiben – etwas, das Sie ein- oder ausschalten können, ohne sich Gedanken über den moralischen Status der Maschine zu machen, etwa so, wie Sie mit Ihrem Staubsauger umgehen. Manche Menschen gehen davon aus, dass das die Art von Zukunft ist, die wir uns von der künstlichen Intelligenz wünschen. Egal wie schlau sie sind, sie sehen sie einfach als Werkzeuge. Andere denken, dass der natürliche Weg in die andere Richtung geht und wir Menschen daher in einer Welt leben würden, in der Maschinen moralische Mittler sind. Und es könnte sich herausstellen, dass dies auch Auswirkungen auf die Sicherheit hat.

Gegner der Entwicklung der künstlichen Intelligenz argumentieren, dass wir nicht Gott spielen sollten. Was halten Sie als Philosoph davon?

Ich denke, wir sollten vorsichtig sein, wenn wir Gott spielen. Aber wir sollten erkennen, dass das Leben uns manchmal mit Entscheidungen konfrontiert, die wir einfach treffen müssen. Die Entscheidung, ob wir bewusstseins- oder leidensfähige Maschinen bauen wollen, ist eine Entscheidung, die wir treffen müssen, ob wir wollen oder nicht. Ein allgemeines Desinteresse, daran Gott zu spielen, nimmt uns nicht die Entscheidung ab – weil wir es sowieso tun müssen.

Dieser Auszug des Interviews ist Teil der Publikation „Entering a New Era: The Impact of Artificial Intelligence on Politics, the Economy and Society“ des Vodafone-Instituts für Gesellschaft und Kommunikation. Die gesamte Sammlung ist dort als PDF downloadbar.

Bitte beachte unsere Community-Richtlinien

Schreib den ersten Kommentar!

Du musst angemeldet sein, um einen Kommentar schreiben zu können.

Jetzt anmelden

Finde einen Job, den du liebst