Anzeige
Anzeige
News
Artikel merken

Künstliche Intelligenz: Ein Mythos als Religion

Es gibt seit Jahrhunderten eine große Angst: Künstliche Intelligenz in Maschinen könnte Bewusstsein entwickeln und eines Tages aus rein rationalen Gründen keine Menschen mehr wollen – und dann unsere Zivilisation auslöschen. Davor aber müssen wir keine Angst haben, sagt Ralf Wienken. Maschinen werden in absehbarer Zeit keine menschlichen Eigenschaften entwickeln.

Von Ralf Wienken
8 Min. Lesezeit
Anzeige
Anzeige

(Foto: Shutterstock/Ociacia)

Die Farbe Blau

Blau eines der Dinge ist, die man nicht erklären kann. (Foto: Shutterstock/Buslik)

Blau ist eines der Dinge, die man nicht erklären kann. (Foto: Shutterstock/Buslik)

Stell dir vor, du hast einen Freund mit einem Sehfehler – er kann keine Farben sehen. Nun empfindest du das als echten Nachteil, auch wenn der Freund gar nicht genau weiß, was du willst, denn er kommt im alltäglichen Leben einigermaßen gut klar. Er weiß, dass er Defizite hat, aber er kann sich damit arrangieren. Dennoch willst du ihm die Farben erklären – und zwar an dem Beispiel Blau. Du bemühst dich wirklich, aber irgendwann bemerkst du, dass du keine Chance hast. Er versteht es einfach nicht. Nach einer Weile wird dir auch klar warum: weil Blau eines der Dinge ist, die man nicht erklären kann. Man kann es nur erfahren, dann ist es ganz einfach und schnell. Und bedarf keiner Erklärung.

Anzeige
Anzeige

„Blau ist eines der Dinge, die man nicht erklären kann. Man kann es nur erfahren.“

Bei der ersten Erfahrung der Farbe ist der Begriff Blau noch gar nicht beteiligt. Er wird im Nachhinein vom Gehirn vergeben und unter dieser Bezeichnung im Gedächtnis abgespeichert. Ab dann dient er der schnellen Kommunikation über Blau. Aber wohlgemerkt: Er ist nicht die Farbe. Der Begriff kann die Erfahrung nicht ersetzen und ist ohne das Erlebnis völlig sinnlos. Das hat sich an den Bemühungen um den Freund gezeigt. Alle Erklärungen waren nur begrifflich. Da der Freund nicht die Erfahrung von Blau gemacht hat, hat es ihm überhaupt nichts geholfen.

Das Beispiel von Blau ist hilfreich, wenn man sich für Künstliche Intelligenz interessiert. Auch hier ist es so, dass niemand weiß, was das ist – und insofern ist sie kaum erklärbar. Wir können nur bestimmte Phänomene beobachten, sie beschreiben und ihnen dann den Begriff Intelligenz zuordnen. Es ist auch so, dass Intelligenz bei Lebewesen nur im Zusammenhang mit bestimmten Konzepten existiert. Die wichtigsten sind Bewusstsein, freier Wille und das Ich als Person (das Selbst). Sie sind immer mitgedacht, wenn von Intelligenz die Rede ist. Es könnte sogar sein, das sie Aspekte derselben Sache sind und in Wirklichkeit gar nicht getrennt.

Anzeige
Anzeige

Jedenfalls ist es bei all diesen Konzepten genau wie mit Blau: Sie können nur erfahren, nicht aber erklärt werden. Wenn sie erfahren wurden, ist es möglich, sie mit der Hilfe von Begriffen im Gedächtnis zu speichern, über sie nachzudenken und sinnvoll darüber zu reden. Aber kein Begriff kann die Erfahrung ersetzen.

Anzeige
Anzeige

Nehmen wir zum Beispiel das Bewusstsein. Jeder weiß, dass er bewusst ist, aber keiner kann sagen, was das ist. Es gibt eine unbestreitbare Erfahrung davon in jedem von uns, jedenfalls wenn man nicht gerade schläft oder narkotisiert ist. Denn man kann immer sagen: Ich existiere. Und: Ich weiß, dass ich existiere. Dennoch kann man dieses Phänomen nicht erklären, weil es keine Eigenschaften hat. Man kann nicht sagen, wie alt es ist, wo seine Grenzen sind, wo genau es sich befindet oder welche Farbe es hat. Versuch es selbst mit einem einfachen Test. Frag dich, wie alt es ist, ohne dabei Begriffe zu benutzen. Du wirst keine Antwort finden.

Künstliche Intelligenz

Wenn ein Computer eines Tages durch Künstliche Intelligenz typische Eigenschaften des menschlichen Gehirns bekommen sollte, wäre das ein völlig neues Phänomen, das es noch nie zuvor gegeben hat. Ich meine damit solche Eigenschaften wie die, die oben erwähnt wurden, nämlich Intelligenz, Bewusstsein, freier Wille oder das Selbst. All diese Dinge aber sind nicht definier- und nicht erklärbar. Man kann sie nur erfahren und dann nachträglich in Begriffe gießen, um sie im Gedächtnis abzuspeichern. Als Begriffe sind sie Konstrukte des Gehirns, die zur Kommunikation benutzt werden – so wie Blau. Sie sind aber nicht die subjektive Erfahrung.

Anzeige
Anzeige

„Ein Hammer ist geeigneter, einen Nagel einzuschlagen als die Hand, und ein Auto ermöglicht schnellere Transporte als die Füße.“

Man muss diese Begriffe aber gar nicht genau definieren und es ist auch nicht klar, ob die Liste vollständig ist. Darum geht es aber auch gar nicht. Es geht darum zu zeigen, dass ein Gehirn kein digitaler Computer ist und Intelligenz kein Algorithmus. Das Gehirn ist höchstwahrscheinlich nicht mal ein analoger Computer, denn es bezieht Dinge wie Emotionen, Bewusstsein oder das Ich mit ein, die nicht als Berechnungen charakterisiert, sondern eher als Erfahrungen bezeichnet werden können.

Die bisherigen Erfolge der Künstlichen Intelligenz sind nicht zu leugnen. Aber sie resultieren nicht daraus, dass da eine Intelligenz am Werke ist, sondern daraus, dass die Rechenvorgänge immer schneller und die Datenbasen immer umfangreicher werden. Was wir also haben werden, sind Maschinen mit imitierter Intelligenz, die immer besser werden. Aber diese Maschinen sind nicht qualitativ etwas anderes, sondern sie sind besser im Gleichen, so wie ein Werkzeug besser ist als die menschliche Grundausstattung. Ein Hammer ist geeigneter, einen Nagel einzuschlagen als die Hand, und ein Auto ermöglicht schnellere Transporte als die Füße.

Es ist durchaus vorstellbar, dass computergesteuerte Maschinen, die autonom navigieren können, eines Tages solch perfekte Waffen werden, dass sie uns alle vernichten. Aber das wäre nichts Weiteres als die Perfektion einer Technik, die es schon lange gibt. Und auch die Möglichkeit der kompletten Vernichtung existiert schon länger, nämlich in Form der Atombomben. Warum aber dann diese irrationale Angst vor Künstlicher Intelligenz? Was ist das Besondere daran, wenn sie doch nichts Besonderes ist, sondern nur auf immer perfekteren Rechenvorgängen basiert? Es ist die religiöse Überhöhung, die damit verbunden ist, und das gibt dem Thema seine Schärfe.

Anzeige
Anzeige

Der Mythos

Wir vermenschlichen Haustiere, und wir vermenschlichen Computerprozesse. Dabei brauchen wir nur einen Anknüpfungspunkt für eine angenehme Emotion – dass der Hund so süß schaut, wenn er etwas von uns will, dass die Katze schnurrt, wenn man sie streichelt. Dann bekommen die Tiere ihre Leckerli, obwohl ihnen völlig egal ist, was sie fressen, solange es zum Metabolismus ihres Körpers passt. Zumal sie Augenblicke später sowieso schon wieder vergessen haben, was es zum Frühstück gab.

„Wenn der Roboter lächelt, sobald er uns das Telefon reicht, können wir gar nicht anders als eine angenehme Emotion zu haben und eine Beziehung aufzubauen.“

Ähnlich ist es mit Maschinen. Wenn der Roboter lächelt, sobald er uns das Telefon reicht, können wir gar nicht anders als eine angenehme Emotion zu haben und eine Beziehung aufzubauen. Wenn wir von Siris kleinen Eskapaden mal abgesehen. Cortana und Siri werden liebste Gesellschafter, und sind auch noch billiger im Unterhalt als Hund und Katze.

Die Kraft der Vermenschlichung bringt uns dazu, Sprachsoftware oder Roboter als Personen zu betrachten und so mit ihnen umzugehen, als wären sie menschlich. Natürlich wird das vom Marketing bei Microsoft oder Apple nach Kräften unterstützt. In Wirklichkeit steht hinter ihnen ein unglaublich komplexes Netzwerk, dem man keinen Ort zuordnen kann und das auf der untersten Ebene aus den kontrollierten Bewegungen von Elektronen besteht. Cortana und Siri sind Big-Data-Anwendungen, also algorithmus-gesteuerte Datenverarbeitung auf der Basis eines Riesenhaufens von Daten. Sie sind keine Person.

Anzeige
Anzeige

Beim Thema Künstliche Intelligenz kommt bei der Vermenschlichung ein weiterer Faktor hinzu: die religiöse Überhöhung. Es ist der Mythos von der Künstlichen Intelligenz – nicht mehr nur als Übermensch, sondern als gottähnliches Wesen, das uns gefühlsverwirrten Menschen die Erlösung bringt. Auf diese religiösen Züge hat Jaron Lanier kürzlich in einer Veröffentlichung auf edge.org hingewiesen, in der er vorherrschende Konzepte von Künstlicher Intelligenz kritisiert. Es existiert, so Lanier, in der aktuellen Diskussion die Vorstellung eines Endzeitzustandes, ab dem die Göttlichkeit übernimmt und der Mensch erlöst ist. Das ist die sogenannte Singularität, in der durch Fortschritte in der Computertechnik ein technologisches Abbild des menschlichen Gehirns entsteht. Dazu gehören die entsprechenden Phänome wie Intelligenz, Bewusstsein, das Selbst und ein freier Wille. Sie entstehen emergent, das heißt, sie sind etwas völlig Neuartiges, das aus den Anfangsbedingungen nicht herleitbar ist. Das ist so ähnlich wie die Vorstellung der Entstehung von Leben durch die Mischung von Molekülen und Energie.

Lanier charakterisiert die quasi-göttliche Person, die da in der Vorstellung entsteht, als ein Überwesen, das man fürchten und lieben muss. Man fühlt sich geborgen und belohnt, kann es anbeten und ist voll von erschrockener Ehrfurcht und festem Glauben. Das klingt vielleicht etwas esoterisch, hat aber ernsthafte Folgen. Ökonomisch gesehen haben solche religiösen Vorstellungen viel Schaden angerichtet, denn die Gläubigen waren immer bereit, der jeweiligen Gottheit zu dienen, während sie in Wirklichkeit eine Elite unterstützten – Priester beispielsweise. Man denke nur an die unglaublichen Ressourcen, die in den Bau von Kathedralen gesteckt wurden. Den Leuten wurde erzählt, es wäre für ihr Seelenheil, aber in Wirklichkeit waren sie Schachfiguren in der Machtpolitik der Elite.

Lanier weist darauf hin, dass es hier eine erstaunliche Parallele zu Prozessen gibt, von denen große Internetfirmen profitieren. Sie sind die neue Elite. Zum Beispiel wird Googles Übersetzungsprogramm von vielen Teilnehmern mit Daten gefüttert, die dafür aber nicht bezahlt werden. Man appelliert an die Leute, dass damit allen geholfen ist, dass jeder von guten Übersetzungen profitiert und dass das nichts mit Google selbst zu tun habe. Aber in Wirklichkeit profitiert der Konzern.

Anzeige
Anzeige

Künstliche Intelligenz: Entspannen wir uns

kathedrale

Künstliche Intelligenz und Religion: Es gibt Parallelen. (Foto © Worakit Sirijinda – Fotolia.com)

Der Mythos der künstlichen Intelligenz besteht also darin, ihr menschliche Eigenschaften zuzuschreiben – und in ihrer religiösen Überhöhung. Wie wir gesehen haben, sind die menschlichen Eigenschaften eher Erfahrungen als reale Dinge. In der aktuellen Diskussion werden sie deshalb zu mythischen Begriffen ohne wirkliche Substanz, die auf eine zukünftige Künstliche Intelligenz projiziert werden. Keiner weiß, was sie bedeuten. Sie können deshalb nicht als Grundlage für die Bezeichnung als Künstliche Intelligenz hergenommen werden.

„Wenn Künstliche Intelligenz als Waffe eingesetzt wird, ist das ein politisches Problem, kein religiöses.“

Die religiöse Überhöhung derKünstlichen Intelligenz als eine quasi-göttliche Person hat die Kehrseite, dass sie Angst und ökonomischen Schaden erzeugt. Es nicht die Künstliche Intelligenz, die das macht – sie ist nur ein Werkzeug. Es ist der Mythos, den wir auf die Künstliche Intelligenz projizieren, der dafür verantwortlich ist. Es ist derselbe Mechanismus wie in früheren Jahrhunderten in der Religion. Leider hat dieser Mythos den Nachteil, dass man ihm schwer auf der realen Ebene begegnen kann. Gläubige wird es immer geben – und einem Glauben ist schwer beizukommen.

Realistisch gesehen beruhen die Erfolge der Künstlichen Intelligenz auf immer mehr vom Gleichen, nämlich immer mehr gesteigerter Rechenkraft. Deshalb ist Künstliche Intelligenz eine Technik. Techniken aber sind Werkzeuge, und wenn sie als übermächtige autonome Waffen eingesetzt werden, ist das ein politisches Problem, kein religiöses. Auf dieser Ebene muss das Problem dann auch gelöst werden. Es ist gut, vor solchen Waffen Angst zu haben, so wie vor der Atombombe. Aber man sollte quasi-religiöse Überzeugungen außen vor lassen.

Anzeige
Anzeige

Zugegeben: Da es nichts gibt, was es nicht gibt, kann man auf lange Sicht nicht ausschließen, dass eine gottähnliche Künstliche Intelligenz nicht doch irgendwann auftaucht. Aber bis dahin wird eine lange Zeit vergehen – wenn es denn geschieht. Überhaupt: Was machen wir uns für Sorgen über die Maschinen. Es sind nicht Maschinen, die Menschen töten. Es sind Menschen, die Menschen töten, und es sind Menschen, die die Menschheit auslöschen. Es gibt wirklich Dringenderes zu tun als über emergente Phänomen in Computern nachzudenken. Es wird in absehbarer Zeit keine Machtübernahme bösartiger Maschinen mit einer überlegenen Superintelligenz geben. Zumindest in Bezug auf die Künstliche Intelligenz also können wir entspannen.

Über den Autor

ralfwienkenDr. Ralf Wienken ist technischer Redakteur. Er ist verantwortlich für den Bereich technische Kommunikation bei X-info, einem Unternehmen, das sich unter anderem um die Entwicklung von Applikationen für den industriellen Bereich kümmert.

Mehr zu diesem Thema
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
18 Kommentare
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

René Gast

Die Krux an der starken KI-These, die diese Ängste schürt, ist ja, dass es keinerlei brauchbare Ansätze gibt, Bewusstsein zu erklären. Die Neurowissenschaften mögen das mitunter für sich zwar beanspruchen. Einen wirklichen Ansatz aber haben sie dennoch nicht. Hierzu habe ich mal einen sehr guten Artikel von Ansgar Beckermann gelesen, den ich noch als Professor für Philosophie an der Universität Bielefeld kenne. In seinem Text, den ich leider nicht mehr finde (falls Interesse besteht, suche ich ihn gerne heraus), bezieht er sich auf diese Ansätze und zeigt auf, weshalb sie als brauchbare Erklärungsversuche für das Bewusstsein nichts taugen.

Mit anderen Worten: Es gibt fast nur Vertreter einer schwachen KI-These, denen es darum geht, kognitive Vorgänge zu simulieren, zu verstehen, und Hilfsmittel für Medizin und Technik zu entwickeln.

Und das wird mindestens so lange der Fall sein, bis das Bewusstsein entschlüsselt werden kann – was noch eine ganze Weile dauern könnte!

Antworten
Ralf Wienken

Hallo rene_gast,

ja, den Artikel hätte ich gerne, wenn möglich. Ich war übrigens auch an dieser Fakultät in Bielefeld damals.

Gruß

Ralf

Antworten
René Gast

Hallo Ralf,

dann könnten wir vermutlich über den einen oder anderen Dozenten herziehen;-) Nein, im Ernst, die meisten von ihnen waren ganz großartig.

Ich meine, nun auch den entsprechenden Artikel gefunden zu haben (es ist halt schon ein wenig her):

Beckermann, Ansgar (1996). Können mentale Zustände neurobiologisch erklärt werden? In G. Roth & W. Prinz (Ed.), Kopf-Arbeit. (pp. 413-425). Heidelberg [u.a. : Spektrum, Akad. Verlag.

Ein PDF findest du recht weit unten auf der Seite http://www.uni-bielefeld.de/philosophie/personen/beckermann/xbiblio.html

blau

Netter Artikel, aber die „Anti-KI“ Front begeht, ähnlich wie viele KI-Enthusiasten, einen entscheidenden Fehler:
Als Vergleich wird immer die menschliche Intelligenz zu Grunde gelegt. Aber wer sagt denn dass eine KI „menschlich“ denken, fühlen und „wahrnehmen“ wird? Sie wird eben keine Kopie des menschlichen Bewusstseins werden, sondern eine eigene „Art“ des Denkens und Wahrnehmens entwickeln. Von daher ist es gar nicht notwendig, die Bedingung für eine KI an dem Verstehen der Farbe „blau“ zu messen. Es ist eine vollwertige KI vorstellbar, die kein Verstehen von Farben (Gefühlen, Emotionen, etc) hat.

Antworten
Ralf Wienken

Hallo Blau,

nein, und zwar deswegen, weil es dann eben keine Intelligenz ist. Intelligenz ist immer menschlich, mit allem menschlichen, was dazugehört. Wenn man von Intelligenz redet, redet man immer auch von Dingen wie Emotionen, Bewusstsein oder dem Ich. Und keiner weiß, was das ist.
Computer machen nichts weiteres, als Intelligenz zu imitieren. Klar, wenn sie darin richtig gut sind (und das werden sie sein) – warum dann überhaupt einen Unterschied machen? Einen Sprung zu einer echten Intelligenz auf der Basis von Rechenvorgängen kann ich mir aber nicht vorstellen.

Gruß

Ralf

Antworten
marc

Hallo Ralf,

„Intelligenz“ ist doch wie blau nur eine Begrifflichkeit des Menschen, ein Wort um das, was Intelligenz ist, gedanklich ablegen zu können. Es mag sein, dass wir dem Begriff „Intelligenz“ weitere Begriffe wie „Menschlichkeit“ zugeordnet haben, aber das, was der Begriff letztendlich beschreibt, diesen Vorgang/diese Fähigkeit ist meines Erachtens nicht an eine bestimmte Gruppe von Lebewesen gebunden (anders als der Begriff). Und wenn der nächste Begriff „Lebewesen“ Stein des nächstens Anstoßes ist: Wieso sollten Maschinen nicht auch Lebewesen sein? Nur weil sie auf Silizium anstatt auf Kohlenstoff basieren? Oder weil ihre „Programmierung“ (Algorithmen) eine andere ist wie unsere (Erfahrung) ?

Grüße,
Marc

pxd

Warum zwischen etwas, das wir nicht verstehen und etwas, das noch nicht existiert, differenzieren?

Wir wissen nicht einmal, wie ähnlich oder unähnlich sich diese zwei Dinge sein werden. Wenn der einzige Unterschied sein sollte, dass Gehirn 1 auf Basis von Chemie funktioniert, und Gehirn 2 auf Basis von Transistoren, aber die abstrakten Prozesse über den „Hardwareunterschied“ hinaus identisch sind, ist es dann tatsächlich gerechtfertig, Ding 1 als Lebewesen mit Grundrechten, und Ding 2 als ersetzbares Werkzeug einzuordnen? Makaber.

Thomas D.

Sorry, aber das ist ein typisches Totschlag-Argument und menschliche Arroganz. Menschen sind zudem mehr Computer, als sie wahrhaben wollen. Emotionen? Freier Wille? Lässt sich mit Drogen und geschickter Indoktrinierung alles ziemlich gut manipulieren.

Auch bezweifele ich, dass man Intelligenz überhaupt imitieren kann Entweder ist ein System in der Lage, intelligente Entscheidungen zu treffen oder nicht. Siri & Co. sind keine KIs, sondern nette Verpackungen für ein Nutzerinterface. Autonome Autos arbeiten hingegen mit KNNs, die alleine vom „Zugucken“ lernen und ggfs. noch mit ein paar zusätzlichen Algorithmen und weiteren Sensordaten aufgebrezelt werden. Wahrnehmung der Umwelt, Analyse und autonome Interaktion ist schon eher, was man unter Intelligenz versteht und auch noch lange nicht am Ende ist.

Und das ich doch der Kern bei der Angst „vorm Aufstand der Maschinen“. Ob man es Intelligenz nennt oder wie auch immer – Maschinen sind zum einen immer mehr in der Lage, Menschen zu verdrängen, selbst in „kreativen“ Bereichen und zum anderen immer schwieriger in ihrer Entscheidungsfindung zu durchschauen, wobei immer mehr Bereiche des menschlichen Lebens mit solchen KIs gekoppelt werden.

Und auch noch zum letzten Abschnitt des Artikels: „Es sind Menschen, die Menschen töten …“ – In dem Moment, wo eine Drone selbst über einen Abschuss bestimmen kann (und das wird kommen), tötet die Maschine!

pxd

Bei dem Thema ist wichtig zu unterscheiden. Es gibt zwei Konzepte, weak AI, welche genau das tut, was im Artikel beschrieben wird: Simulieren. Neuronale Netzwerke, Deep Learning, Big Data sind alles Konzepte diesbezüglich, und alle modernen Applikationen, wie Siri und Cortana welche im Artikel erwähnt werden, basieren auf diesen Dingen. Hierauf trifft auch die Beschreibung „Werkzeug“ zu um welches es im gesamten Artikel geht.

Separat dazu existiert das konzept der strong AI, welche nicht simuliert, sondern tatsächlich „erfahren“ kann, also bewusst ist und sich seiner Selbst im Klaren ist.

Wie rene beschreibt wird bis zur strong AI noch etwas Zeit ins Land streichen, aber „nie“ halte ich für eine unhaltbare Falschaussage. Solche wissenschaftlichen Verneinungen werden ja auch gern wieder ausgegraben um darüber zu reflektieren. Wir werden ja auch niemals mehr als 4 Milliarden IP Adressen benötigen, stimmt’s? ;)

Wir wissen nicht wie Bewusstsein passiert und was dazu von Nöten ist. Demnach ist es auch Unsinn davon auszugehen, dass wir nie Bewusstsein erschaffen können. Immerhin haben wir keine konkreten Beweise dafür, dass wir diesen Schritt nicht irgendwann gehen werden. Wir sind nur momentan mit unserem mangelnden Verständnis von Gehirn und Bewusstsein nicht dazu in der Lage.

Dennoch ist bewusste KI der nächste logische Schritt nach der weak AI, oder nicht? Das Problem wird sein, dass diese zuerst uns selbst nachempfunden sein wird, wir aber wahrscheinlich nicht in der Lage sein werden zu bestimmen, wie lange diese Ähnlichkeit bestehen bleibt.

Wenn uns ein Mensch anlacht, wissen wir dies korrekt zu deuten. Wenn uns eine bewusste Maschiene anlacht, welche in keinster Weise an unsere Instinkte und unsere biologisch und sozial entwickelte Körpersprache gebunden ist, wissen wir nicht, ob dies so natürlicher Herkunft ist, oder bis auf das letzte Detail der Körpersprache, welche wir für gewöhlich nur unbewusst wahrnehmen, gespielt und simuliert ist um uns, aus welchem Grunde auch immer, fälschlicherweise in dem Glauben zu lassen wir besäßen die Kontrolle.

Es wird auch niemand sagen können, was zu dem Zeitpunkt in dieser Person vorgeht, wie weit sie uns voraus ist, was ihre Pläne sind, ob und wenn ja in welcher Form wir uns in den Plänen wiederfinden, ob wir tatsächlich noch die Kontrolle besitzen, oder wir dem ausgeliefert sind, was diese neuen Lebewesen mit uns oder unserer Umfeld vor haben, etc. etc.

Wir sind es gewohnt, als Menschen die Kontrolle zu haben. Diejenigen, die bezüglich bewusster KI ihre Sorgen äußern, wissen, dass diese Kontrolle als verständlich gesehen wird und uns Menschen zu einem großen Teil ausmacht, und wir uns der Gefahr aussetzen, genau diese für immer zu verlieren. Das hat mit Religion rein gar nichts zu tun.

Antworten
Robin TN

Ein wirklich lesenswerter Beitrag, der zum Nachdenken anregt.

Vielleicht handelt es sich bei der mythologisch bedingten Furcht um eine künstliche Intelligenz gar nicht um die Angst vor einem selbständig denkenden und Entscheidung treffenden Wesen, sondern um eine künstlich [unterstützte] Intelligenz? Ausgelöst durch technische Erweiterungen an den Schnittstellen der menschlichen Möglichkeiten? Z. B. wie die sich langsam anbahnende virtuell [unterstützte] Realität. (VR ist ein Widerspruch in sich, da etwas entweder virtuell ODER real sein kann, nicht aber beides gleicheitig)
Im Prinzip könnte zukünftig ein Cyborg dann eben das sein, was heute die Angst vor etwas Ünermenschlichen ist – was ein Cyborg ja nun mal auch ist.
Gleichzeitig würde sich eine solche Theorie dann auch mit Jean Baudrillards Behauptungen decken, wenn er erklärt, dass etwas verschwindet, wenn es erforscht ist (Analyse = Auflösung).
Aber vielleicht löst der Mensch ja auch eines Tages die noch unerklärten Phänomene Bewusstsein, Emotion und Intelligenz?

Antworten
phil

Schöner Artikel, und am fachlichen Kern habe ich nichts auszusetzen. Was mich etwas stört ist der arg vereinfachte Abschnitt über die Vermenschlichung von Tieren, hier wird die überholte Ansicht, Tiere seien nichts weiter als einfache Maschinen, hervor gegraben. Ich verstehe schon, auf was Sie hier heraus wollen: Das Zuschreiben allzu menschlicher Eigenschaften auf Lebewesen, die ganz andere Lebens- und Denkweisen haben. Das ist grundsätzlich richtig, vor allem menschliche Emotionen werden ja gerne auf Haustiere übertragen und alles mögliche in deren Gesichtsausdruck hinein interpretiert.

Allerdings ganz so simpel wie dargestellt ist das dann doch nicht. Auch das Beispiel hinkt: So manchem Hund wird es wirklich egal sein, was es zu essen gibt, aber auch viele Tiere haben ihre individuellen Vorlieben. Und auch manchem angehörigen der Spezies, der Herr Wienken angehört, ist es reichlich egal, was auf dem Teller landet. Wir sind bei Weitem die intelligentesten Tiere dieses Planeten, aber sollten deswegen nicht den Fehler machen, allen anderen jegliche Intelligenz von vornherein abzusprechen.

Aber egal, ist ja nicht der Kern des Artikels :)

Antworten
Ralf Wienken

Hallo phil

Nein, Tiere sind keine Maschinen. Und sie haben auch Intelligenz, je nach Evolutionsstadium mehr oder weniger. Ob das beim Überleben hilft – nun ja: es gibt Leute die behaupten, das Viren die wahren Herrscher des Planeten sind.

Gruß

Ralf

Antworten
blauer

Interessanter Artikel, allerdings frage ich mich, was mit „in absehbarer Zeit“ gemeint ist? Ist absehbare Zeit = 5 oder 50 oder 500 Jahre?

Weiterhin, wie schon von einigen Kommentatoren angemerkt, wieso sollten sie unbedingt „menschliche Eigenschaften“ entwickeln? Maschine bleibt Maschine, dennoch kann eine Maschine „intelligenter“ als Menschen handeln bzw. werden. Natürlich kann man diesbzgl. hundert Jahre diskutieren was genau Intelligenz eigentlich für uns und andere ist und bedeutet.

Die Vermischung einer objektiven KI Betrachtung und die meiner Meinung nach höchst subjektiven Passagen des Autors zu Vermenschlichung und religiösen Attitüden (obwohl ich durchaus ein Fan von deutlicher Kritik an Großkonzernen, Religionen und Machtmissbrauch dieser bin), ist im Falle von KI komplett unpassend.

Ich empfehle jedem KI Interessierten die Lektüre von diesem Artikel: The AI Revolution: Our Immortality or Extinction, zwar recht lang aber alles wichtige verständlich dargelegt. (http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-2.html)

Ich finde es sehr interessant bis hinzu bedenklich, dass der Autor zur Entspannung aufruft, während Themenspezialisten und Experten wie zb. Elon Musk, Stephen Hawking, Bill Gates (ja wirklich, der Gründer von Microsoft) und weitere zu äußerster Vorsicht aufrufen und sehr wohl annehmen, dass eine KSI (künstliche super Intelligenz) unser aller Ende sein kann.

Noch etwas interessantes zum Thema:
AI100 – The One Hundred Year Study on Artificial Intelligence von der Stanford University
https://ai100.stanford.edu

Antworten
Ralf Wienken

Hallo blauer

Danke für deinen Beitrag.
Die subjektiven Passagen sind unsere einzige Chance, aus dem maschinenzentrierten Diskurs über künstliche Intelligenz auszusteigen. Macht man das nicht, ist es kein Wunder, dass man das Gehirn als Hardware betrachtet, auf der eine Software läuft. Was dann auch durch eine Maschine ersetzt werden könnte.
Aber das Gehirn ist nicht digital, und es wahrscheinlich nicht einmal ein analoger Computer. Und: subjektive Zustände sind Tatsachen, denn solche Zustände sind ja da. Sie existieren, und jeder von uns muss damit umgehen. Niemand kommt darum herum.
Nur dass sie eben nicht messbar sind, und auch nicht definierbar. Na gut, ich schließe nicht aus, dass das eines Tages vielleicht möglich ist, aber nur weil ich prinzipiell nicht weiß, was die Zukunft bringt.
Diese subjektiven Faktoren sind eines meiner zentralen Argumente, denn sie konstituieren Intelligenz als menschliche Eigenschaft, die nicht von Maschinen nachgebaut werden kann. Deshalb auch das Beispiel der Farbe blau: Jeder, der die Erfahrung von blau gemacht hat, weiß was das ist, und niemandem, der die Erfahrung nicht gemacht hat, kann man das erklären. Sicher kann man einem Roboter einen Sensor einpflanzen, der auf die Wellenlänge reagiert, die wir als blau bezeichnen, aber er weiß trotzdem nicht, was wir Menschen mit blau meinen. Etwas anderes wäre es, wenn man eine Möglichkeit findet, einem farbenblinden Menschen einen solchen Sensor einzupflanzen, und der dann die Signale direkt an die richtige Stelle im Gehirn überträgt. Irgendwann wird das bestimmt kommen. Dann wäre für diesen Menschen das Erlebnis von blau sicherlich möglich.
Die genannten Themenspezialisten und Experten… hm… na und? Gut möglich, dass wir von Maschinen und Robotern ausgelöscht werden, aber das sind dann Waffen, und keine übermenschliche Intelligenz. Ich hatte den Eindruck, dass auch die Spezialisten auf die angesprochene religiöse Überhöhung des Themas reingefallen sind.

Antworten
Björn

Das ist die menschliche Hybris. Natürlich funktioniert das Gehirn wie ein analoger Computer, der Algorithmus ist nur einfach recht komplex. Die Erfahrung der Farbe Blau ist die Wahrnehmung von Licht in einer bestimmten Wellenlänge, dazu werden automatisch bestimmte Transmitter-Routinen getriggert, die den emotionalen Kontext zu der Wahrnehmung liefern und so die Erfahrung komplettieren. All diese Prozesse entstehen aus binären Schaltprozessen, das kann man auch bereits mehr oder weniger schlüssig nachvollziehen.

Zumindest ist das die Erklärung, die mit den wenigsten Zusatzannahmen befriedigende Resultate liefert, schließlich brauchen wir keinen Seelenhokuspokus um irgendein übernatürliches Phänomen des Seins zu erklären.

Antworten
Fanmade

Meiner Meinung nach fixiert sich der Artikel zu sehr auf die menschliche Definition von Intelligenz. Um eine Gefahr für die Menschheit zu werden, muss eine künstliche Intelligenz eben keine Emotionen entwickeln. Sie muss lediglich (relativ) einfache Berechnungen anstellen.
Ich erkläre gerne an Beispielen:
Ein Entwickler (eventuell auch -team) schreibt eine Software, welche einen evulotionären Prozess simuliert. Sie wird also mit Problemen konfrontiert und mit der Fähigkeit ausgestattet zu „mutieren“. Sie schreibt also ständig neue Versionen seiner selbst und löscht in bestimmten Iterationen die jeweils ineffektivsten Varianten. Irgendwie gelangt dieses System dann ins Internet, erkennt mit der Zeit das „Problem“ der Menschheit und beseitigt es. Sowohl Gründe als auch Anleitungen gibt es dafür genug im Netz.
Dafür braucht das System noch nicht mal etwas entwickeln was wir als „Intelligenz“ bezeichnen würden, sondern nur die Fähigkeit Probleme zu lösen.
Was dieses Programm über die Definition der Farbe Blau „denken“ würde, hätte wohl eher wenig Einfluss auf den Rest.

Antworten
CyberFT

Hallo Ralf,

netter Beitrag, aber ich muss wie meine Vorredner leider auch in einigen Punkten widersprechen.
Z.B. die Farbe blau, wenn man wie du richtig sagst einem Roboter Farbsensoren einbaut, und ihm dann einen blauen Gegenstand zeigt und diesen benennt, dann kann der Roboter sehr wohl den Begriff Blau mit der Erfahrung seines „Sehens“ des Gegenstands und „Hörens“ des Wortes verknüpfen.
Er hat somit eine Erfahrung gemacht, die nach deiner Theorie ja etwas rein menschliches(/tierliches) sein soll.
Und klar, analoge Computer setzten einem solchen Projekt gewisse grenzen, aber es wird schon an ganz anderen Technologien gearbeitet, die unsere jetztigen Computer in baldiger Zukunft ersetzen werden. (z.B. Quantencomputer)
Wie meine Vorredner bereits angemerkt haben muss eine KI nicht unbedingt dem Prinzip der menschlichen Intelligenz folgen.

„Intelligenz, Bewusstsein, freier Wille oder das Selbst“
Ich fasse mal die Begriffe Bewusstsein und Selbst zusammen.
Es gibt schon Experimente mit Robotern, die sich durchaus ihrer selbst Bewusst sind, sich zum Beispiel im Spiegel erkennen können.
Das kann man natürlich noch nicht so richtig mit dem menschlichen Selbstbewusstsein vergleichen, ist aber ein Schritt der in diese Richtung geht.

Mit dem freien Willen ist das auch so eine Sache, wir könnten hier jetzt eine philosophische Diskussion führen, aber das geht am Thema vorbei.
Ich will nur soviel sagen, dass es nicht unbedingt bewiesen ist, dass es so etwas wie ein freien Willen überhaupt gibt.
Die Natur folgt nur Systemen, die wir mehr oder weniger gut kennen.
Dass der Mensch mit dem „Bewusstsein“ seines „Selbst“ und seiner „Intelligenz“ über den Dingen steht ist schon etwas überheblich gedacht.

Zu guter letzt was die Emotionen angeht;
Du gehst davon aus, dass die KI aufgrund ihrer Emotionen eine Gefahr für uns werden könnte, aber das muss überhaupt nicht der Fall sein.
Eine viel größere Gefahr würde eine Intelligenz darstellen, welche eben keine Emotionen hat und rein der Logik folgt. Als Beispiel sei nur mal der Film IRobot genommen.

Gruß Felix

Antworten
Szenon

Der französische Philosoph Louis Cattiaux (1904-1953) in der “Wiedergefundene Botschaft” (Verlag Herder, Basel, 2010, S.451): «Die Zeit der Maschinen hat kaum begonnen und alle werden verführty, ohne wahrzunehmen, dass die Maschinen tote Werke sind, die nichts als den Tod hervorbringen. Und alle glauben, sich der Maschinen zu bedienen, ohne wahrzunehmen, dass sie selbst den Maschinen dienen, wie vom Tode abgestumpfte Sklaven.»

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Anzeige
Anzeige