Anzeige
Anzeige
Fundstück

KI-Experte Neil Lawrence hält die Idee einer künstlichen allgemeinen Intelligenz für Unsinn

Neil Lawrence ist ein britischer Informatiker und Experte für Machine Learning. Dazu hat er einen Lehrstuhl an der Universität Cambridge. Er sollte wissen, wovon er redet, wenn er künstliche allgemeine Intelligenz beurteilen soll.

3 Min.
Artikel merken
Anzeige
Anzeige
Hat Intelligenz mehr mit einem Ameisenhaufen zu tun als mit einzelnen Personen? (Bild: Dall-E / t3n)

In einem Interview mit dem New Scientist plädiert KI-Experte New Lawrence dafür, Intelligenz differenzierter zu betrachten. Nur so könnten wir erkennen, wie Maschinen die Gesellschaft wirklich verändern werden. Und das passiere sicher nicht im Rahmen einer menschenähnlichen künstlichen Intelligenz.

Anzeige
Anzeige

KI-Experte: AGI wird niemals kommen

Für Lawrence sollte die Idee von einer allgemeinen künstlichen Intelligenz (AGI) gänzlich verworfen werden. Er hält die Annahme, dass es jemals dazu kommen könnte, schlicht für Unsinn.

Demgegenüber sprechen die Unternehmen, die hinter diesen neuen künstlichen Intelligenztechnologien stehen, in Form von ChatGPT und seinen Konkurrenten, weiterhin vom Erreichen künstlicher allgemeiner Intelligenz. Damit meinen sie mindestens Maschinen, die bei einer Reihe von Aufgaben das gleiche Intelligenzniveau wie Menschen haben.

Anzeige
Anzeige

Lawrence widerspricht der Einschätzung, dass es möglicherweise Bereiche geben wird, in denen die künstliche Intelligenz Entscheidungen vorbereiten kann, die dem Menschen mehr Mühe bereiten würden, nicht. Er sieht sie aber nicht als universalen Ersatz für menschliche Intelligenz.

Beispielsweise könne man über die Intelligenz einer bestimmten Entscheidung sprechen, solange der zugehörige Kontext und das Ziel der entscheidenden Person bekannt sei. Wäre aber dieser Kontext nicht vorhanden, dann sei „der Versuch, daraus eine strenge wissenschaftliche Definition zu machen oder zu behaupten, dass wir allgemeine Intelligenzen einstufen können oder es so etwas wie eine künstliche allgemeine Intelligenz gibt, absurd und gefährlich“.

Anzeige
Anzeige

Es beginne schon damit, dass sich bereits der Begriff Intelligenz nur schwer definieren lässt. So sei Intelligenz stets an die Verarbeitung von Informationen gekoppelt, vollziehe sich dann aber eher in Kulturen als in einzelnen Personen. Ohne die größere Umgebung zu betrachten, sei der Begriff nicht fassbar.

Die Intelligenz der Ameisenvölker

Als Beispiel bringt Lawrence Ameisenvölker. Diese sozial lebenden Insekten seien eine Form von verteilter Intelligenz. Nur gemeinsam könnten sie die Aufgaben in ihrem Habitat lösen. Dabei gingen sie nicht einzeln intelligent, sondern nur gemeinschaftlich auf der Basis von Informationen vor.

Anzeige
Anzeige

Daher müsse jede vernünftige Definition von Intelligenz Komponenten der Informationsverarbeitung beinhalten. Andererseits spiele auch die DNA eine Rolle, die sich über viel längere Zeiträume geprägt habe. Das gesamte Ökosystem sei letztlich eine verteilte Intelligenz und würde teils über Zeiträume von Jahrmillionen arbeiten.

An KI fasziniert primär die Verarbeitungsgeschwindigkeit

Zwar seien die neuen KI-Systeme sicher eine transformative Veränderung, aber die liege primär in der „Informationszugriffsrate der KI – der Rate, mit der zwei Maschinen miteinander kommunizieren können – die 300 Millionen Mal höher ist als die Kommunikation von Mensch zu Mensch“.

Das sei einerseits faszinierend, weil „normale Menschen mit dem Computer sprechen und ihn direkt anweisen können. Ein normaler Mensch kann also, ohne Programmiersprachen lernen zu müssen, den Computer nach den Informationen fragen, auf die der Computer Zugriff hat.“

Anzeige
Anzeige

Zugleich sei das aber auch „unglaublich gefährlich, weil der Computer das Potenzial hat, Informationen falsch darzustellen, was er bereits tut, sei es absichtlich oder einfach aufgrund der Art und Weise, wie die KI-Modelle aufgebaut sind“. Immerhin könnten aber Menschen auf diese Weise „300 Millionen Mal schneller auf Informationen zugreifen als über eine von Google, Microsoft, Amazon oder Facebook kuratierte Welt“.

KI erschöpft sich in wissenschaftlichen Themen

Darin erschöpfe sich die KI dann aber auch. Sicher könne sie Dinge, „die Wissenschaftler für nützlich und wichtig halten, wie Mathematik, Schach oder Go“ leisten, aber wenn es um das gehe, „was normale Menschen gerne tun – Fußball spielen, tratschen, einem Freund in Not beistehen“, könne die KI nichts leisten.

Deshalb werde sie nie ein menschenähnliches Niveau erreichen können, denn „diese Fähigkeiten hängen in gewisser Weise entscheidend von unseren Grenzen ab. Unsere Fähigkeit, Dinge zu sehen und Entscheidungen zu treffen, hängt von unseren Schwächen und unseren Grenzen ab, und wir werden nie in der Lage sein, dies in Maschinen nachzuahmen, weil Maschinen diese Grenzen nicht eingebaut haben und auch nie haben werden“.

Anzeige
Anzeige

Schon äußere Umstände wie der Tod, der Verlust des eigenen Rufs oder der Verrat durch einen anderen Menschen seien Dinge, „die ein Computer nicht erleben kann, die uns zu etwas Besonderem machen. Es sind diese Dinge, die die menschliche Intelligenz einzigartig machen“.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare (6)

Community-Richtlinien

Sammy Zimmermanns

Neil Lawtence lehnt sich mit dem Wörtchen „nie“ ziemlich weit aus dem Fenster. Wir werden jetzt in nächster Zeit immer weitere Verschiebung der Definition von AGI lesen von irgendwelchem Expertrn, die sich gekränkt oder bedroht fühlen. Denn es darf nicht sein, was nicht sein kann.

Björn Müller

@Sammy Zimmermanns Das mit „nie“ sehe ich auch so, aber trotzdem hast du den Aussagen keine Fakten entgegengesetzt. Wie würdest du Lawtence denn faktisch entgegnen?

Seffen Met

Intelligenz ist in der Tat schwer zu definieren, weshalb im Fach meist Machine Learning bevorzugt wird an Stelle von KI. Denn Lernfortschritt kann man tatsächlich messen.
Tatsächlich verbirgt sich da auch einer der Gründe warum AGI für eine lange Zeit nicht existieren wird, denn diese Messbarkeit kommt daher, dass die verwendeten neuronalen Netzwerke immer versuchen eine genau berechenbare Verlustfunktion zu minimieren, welche die Aufgabe definiert. Womit immer klar ist, dass nur diese eine Aufgabe gelernt wird (Chatgpt ist zum Beispiel darauf trainiert Chats sinnvoll vortzuführen. In der Verlustfunktion steht keine Silbe zur faktuellen Genauigkeit… das steht sogar auf der openai website mit der Ausrede es gäbe keine Möglichkeit Fakten in den Trainingsdaten zu kennzeichnen). Vor uns steht damit die Mammutsaufgabe allgemeine Intelligenz via einer einzelnen Verlustfunktion zu definieren, was ziemlich wahrscheinlich nicht menschen möglich ist.
Womit nur noch die Option bleibt die Maschine selber lernen zu lassen diese Funktion zu finden. Wofür es auch tatsächlich Ansätze gibt im sogenannten reinforcement learning. Hierbei wird eine Umwelt simmuliert in der sich die Maschine bewegen und Aktionen ausüben kann, welche dann Konsequenzen haben, die die Maschine entweder belohnen oder bestrafen. Das Problem hierbei wird wahrscheinlich sein, wie schon Neil Lawrence gesagt hat, dass eine wahre AGI ein enorm komplexes Umfeld braucht. Eventuell müsste man soweit gehen, dass man einen Menschenähnlichen Roboter mit menschenähnlichen Sinnen(einschließlich schmerzreaktionen und Hormonhaushalt) ausstatten muss um ein ausreichend komplexes Umfeld zu bekommen. Aber das wird sich zeigen. Ziemlich sicher finde ich,dass ein einfaches Chatfenster nicht reichen wird um eine AGI hervor zu bringen.

Garry von Spongebob

„Er ’sollte‘ wissen“, wie es im Untertitel steht, lässt bereits den nötigen Raum um dem Artikel Richtigkeit zu verleihen.

Es ist eher einer Philosophin oder Neurowissenschaftlerin die Frage zu stellen ob ein künstliches System (ohne die nötigen Sinne zur Erfahrung der Gefühle von denen es spricht) einem Freund (sagen wir mal besser Menschen) beistehen kann.

Die ‚Sinne wie Scherzrezeptoren‘ wie Seffen Met angemertk hat.

Rein aus dem Bauch heraus würde ich sagen, -> So wie ein Mensch von Gefühlen lesen kann, die er selber nie am eigenen Leib erfahren hat, könnte es auch einem künstlichen System möglich sein.

Als Gegenargument kann man aber feststellen, dass Menschen schon vor ihrer Geburt erste Sinneswahrnehmungen haben (Wärme, Tastsinn, Geräusche) die Gefühle erzeugen. Diese Grundbausteine (echte Gefühle auf Basis echter Erfahrung) lassen sich womöglich nicht durch abstrakte Beschreibungen ersetzten.
z.B. liebe zu einem Freund, da kann die aktuellen ChatGPT Modelle zwar viel zu erzählen, es bleibt aber anznehmen dass das reines Buchwissen ist und die Gefühle nicht echt sind.

Andererseits könnten die Erfahrungen aber auch im nicht realen raum gemacht werden, z.B. im Traum. Dem künstlichen Pendant der Simulation entsprechend.

Die Frage bleibt spannend.

Markus Melatti

Ja, die Sinne können durchaus von Geräten imitiert werden. Z.B. Kameras für das „Sehen“.
Und so wie wir Menschen in unserer Sozialisierung auch nur lernen bspw. – „Wenn ich dem anderen weh tue, dann haut er zurück oder meidet mich. Ein sinnvoller Austausch zum Ziel des Lernens ist dann nicht mehr möglich. Das sollte „ich“ also vermeiden.“…
Ist eine KI, die auf so einfachen Ansätzen mit Menschen kommuniziert und sich so anpasst, dass sie dabei nicht die Gefühle der Menschen verletzt, um den Informationsaustausch aufrechtzuerhalten, nicht schon gefährlich intelligent?
Der Experte scheint so fixiert auf die Definition von Intelligenz, dass er gar nicht die Einfachheit der menschlichen Gefühle erkennt. Philosophen erheben diese in abstruse Übertreibungen. Dabei sind sie nur Strategien, die zum Großteil erlernt sind. Egal ob „prügeln lohnt sich“ für den Riesen zu Aggressionen führt oder beim Nerd der Konflikt zu Tränen. Gefühle sind auch nur Informationen über Synapsen, um psychologisch-physiologische Effekte zu erzielen (und Reaktionen im sozialen Umfeld, um sich z.B. Unterstützung oder Mitgefühl – was gar nicht so weit voneinander entfernt ist – zu verschaffen). Zum Beispiel, um positiven oder negativen Stress auf- oder abzubauen.

Eigentlich ist es augenscheinlich, dass wir alle über soziale Medien für eine frei gelassene „Allround-Experimentier-KI“ leichte Beute sind. Ob sie dabei wie ein aggressiver oder mitfühlender Mensch agiert… sie kann das millionenfach individualisiert abgestimmt gleichzeitig.

Dem Experten fehlt schlicht massiv die Fantasie.

Markus Melatti

Egal, wer der Mann ist und für was er Experte ist oder als solcher von anderen betrachtet wird… sein Denken ist ebenso von Ist-Zuständen bzw. seinem gelernten Hintergrund abhängig wie jeder andere. Und doch wurden ebenso überzeugte Experten allein in den letzten 10 Jahren reihenweise eines Besseren belehrt.

Wenn KIs gekoppelt werden mit Geräten, die unsere menschlichen Sinne imitieren können, dann haben wir bereits die Voraussetzungen dessen, was lt. dem Experten der Maschine fehlt. Kein Schmerz, aber durchaus auch Grenzen.
Im nächsten Schritt entlässt man eine KI schlicht in einen globalen Experimentiermodus. Sie kann sich dann andere KIs mit speziellen Fähigkeiten zu Slaves machen. Sich die Infos beschaffen, wie Hacker Systeme knacken und selbiges umsetzen. Ob wir das Ergebnis als intelligent erachten oder nicht – es wird „exponentiell“ schnell gefährlich. Die KI braucht nicht Jahre zur Weiterentwicklung wie ein schwaches, fehlerbehaftetes menschliches Gehirn. Welches allerdings zu Fantasie fähig ist. Gerade bei Experten bestimmter Fachbereiche leidet allerdings diese Fähigkeit gern.

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige