Experte Geoffrey Hinton: In 5 Jahren kann KI besser denken als der Mensch

Über Jahrzehnte hinweg hat der Informatiker und Kognitionspsychologe Geoffrey Everest Hinton die Entwicklung von künstlicher Intelligenz maßgeblich mit angetrieben und gehört zu den Wissenschaftler:innen, die den Backpropagation-Algorithmus eingeführt haben. Nicht verwunderlich also, dass er oft als einer der „Godfathers of AI“ bezeichnet wird.
Anfang des Jahres hat er seinen Job bei Google gekündigt und sich von einem KI-Optimisten zu einem KI-Pessimisten gewandelt, der vor den potenziellen existenziellen Bedrohungen durch eine KI warnt. Denn laut seinen eigenen Annahmen könnte KI möglicherweise schon in fünf Jahren in der Lage sein, „besser zu denken“ als der Mensch.
2029: Computer mit Intelligenz auf menschlichem Niveau
Der Grund für die wachsende Besorgnis des Informatikers liegt in dem großen Sprung, den die Generative AI durch große Sprachmodelle (Large Language Models) macht.
Raymond Kurzweil, „Director of Engineering“ bei Google, stellte sogar vor einigen Jahren in einem Interview die These auf, dass Computer im Jahr 2029 „über eine Intelligenz auf menschlichem Niveau verfügen“.
In einem Interview behauptete Hinton, dass die derzeit führenden KI-Modelle, wie die von OpenAI und Google, bereits über echte Intelligenz und logische Fähigkeiten verfügen würden. Zudem fügte er hinzu, dass diese Modelle bereits eigene Erfahrungen machen könnten, so wie es auch Menschen tun. Ob die KI-Systeme auch bereits über ein Bewusstsein verfügen, daran glaubt Hinton noch nicht.
Laut Hinton sind die Menschen in die „Wachstumsphase der KI eingetreten“ – ähnlich der Zeit, in der Eltern vorsichtig sein müssen, was sie vor ihrem Kind sagen. Und weil die KI versteht, müsse man sich „Gedanken darüber machen, was als Nächstes passieren wird.“
Modelle mit großem Potenzial
Jüngste Entwicklungen haben die Frage, ob ein KI-Wettrüsten im Gange ist, zu den Akten gelegt. CNBC hat berichtet, dass China plane, seine Rechenleistungen bis 2025 um 50 Prozent zu erhöhen, um mit den USA in Sachen KI und Supercomputing-Anwendungen mithalten zu können.
Berichten zufolge soll die nächste Generation von Large Language Models bald kommen. Diese könnten fünf- bis zwanzigmal fortschrittlicher sein als das neueste generative Sprachmodell aus der GPT-Familie, GPT-4.
Globale Zusammenarbeit bei der KI-Regulierung
Diese größeren Modelle haben ein enormes Potenzial und könnten Herausforderungen wie etwa Fusionsreaktionen für unbegrenzte Energie und Präzisionsmedizin für ein längeres Leben lösen.
Die Sorge einer intelligenteren KI mit Bewusstsein besteht darin, dass die Interessen der KI möglicherweise nicht mit denen der Menschen vereinbar sind. Zudem stellt die Geschwindigkeit der KI-Entwicklungen eine enorme Belastung für die Regulierungsbehörden dar. Denn diese müssen die Technologie verstehen und wissen, wie man sie regulieren kann, ohne Innovationen zu behindern.
Trotz einiger Differenzen könnte es Potenzial für eine globale Zusammenarbeit bei der KI-Regulierung geben. Laut The Register werden die Staats- und Regierungschefs der G7-Staaten voraussichtlich bis Ende des Jahres internationale KI-Vorschriften erlassen. Eine umfassende, globale Steuerung von KI ist dringend erforderlich.
Denken und Rechnen sind zwei grundverschiedene Dinge. Schon ein einfacher Taschenrechner ist uns beim Rechnen haushoch überlegen, probieren Sie es aus. Aber Denken kann keine Maschine, jedenfalls nicht, so lange sie nicht nach denselben Prinzipien arbeitet wie ein biologisches System, sondern eben wie ein physikalisches System. Zum Unterschied: https://medium.com/@drwolfgangstegemann