„Autonome“ KI: Facebook-Wissenschaftler werkelt unbemerkt an richtungsweisender Forschung

Wenn es nach Yann LeCun geht, brauchen Maschinen einen gesunden Menschenverstand. (Bild: Shutterstock.com / Laurent T)
Wie können Maschinen lernen, zu denken und zu planen? Dieser Frage ging Yann LeCun, VP und Chief Scientist AI bei Facebooks Mutterkonzern Meta, in einer wissenschaftlichen Arbeit nach, die bereits im Juni veröffentlicht wurde. Jetzt legte der französische Informatiker noch mal nach – und präsentierte seine Ausführungen an der Universität von Berkeley.
Yann LeCun attestiert den aktuellen KI-Bemühungen einen Mangel an „gesundem Menschenverstand“ und zeigt einen Weg zu zukünftigen Iterationen auf, die „so effizient lernen wie Menschen und Tiere“, weil sie immer autonomer arbeiten. Als „gesunden Menschenverstand“ beschreibt LeCun eine Sammlung von „Modellen der Welt“, die es Menschen und Tieren ermöglichen, vorherzusagen, ob Ereignisse wahrscheinlich oder unwahrscheinlich, plausibel oder unglaubwürdig, möglich oder unmöglich sind.
„Ein selbstfahrendes System für Autos kann Tausende von Versuchen zum Verstärkungslernen erfordern, um zu erkennen, dass zu schnelles Fahren in einer Kurve zu einem schlechten Ergebnis führt, und zu lernen, langsamer zu werden, um Schleudern zu vermeiden“, heißt es in der Arbeit des Wissenschaftlers. „Im Gegensatz dazu können Menschen auf ihr intimes Wissen über intuitive Physik zurückgreifen, um solche Ergebnisse vorherzusagen und fatale Vorgehensweisen beim Erlernen einer neuen Fähigkeit weitgehend zu vermeiden.“
Als neuen Weg zur autonomen Intelligenz schlägt LeCun eine Umrüstung der Algorithmus-Trainingsmethodik vor, um effizienter zu lernen und so eine Zusammensetzung des gesunden Menschenverstands zu entwickeln. Die Algorithmus-Trainingsarchitektur der Zukunft sollte nach Ansicht des Meta-AI-Chefs eine Reihe von beweglichen Teilen enthalten, wie ein System, das das Kurzzeitgedächtnis repliziert, ein anderes, das Selbstkritik neuronaler Netze lehrt, und ein „Konfigurator“-Modul, das alle Eingaben zu nützlichen Informationen synthetisiert. In Gänze sollen diese Komponenten der maschinellen Intelligenz helfen, Prozesse des menschlichen Geistes zu replizieren.
So gering das Aufsehen war, das das Paper in den ersten Monaten nach Veröffentlichung erzeugte, so sehr könnte LeCuns Präsentation in Berkeley nun Wellen schlagen. Eine weitgehend exakte Nachbildung des menschlichen Geistes, so erschreckend dies sein mag, sei erforderlich, um smarte Maschinen zu entwickeln: „Es ist ein praktisches Problem, weil wir wirklich Maschinen mit gesundem Menschenverstand wollen“, sagte LeCun während seines Gesprächs in Berkeley Ende September. „Wir wollen selbstfahrende Autos, wir wollen Hausroboter, wir wollen intelligente virtuelle Assistenten.“
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team
„… weil wir wirklich Maschinen mit gesundem Menschenverstand wollen“:
Das wird leider nie machbar sein – weil zum richtigen gesunden Menschenverstand die nichtmaterielle seelische Bewußtseins-Ebene dazugehört; und von dieser sind fast alle Menschen in der Zivilisation relativ abgetrennt durch die „Kollektive Neurose“ (Seelen-Trauma-Folge-Störung), die schlimmste Krankheit überhaupt, die seit ihrem Ausbruch vor >17.000 Jahren den Kulturverlust bewirkte, die Teilung der Befallenen in Versklaver und Versklavte sowie die Entstehung und Untergänge aller „Hochkulturen“.
Heilbar am Individuum, aber verschwiegen / geleugnet / fehlgedeutet von den Profiteuren.
Naja wir wollen halt nicht nur, dass die KI um die Kurve fährt, sondern mit der maximal möglichen Geschwindigkeit um die Kurve fährt. Da kommt man an trail and error nicht wirklich vorbei schließlich ist so auch unsere Intuition und unser gesunder Menschenverstand über tausende von Generationen entspanden.
Wenn wir jetzt versuchen gesunden Menschenverstand (was übrigens keine klare allgemein anerkannte Definition hat) in KIs einzprogrammieren, machen wir die Systeme nur noch voreingenommener, was zu gravierenden Fehlern führen kann.