„Autonome“ KI: Facebook-Wissenschaftler werkelt unbemerkt an richtungsweisender Forschung
Wie können Maschinen lernen, zu denken und zu planen? Dieser Frage ging Yann LeCun, VP und Chief Scientist AI bei Facebooks Mutterkonzern Meta, in einer wissenschaftlichen Arbeit nach, die bereits im Juni veröffentlicht wurde. Jetzt legte der französische Informatiker noch mal nach – und präsentierte seine Ausführungen an der Universität von Berkeley.
Mangel an „gesundem Menschenverstand“ in der aktuellen KI-Arbeit
Yann LeCun attestiert den aktuellen KI-Bemühungen einen Mangel an „gesundem Menschenverstand“ und zeigt einen Weg zu zukünftigen Iterationen auf, die „so effizient lernen wie Menschen und Tiere“, weil sie immer autonomer arbeiten. Als „gesunden Menschenverstand“ beschreibt LeCun eine Sammlung von „Modellen der Welt“, die es Menschen und Tieren ermöglichen, vorherzusagen, ob Ereignisse wahrscheinlich oder unwahrscheinlich, plausibel oder unglaubwürdig, möglich oder unmöglich sind.
„Ein selbstfahrendes System für Autos kann Tausende von Versuchen zum Verstärkungslernen erfordern, um zu erkennen, dass zu schnelles Fahren in einer Kurve zu einem schlechten Ergebnis führt, und zu lernen, langsamer zu werden, um Schleudern zu vermeiden“, heißt es in der Arbeit des Wissenschaftlers. „Im Gegensatz dazu können Menschen auf ihr intimes Wissen über intuitive Physik zurückgreifen, um solche Ergebnisse vorherzusagen und fatale Vorgehensweisen beim Erlernen einer neuen Fähigkeit weitgehend zu vermeiden.“
Umrüstung der Algorithmus-Trainingsmethodik
Als neuen Weg zur autonomen Intelligenz schlägt LeCun eine Umrüstung der Algorithmus-Trainingsmethodik vor, um effizienter zu lernen und so eine Zusammensetzung des gesunden Menschenverstands zu entwickeln. Die Algorithmus-Trainingsarchitektur der Zukunft sollte nach Ansicht des Meta-AI-Chefs eine Reihe von beweglichen Teilen enthalten, wie ein System, das das Kurzzeitgedächtnis repliziert, ein anderes, das Selbstkritik neuronaler Netze lehrt, und ein „Konfigurator“-Modul, das alle Eingaben zu nützlichen Informationen synthetisiert. In Gänze sollen diese Komponenten der maschinellen Intelligenz helfen, Prozesse des menschlichen Geistes zu replizieren.
So gering das Aufsehen war, das das Paper in den ersten Monaten nach Veröffentlichung erzeugte, so sehr könnte LeCuns Präsentation in Berkeley nun Wellen schlagen. Eine weitgehend exakte Nachbildung des menschlichen Geistes, so erschreckend dies sein mag, sei erforderlich, um smarte Maschinen zu entwickeln: „Es ist ein praktisches Problem, weil wir wirklich Maschinen mit gesundem Menschenverstand wollen“, sagte LeCun während seines Gesprächs in Berkeley Ende September. „Wir wollen selbstfahrende Autos, wir wollen Hausroboter, wir wollen intelligente virtuelle Assistenten.“
„… weil wir wirklich Maschinen mit gesundem Menschenverstand wollen“:
Das wird leider nie machbar sein – weil zum richtigen gesunden Menschenverstand die nichtmaterielle seelische Bewußtseins-Ebene dazugehört; und von dieser sind fast alle Menschen in der Zivilisation relativ abgetrennt durch die „Kollektive Neurose“ (Seelen-Trauma-Folge-Störung), die schlimmste Krankheit überhaupt, die seit ihrem Ausbruch vor >17.000 Jahren den Kulturverlust bewirkte, die Teilung der Befallenen in Versklaver und Versklavte sowie die Entstehung und Untergänge aller „Hochkulturen“.
Heilbar am Individuum, aber verschwiegen / geleugnet / fehlgedeutet von den Profiteuren.
Naja wir wollen halt nicht nur, dass die KI um die Kurve fährt, sondern mit der maximal möglichen Geschwindigkeit um die Kurve fährt. Da kommt man an trail and error nicht wirklich vorbei schließlich ist so auch unsere Intuition und unser gesunder Menschenverstand über tausende von Generationen entspanden.
Wenn wir jetzt versuchen gesunden Menschenverstand (was übrigens keine klare allgemein anerkannte Definition hat) in KIs einzprogrammieren, machen wir die Systeme nur noch voreingenommener, was zu gravierenden Fehlern führen kann.