Schluss mit der KI-Black-Box: Ein neues Verfahren könnte neuronale Netze verständlicher machen
Künstliche Neuronen sind die grundlegenden Bausteine tiefer neuronaler Netze. Ihre Aufgabe ist es – wie bei den biologischen Neuronen in unserem Gehirn – Informationen aufzunehmen, zu verarbeiten und gegebenenfalls weiterzuleiten. Diese neuronalen Netze verleihen der modernen künstlichen Intelligenz zwar ihre Leistungsfähigkeit, haben aber einen Nachteil: Sie sind größtenteils undurchschaubar.
Bestehende künstliche Neuronen, die in großen Sprachmodellen wie GPT4 verwendet werden, funktionieren, indem sie eine große Anzahl von Eingaben aufnehmen, diese addieren und die Summe mithilfe einer anderen mathematischen Operation innerhalb des Neuron in eine Ausgabe umwandeln. Kombinationen solcher Neuronen bilden neuronale Netze, und ihre kombinierte Arbeitsweise kann schwer zu entschlüsseln sein.
Inzwischen gibt es aber einen neuen Ansatz, die künstlichen Neuronen zu kombinieren. Der Unterschied besteht darin, dass die Verarbeitung und Summierung der Eingaben zum Teil aus dem Neuron herausgelöst wird, ohne dass eine zusätzliche versteckte Operation erforderlich ist. Netze aus solchen Neuronen werden Kolmogorow-Arnold-Netze (KAN) genannt, nach den russischen Mathematikern, die sie inspiriert haben.
Neuronale Netze besser verstehen
Das Verfahren, das von einer Gruppe unter der Leitung von Forschern am MIT im Detail untersucht wurde, könnte mehr Transparenz in der Entwicklung von KI-Modellen schaffen. Deren Entscheidungen ließen sich besser überprüfen und sogar auf Verzerrungen hin untersuchen. Vorläufige Ergebnisse deuten auch darauf hin, dass die Genauigkeit von KANs mit zunehmender Größe schneller zunimmt als bei Netzen, die aus herkömmlichen Neuronen bestehen.
„Das ist eine interessante Arbeit“, sagt Andrew Wilson, der an der New York University die Grundlagen des maschinellen Lernens untersucht. „Es ist schön, dass man versucht, das Design dieser [Netzwerke] grundlegend zu überdenken.“
Die grundlegenden Elemente der KANs entstanden bereits in den Neunziger Jahren. Seitdem gab es immer wieder einfache Versionen solcher Netze. Der jetzige Durchbruch entstand, als ein Team von Forscher:innen am MIT, Caltech und anderen Instituten versucht haben, das Innenleben von künstlichen neuronalen Standardnetzwerken besser zu verstehen.
Das Team hat KANs weiterentwickelt und gezeigt, wie man sie größer gestaltet, sie trainiert, und wie ihre Problemlösungsfähigkeit von Menschen interpretiert werden könnte. „Wir haben diese Idee quasi neu belebt“, sagt das Teammitglied Ziming Liu, Doktorand im Labor von Max Tegmark am MIT.
Die Forschung zieht Aufmerksamkeit auf sich. Auf GitHub gibt es bereits Projekte, die zeigen, wie KANs für unzählige Anwendungen eingesetzt werden können, etwa zur Bilderkennung und in der Strömungslehre.
Was künstliche Neuronen verarbeiten
Heute enthalten fast alle Arten von künstlicher Intelligenz, einschließlich derer, die zum Aufbau großer Sprachmodelle und Bilderkennungssysteme verwendet werden, Teilnetze, die als mehrlagige Perzeptronen (MLP) bekannt sind. In einem MLP sind die künstlichen Neuronen in dichten, miteinander verbundenen „Schichten“ angeordnet. Jedes Neuron verfügt über eine so genannte „Aktivierungsfunktion“ – eine mathematische Operation, die eine Reihe von Eingaben aufnimmt und sie in einer bestimmten Weise in eine Ausgabe umwandelt.
In einem MLP erhält jedes künstliche Neuron Eingaben von allen Neuronen in der vorherigen Schicht und multipliziert jede Eingabe mit einem entsprechenden „Gewichtung“ (Weight), also einer Zahl, die die Wichtigkeit dieser Eingabe angibt. Diese gewichteten Eingaben werden addiert und der Aktivierungsfunktion im Neuron zugeführt, um eine Ausgabe zu erzeugen, die dann an die Neuronen in der nächsten Schicht weitergegeben wird. Ein MLP lernt zum Beispiel, zwischen Bildern von Katzen und Hunden zu unterscheiden, indem es die richtigen Werte für die Gewichtung der Eingaben für alle Neuronen wählt. Entscheidend ist, dass die Aktivierungsfunktion fest ist und sich während des Trainings nicht ändert.
Nach dem Training fungieren alle Neuronen eines MLP und ihre Verbindungen zusammengenommen im Wesentlichen als eine weitere Funktion, die eine Eingabe (zum Beispiel Zehntausende von Pixeln in einem Bild) aufnimmt und die gewünschte Ausgabe erzeugt (zum Beispiel 0 für Katze und 1 für Hund). Nachzuvollziehen, wie diese Funktion aussieht, also ihre mathematische Form, ist wichtig, um zu verstehen, warum sie eine bestimmte Ausgabe erzeugt. Warum stuft sie beispielsweise eine Person als kreditwürdig ein, wenn sie Informationen über ihren finanziellen Status erhält? Aber MLPs gleichen häufig einer Black Box; ein Reverse-Engineering des Netzes ist bei komplexen Aufgaben wie der Bilderkennung nahezu unmöglich.
Selbst als Ziming Liu und Kollegen versuchten, ein MLP für einfachere Aufgaben mit extra für die Aufgabe erzeugten Daten zurückzuentwickeln, hatten sie Schwierigkeiten. „Wenn wir nicht einmal diese synthetischen Datensätze von neuronalen Netzen interpretieren können, dann ist es hoffnungslos, mit realen Datensätzen umzugehen“, sagt Liu. „Es war wirklich schwer, diese neuronalen Netze zu verstehen. Also haben wir uns dazu entschlossen, ihre Architektur ändern.“
Eine neue Aktivierungsfunktion in KANs
Die wichtigste Änderung bestand darin, die feste Aktivierungsfunktion zu entfernen und eine viel einfachere, erlernbare Funktion einzuführen, um jede eingehende Eingabe zu transformieren, bevor sie in das Neuron gelangt.
Im Gegensatz zur Aktivierungsfunktion in einem MLP-Neuron, die zahlreiche Eingaben aufnimmt, nimmt jede einfache Funktion außerhalb des KAN-Neurons eine Zahl auf und gibt eine andere Zahl aus. Während des Trainings lernt das Kolmogorow-Arnold-Netz nun nicht mehr die einzelnen Gewichte, wie bei einem MLP, sondern nur noch, wie es die einzelnen einfachen Funktionen darstellen soll. In einer Arbeit, die dieses Jahr als Preprint-Paper veröffentlicht wurde, zeigten Liu und Kollegen, dass diese einfachen Funktionen außerhalb der Neuronen viel einfacher zu interpretieren sind. Somit ist es möglich, die mathematische Form der Funktion zu rekonstruieren, die vom gesamten KAN gelernt wird.
Das Team hat die Interpretierbarkeit von KANs jedoch bislang nur an einfachen, synthetischen Datensätzen getestet, nicht aber an realen Problemen, wie der Bilderkennung, die komplizierter sind. „Wir stoßen langsam an die Grenzen“, sagt Liu, „die Interpretierbarkeit ist anspruchsvoll.“ Liu und Kollegen arbeiten nicht als Einzige an der Black-Box-Thematik. Der finnische KI-Pionier Kary Främling von der Universität Umeå geht das Problem ebenfalls an. Främling setzt auf die sogenannte CIU-Methode (Contextual Importance and Utility Approach), wobei die Funktionsweise von KI-Modellen erkannt werden soll, indem geschaut wird, wie deren Outputs in Abhängigkeit von bestimmten Eingaben variieren.
Lässt sich der neue Ansatz ausweiten?
Liu und Kollegen haben auch gezeigt, dass KANs mit zunehmender Größe schneller genauer werden als MLPs. Das Team wies dies sowohl theoretisch als auch empirisch für wissenschaftsbezogene Aufgaben wie das Lernen der Annäherung von Funktionen, die für die Physik relevant sind. „Es ist noch unklar, ob sich diese Beobachtung auf Standardaufgaben des maschinellen Lernens ausweiten lässt, aber zumindest für wissenschaftsbezogene Aufgaben scheint sie vielversprechend zu sein“, sagt Liu.
Der Wissenschaftler räumt aber auch einen wichtigen Nachteil von KANs ein: Das Training eines KANs erfordert mehr Zeit und Rechenleistung als das eines MLP. „Dies schränkt die Anwendungseffizienz von KANs bei großen Datensätzen und komplexen Aufgaben ein“, sagt Di Zhang von der Xi’an Jiaotong-Liverpool University in Suzhou, China. Möglicherweise könnten hier allerdings effizientere Algorithmen und Hardwarebeschleuniger helfen.