KI erreicht menschliches Niveau: Googles Palm ist das größte Sprachmodell der Welt

Neue KI-Sprachmodelle definieren sich nicht nur über schiere Größe. (Bild: Phonlamai Photo / Shutterstock)
Die Forschung im Bereich der Sprach-KI schreitet rasant voran. Jetzt haben die Wissenschaftlerinnen und Wissenschaftler von Google das größte Sprachmodell, das jemals der Öffentlichkeit gezeigt wurde, vorgestellt.
Schiere Größe reicht nicht mehr: Sprachmodelle diversifizieren sich
In einem Blogbeitrag erklärt das Team, mit seinem Pathways Language Model (Palm) eine KI erschaffen zu haben, die mit mehr als 540 Milliarden Parameter größer als das Megatron-Turing-Natural-Language-Generation-Model (MT-NLG) von Microsoft und Nvidia ist. In verschiedenen Tests überzeuge das Modell dermaßen, dass es mit menschlichen Leistungen mithalten könne.
Schon bei der Entwicklung des Sprachmodells Gopher sind die Forschenden des Alphabet-Unternehmens Deepmind zu der Erkenntnis gelangt, dass ein reines Skalieren des Modells nicht zwingend zu besseren Ergebnissen führt. Deshalb haben sie zwischenzeitlich unter der Bezeichnung Retro ein sehr viel kleineres Modell entwickelt, das wegen einer Eigenart dennoch mit KI mithalten kann, die über das bis zu 25-fache der Parameter enthalten. Retro kann nämlich auf eine Datenbank mit zwei Billionen Textabschnitten zugreifen, um nach Passagen mit ähnlicher Sprache zu suchen, die seine Vorhersagen verbessern könnten.
Pathways kombiniert Multitasking mit Parameter-Modell
Bei der Entwicklung von Palm setzt Google auch nicht mehr auf die schiere Größe, obwohl die natürlich riesig ist. Beim neuen Palm-System wird die KI-Leistung mit einer Form von Multitasking kombiniert, um die Leistungsfähigkeit zu erhöhen. Diese Multitasking-Fähigkeit, die Google Pathways nennt, wurde nun erstmals zur Unterstützung eines Sprachmodells eingesetzt. Dadurch soll es den Forschenden gelungen sein, ein Modell zu erschaffen, dessen zwar beachtliche quantitative Werte nicht allein für die qualitative Aussage herangezogen werden. So konnte das Palm-Modell auch in den gängigen Tests zur Beurteilung der Leistungsfähigkeit eines Sprachmodells glänzen.
Palm soll in 28 von 29 Tests den Wettbewerb teils deutlich hinter sich gelassen haben. Dabei handelte es sich um vorwiegend einsprachige Tests wie einfache Frage-Antwort-Tests, Lückentexte, Satzvervollständigungen, Aufgaben zum Leseverstehen und zum logischen Denken sowie Tests, bei denen es darauf ankommt, aus natürlich-sprachlichen Aussagen die richtigen Schlüsse zu ziehen. Bei derlei Tests konnte Palm teils Fähigkeiten zeigen, die auf dem Niveau des Sprachverständnisses von 9- bis 12-Jährigen lagen, so Google.
Auch bei Übersetzungsaufgaben habe das System eine „starke Leistung“ erbracht. Gleiches gelte für das anspruchsvolle Lernen mit vergleichsweise wenig Information, das sogenannte Few-Shot-Learning. Dabei soll Palm erneut mit dem Durchschnitt menschlicher Ergebnisse für diese Tests mithalten können.
Sprachmodelle können noch immer durch reine Skalierung potenter werden
Trotz Pathways und Retro sieht das Forschenden-Team immer noch Leistungssteigerungen als möglich an, die sich durch das reine Skalieren der Modelle ergeben können. Die 580 Milliarden Parameter des Palm-Modells dürften demnach schon bald im Rückspiegel verschwinden. Das gefällt nicht jedem. So hatten die ehemalige Google-Ethik-Forscherin Timnit Gebru und ihr Team in der Arbeit, die zu ihrer Entlassung aus dem Unternehmen führte, betont, dass die schiere Größe von KI-Modellen zu steigender Intransparenz führe. Moderne KI-Modelle würden dadurch noch undurchschaubarer als ein durchschnittliches neuronales Netzwerk – und das sei bereits als „Blackbox“ bekannt. Deshalb sei damit zu rechnen, dass Verzerrungen in aktuellen Modellen immer schwerer zu erkennen und zu mildern seien – ein schwerwiegendes ethisches Problem, für das es bislang keine Lösung gibt.
Die Gefahr wäre zu groß das für den Otto Normal Bürger freizuschalten.
Deswegen bleibt KI ab diesem Fortschrittslevel unter Verschluss.