„Manche KI-Systeme bringen sich selbst Fähigkeiten bei, von denen man nicht erwartet hat, dass sie sie haben. Wie das passiert, ist bislang ungeklärt.“ Dieser Satz von CBS-Korrespondent Scott Pelley lässt KI-Anwendungen mysteriös, fast schon unheimlich wirken. Gefallen ist er in einem 60-minütigen Beitrag über künstliche Intelligenz, in dem auch Google-CEO Sundar Pichai und Google-Tech-Berater James Manyika ausführlich zu Wort kamen.
Pelleys Moderation und die Interviews mit Sundar und Manyika werfen die Frage auf: Hat das Google-Sprachmodell Palm sich quasi auf eigene Faust eine Sprache beigebracht – und ist KI manchmal eine undurchdringbare „Blackbox“?
Google-CEO Pichai: KI ist nicht immer nachvollziehbar
Manyika erzählt im Interview mit Pelley, Palm habe einige wenige Prompts auf Bengali erhalten und wäre wenig später in der Lage gewesen, „alles Bengalische zu übersetzen“. Für Manyika ein wichtiger Fortschritt, schließlich soll die KI-Anwendung eines Tages bis zu 1.000 verschiedene Sprachen sprechen und verstehen.
Im CBS-Beitrag folgt Manyikas Schilderung ein Interview-Ausschnitt mit Google-CEO Sundar Pichai. „Es gibt einen Aspekt, den wir in der Branche ‚Blackbox‘ nennen“, so Pichai im Interview. „Du verstehst es nicht ganz. Und du kannst nicht genau sagen, warum die KI es gesagt hat.“ Es gäbe zwar Ansätze, doch noch keine Lösungen für „emergente“ Eigenschaften.
Auf die Frage, ob eine KI, die selbst ihre eigenen Entwickler:innen nicht vollumfänglich verstehen, einfach so auf die Gesellschaft losgelassen werden kann, hat Pichai eine klare Antwort: „Ich glaube, wir verstehen auch nicht ganz, wie ein menschlicher Verstand funktioniert“, sagt der CEO.
KI-Doku: Kritik von Ex-Google-Teamleiterin
Die Aussagen von Manyika und Pichai sowie die Moderation durch Pelley suggerieren, dass KI-Anwendungen teils mehr lernen können, als ihre Entwickler:innen beabsichtigen – eine Darstellung, die in der Tech-Community für Kritik sorgt.
Der geschilderte Bengali-Fall lasse sich zumindest relativ gut erklären, so KI-Forscherin Margaret Mitchell, die einst bei Google das KI-Ethik-Team geleitet hat und mittlerweile in einem Startup als KI-Forscherin arbeitet. Palm sei einem Google-Forschungsbericht zufolge schließlich auch zu 0,026 Prozent mit Daten auf Bengali trainiert worden.
„Wenn man ein Modell, das auf Bengali trainiert wurde, mit Bengali zu etwas auffordert, gleitet es ganz einfach in das, was es über Bengali weiß: So funktioniert Prompting“, schreibt Mitchell via Twitter. KI-Anwendungen seien dagegen nicht in der Lage, Sprachen zu sprechen, zu denen sie nie Zugang hatten.
Durch Buzzfeed mit der Kritik am CBS-Beitrag konfrontiert, heißt es von Google: Palm sei nicht darauf trainiert worden „1) zwischen Sprachen zu übersetzen, 2) Fragen im Q&A-Format zu beantworten oder 3) während der Beantwortung von Fragen Informationen in andere Sprachen zu übersetzen“. Das Sprachmodell habe „diese neuen Fähigkeiten selbständig erlernt, und das ist eine beeindruckende Leistung“, so Google-Sprecher Jason Post.
Aus Sicht von Emily Bender, Professorin für Computerlinguistik an der Universität Washington, wurde das im CBS-Beitrag allerdings nicht differenziert genug dargestellt.
KI als Gefahr? Es braucht Verantwortung
Gegenüber Buzzfeed prangert Bender außerdem Sundar Pichais Blackbox-Aussagen an: „Wenn Tech-Führungskräfte die tatsächliche Funktionsweise der Technologie verschleiern und uns glauben lassen, dass sie mysteriöse ‚emergente‘ Eigenschaften hat, wird es schwieriger, eine angemessene Regulierung zu schaffen.“ Man dürfe den Verantwortlichen von Tech-Unternehmen nicht erlauben, die Verantwortung für von ihnen geschaffene Anwendungen „auf die sogenannten KI-Systeme selbst zu verlagern“, so Bender.
Dass Unternehmen eben diese Verantwortung für Technologien übernehmen müssen, fordern neben Bender auch zahlreiche andere KI-Expert:innen.
Pichais Aussagen dürften allerdings auch absoluten KI-Kritiker:innen in die Karten spielen – wie etwa dem in Deutschland geborenen Ex-US-Außenminister Henry Kissinger. Er hat sich mit dem ehemaligen Google-CEO Eric Schmidt und dem Computerwissenschaftler Daniel Huttenlochner zusammengetan und potenzielle Gefahren von Chatbots aufgezeigt. Seine Befürchtung: Technologien wie die von OpenAI könnten künftig einfach zu schnell für die Verarbeitungsfähigkeit des menschlichen Gehirns immer neue Informationen anbieten – und die Menschen damit irgendwann abhängen.
Wie kann man feststellen, dass sich die KI selbst etwas gelernt hat?