Anzeige
Anzeige
News

Google-Chef sorgt mit Äußerungen über KI für Kritik

KI-Anwendungen als Blackbox und ein Sprachmodell, das etwas lernt, worauf es nicht explizit trainiert wurde – diese Aussage von Google-CEO Sundar Pichai sorgt bei KI-Forscher:innen für Kritik.

Von Brian Rotter
3 Min.
Artikel merken
Anzeige
Anzeige
Die Google-KI hat eine neue Sprache gelernt, ohne dass Forscher dies wollten. (Foto: Tada Images/Shutterstock)

„Manche KI-Systeme bringen sich selbst Fähigkeiten bei, von denen man nicht erwartet hat, dass sie sie haben. Wie das passiert, ist bislang ungeklärt.“ Dieser Satz von CBS-Korrespondent Scott Pelley lässt KI-Anwendungen mysteriös, fast schon unheimlich wirken. Gefallen ist er in einem 60-minütigen Beitrag über künstliche Intelligenz, in dem auch Google-CEO Sundar Pichai und Google-Tech-Berater James Manyika ausführlich zu Wort kamen.

Anzeige
Anzeige

Pelleys Moderation und die Interviews mit Sundar und Manyika werfen die Frage auf: Hat das Google-Sprachmodell Palm sich quasi auf eigene Faust eine Sprache beigebracht – und ist KI manchmal eine undurchdringbare „Blackbox“?

Google-CEO Pichai: KI ist nicht immer nachvollziehbar

Manyika erzählt im Interview mit Pelley, Palm habe einige wenige Prompts auf Bengali erhalten und wäre wenig später in der Lage gewesen, „alles Bengalische zu übersetzen“. Für Manyika ein wichtiger Fortschritt, schließlich soll die KI-Anwendung eines Tages bis zu 1.000 verschiedene Sprachen sprechen und verstehen.

Anzeige
Anzeige

Im CBS-Beitrag folgt Manyikas Schilderung ein Interview-Ausschnitt mit Google-CEO Sundar Pichai. „Es gibt einen Aspekt, den wir in der Branche ‚Blackbox‘ nennen“, so Pichai im Interview. „Du verstehst es nicht ganz. Und du kannst nicht genau sagen, warum die KI es gesagt hat.“ Es gäbe zwar Ansätze, doch noch keine Lösungen für „emergente“ Eigenschaften.

Auf die Frage, ob eine KI, die selbst ihre eigenen Entwickler:innen nicht vollumfänglich verstehen, einfach so auf die Gesellschaft losgelassen werden kann, hat Pichai eine klare Antwort: „Ich glaube, wir verstehen auch nicht ganz, wie ein menschlicher Verstand funktioniert“, sagt der CEO.

Anzeige
Anzeige

KI-Doku: Kritik von Ex-Google-Teamleiterin

Die Aussagen von Manyika und Pichai sowie die Moderation durch Pelley suggerieren, dass KI-Anwendungen teils mehr lernen können, als ihre Entwickler:innen beabsichtigen – eine Darstellung, die in der Tech-Community für Kritik sorgt.

Der geschilderte Bengali-Fall lasse sich zumindest relativ gut erklären, so KI-Forscherin Margaret Mitchell, die einst bei Google das KI-Ethik-Team geleitet hat und mittlerweile in einem Startup als KI-Forscherin arbeitet. Palm sei einem Google-Forschungsbericht zufolge schließlich auch zu 0,026 Prozent mit Daten auf Bengali trainiert worden.

Anzeige
Anzeige

„Wenn man ein Modell, das auf Bengali trainiert wurde, mit Bengali zu etwas auffordert, gleitet es ganz einfach in das, was es über Bengali weiß: So funktioniert Prompting“, schreibt Mitchell via Twitter. KI-Anwendungen seien dagegen nicht in der Lage, Sprachen zu sprechen, zu denen sie nie Zugang hatten.

Durch Buzzfeed mit der Kritik am CBS-Beitrag konfrontiert, heißt es von Google: Palm sei nicht darauf trainiert worden „1) zwischen Sprachen zu übersetzen, 2) Fragen im Q&A-Format zu beantworten oder 3) während der Beantwortung von Fragen Informationen in andere Sprachen zu übersetzen“. Das Sprachmodell habe „diese neuen Fähigkeiten selbständig erlernt, und das ist eine beeindruckende Leistung“, so Google-Sprecher Jason Post.

Aus Sicht von Emily Bender, Professorin für Computerlinguistik an der Universität Washington, wurde das im CBS-Beitrag allerdings nicht differenziert genug dargestellt.

Anzeige
Anzeige

KI als Gefahr? Es braucht Verantwortung

Gegenüber Buzzfeed prangert Bender außerdem Sundar Pichais Blackbox-Aussagen an: „Wenn Tech-Führungskräfte die tatsächliche Funktionsweise der Technologie verschleiern und uns glauben lassen, dass sie mysteriöse ‚emergente‘ Eigenschaften hat, wird es schwieriger, eine angemessene Regulierung zu schaffen.“ Man dürfe den Verantwortlichen von Tech-Unternehmen nicht erlauben, die Verantwortung für von ihnen geschaffene Anwendungen „auf die sogenannten KI-Systeme selbst zu verlagern“, so Bender.

Dass Unternehmen eben diese Verantwortung für Technologien übernehmen müssen, fordern neben Bender auch zahlreiche andere KI-Expert:innen.

Pichais Aussagen dürften allerdings auch absoluten KI-Kritiker:innen in die Karten spielen – wie etwa dem in Deutschland geborenen Ex-US-Außenminister Henry Kissinger. Er hat sich mit dem ehemaligen Google-CEO Eric Schmidt und dem Computerwissenschaftler Daniel Huttenlochner zusammengetan und potenzielle Gefahren von Chatbots aufgezeigt. Seine Befürchtung: Technologien wie die von OpenAI könnten künftig einfach zu schnell für die Verarbeitungsfähigkeit des menschlichen Gehirns immer neue Informationen anbieten – und die Menschen damit irgendwann abhängen.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare (1)

Community-Richtlinien

Bernhard Weck

Wie kann man feststellen, dass sich die KI selbst etwas gelernt hat?

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige