Trendreport

Transfer Learning: Das Wundermittel für mehr Intelligenz?

Seite 2 / 2

Die anfängliche Genauigkeit sei dabei oft nicht so wichtig – wichtig sei nur, dass sie über dem Zufall liege. „Denn dann können wir anfangen, leicht überwacht zu lernen oder aktiv zu lernen.“ Sobald die Richtung klar ist, kann sich ein System ­verbessern und immer dann Menschen um Hilfe fragen, wenn es sich davon eine relevante Erkenntnis erhofft. Dieses „aktive Lernen“ ist der nächste Schritt, der Schuller hilft, mit weniger Annotations­aufwand als üblich die Genauigkeit seiner Netze zu verbessern.

So hatte er etwa Probleme, genügend Sprachdaten autis­tischer Kinder zu erheben, um für diese Zielgruppe ein Trainingssystem zu bauen, das dabei hilft, sowohl die eigenen Emotionen besser zu vermitteln als auch andere besser zu verstehen. Also ­nutzte er kurzerhand ein Netz, das auf Erwachsenen­sprachdaten ­vortrainiert war, was die Genauigkeit beim Lernen mit den Kindersprachdaten von 50 Prozent auf 60 bis 70 Prozent erhöhte. ­Mittels „kooperativem aktivem Lernen“, bei dem die ­Systeme selbst einschätzen, wie sicher sie sich sind, und nur dann beim Menschen nachfragen, wenn sie sich davon einen größeren ­Lernerfolg versprechen, wurde die Genauigkeit noch besser: „Wir konnten so die Zahl der nötigen Nachfragen auf ein ­Zwanzigstel reduzieren“, berichtet Schuller. Und überall, wo keine ­menschliche Arbeitskraft mehr einfließen muss, werden die Systeme ­günstiger.

„Machine Learning hat viel mit Ausprobieren zu tun“, sagt ­Zbigniew Jerzak von SAP. „Sie wissen nie, ob sie mit den Daten die Ergebnisse erzielen, die sie wollen.“ Deshalb sei Transfer ­Learning vor allem für kleine Unternehmen eine Hürde. „Es ist ein großes Investment.“ SAP habe nicht zuletzt wegen der Vielzahl an Kundendaten einen Vorteil: Sie führen zu sehr robusten Systemen. SAP verkaufe deshalb halbtrainierte Netze für gewisse Anwendungsbereiche an Unternehmen, für die es zu aufwendig ist, komplett selbst zu trainieren.

Andererseits haben kleine Unternehmen auch eine ­gewisse ­Narrenfreiheit. „Wir können es uns leisten, dass mal etwas schiefgeht“, sagt Björn Schuller. „Google vielleicht eher nicht.“ Er ist überzeugt, dass Google ebenfalls im Hintergrund mit Sprachdaten und ­Emotionen experimentiert, aber sich damit noch nicht an die Öffentlichkeit wagt. Vielleicht auch, weil Google immer noch unter einem peinlichen Vorfall mit maschinellem Lernen leidet: 2015 erkannte eine Bilderkennungs­software im Foto einer dunkelhäutigen Frau fälschlicherweise einen Gorilla. Google merkte das erst, als der Tweet der Betroffenen viral ging.

Das Problem mit der Diskriminierung

Diese Fehlbarkeit und nicht nachvollziehbare maschinelle Entscheidungen sind Probleme, die durch Transfer Learning noch verstärkt werden, warnt Marcel Blattner, Chief Data Scientist bei der Schweizer Mediengruppe Tamedia. „Die Risiken von Transfer Learning werden oft unterschätzt.“ So besteht die Gefahr, dass Transfer Learning ein bekanntes Problem künstlicher Intelligenz noch verschärft: Immer wieder treffen Systeme des maschinellen Lernens Fehlentscheidungen oder verstärken rassistische oder sexisitische Diskriminierung, weil die Vorurteile schon in den Trainingsdaten stecken.

Wie schnell es ganz unabhängig von Transfer Learning gehen kann, dass Systeme des maschinellen Lernens Ausgrenzung verstärken, erklärt er am Beispiel eines Londoner Krankenhauses, das bereits in den 1980er-Jahren den Bewerbungsprozess teil­automatisieren wollte und ein System des maschinellen Lernens eine Vorauswahl der Bewerbungen auf Arztstellen treffen ließ: „Es wurde acht Monate damit gearbeitet – und in dieser Zeit hat die Maschine deutlich weniger Frauen und Ausländer vorgeschlagen.“ Sie hatte die Rassismen und Sexismen ihrer menschlichen Vorgänger übernommen und zur Perfektion getrieben. Häufig sind Trainingsdaten verzerrt – und häufig ist das allein schon schwer nachzuvollziehen. Transfer Learning macht solche Verzerrungen noch unsichtbarer und verbreitet sie im Zweifel weiter.

„Wenn du bei Sprachmodellen auf Wikipedia vortrainierte ­Netze nimmst und mit diesen Transfer Learning machst, übernimmst du ­deren Bias in dein neues System“, beschreibt es Blattner. Schließlich stecken auch in ­Wikipedia die Vorurteile der Menschheit. Wenn man Transfer ­Learning richtig machen wolle, müsse man schauen, was die Ursprungsdaten sind und für welchen Zweck sie einst verwendet wurden. Blattner mahnt: „Man muss immer fragen: Was für ein Problem kann das verursachen?“ Doch das machen noch lange nicht alle, im Gegenteil: „Transfer Learning ist einfach zu machen. Ich lade irgendwo ein Modell herunter und gebe meine Daten hinein. Firmen stehen oft unter Zeitdruck und können nicht alle nötigen Checks durchführen.“

Für die Onlinemedien der Tamedia haben Blattner und sein Team beispielsweise ein System entwickelt, das automatisch Vorschläge macht, welche Kommentare unter Artikeln nicht veröffentlicht werden sollen. „Dieses Netz ist extrem ‚gebiast‘, weil diese Kommentare Meinungen einer bestimmten Bevölkerungsgruppe reflektieren.“ So habe das System viele sexistische und rassistische Vokabeln gelernt. Zudem sei es besonders sensibel bei Kommentaren über Politikerinnen – weil diese viel häufiger beleidigt werden als ihre männlichen Kollegen. „Würde man dieses System nun beispielsweise nehmen, um die Qualität von Artikeln zu überprüfen, würde man den Bias des Kommentar-Universums mit in die neue Aufgabe übernehmen.“ Womöglich würden dann Artikel über Frauen und Männer mit zweierlei Maß gemessen. „Das zeigt die Gefahr von Transfer Learning.“

Gefährlich sei es auch, wenn ein Bias in einem Modell für den ­ersten Anwendungsfall kein Problem war, in einer anderen Domäne aber richtig Schaden anrichte – wie im Beispiel der ­Kommentar-Moderation per KI. Eigentlich müsse jeder Anwender eines solchen Systems die Trainingsdaten anschauen und verstehen, welche Probleme sie beinhalten. Doch Blattner hat mit ­vielen großen Firmen gesprochen und wenig Vertrauen: „Das Problem ist die Aufgabenteilung. In der ganzen Pipeline, in der diese Systeme entstehen – von der Datengewinnung bis zu dem ­Moment, an dem sie in die Welt hinausgelassen werden – herrscht oft Aufgabenteilung.“ Und über schlechte Dokumentation wurde schon viel geschrieben. „Oft versteht derjenige, der das Modell konsumiert, nicht, wie es funktioniert.“

Letztlich sei es teuer, das alles nachzuvollziehen. Und auch einen Bias aus einem System zu entfernen, sei aufwendig. „Die Systeme werden meist schlechter dadurch. Daran haben die Unternehmen oft kein Interesse.“ Stattdessen würden sie die Technik durch ­verzerrte Trainingsdaten mit halbgaren Ergebnissen und Ungenauigkeiten auf den Markt bringen. Das sei ärgerlich, weil es unter anderem die Benachteiligung be­stimmter ­Bevölkerungsgruppen immer weiter verschärfe – ohne, dass ­diese unfairen Entscheidungen von Menschen wirklich nachvollzogen werden könnten. Blattner ärgert das: „Ich glaube an diese Technologie und ich glaube, dass sie uns weiterbringen kann, aber nur mit einem ehrlichen Diskurs.“ Bei genauer Betrachtung sei Transfer Learning alles andere als einfach – und das werde zu selten berücksichtigt.

Schuller bestätigt diese Gefahr: „Die Erklärbarkeit wird in der Tat durch Transfer Learning noch herausfordernder.“ Schließlich sei es ohnehin oft schwierig, herauszubekommen, wie eine KI zu ihren Schlüssen komme. „Wenn man die Trainingsdaten nicht einmal kennt, ist das natürlich kaum mehr möglich.“ Auch SAP weiß um die Fehlentscheidungen künstlicher Intelligenz und hat sich mit ihnen arrangiert. „Maschinelles Lernen hat nie eine Genauigkeit von 100 Prozent“, sagt Jerzak. Deshalb schaue im ­Falle der Rechnungen immer noch ein Mensch drauf. „Man kann es nicht blind einsetzen, schließlich ist Transfer Learning ein Teil von einem software-unterstützten Business­prozess und muss den Anforderungen an Genauigkeit unterliegen.“ Die im Beispiel beschriebenen Rechnungen würden mit maschinellem Lernen dennoch schneller und genauer bearbeitet als vorher: „Menschen machen schließlich auch Fehler. Und das, obwohl sie Generalisten sind – was die Maschinen erst noch werden müssen.“

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 65 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Stephan Dörner (Chefredakteur t3n.de) & das gesamte t3n-Team

Anleitung zur Deaktivierung