Anzeige
Anzeige
MIT Technology Review Kommentar

Offenes Ohr für Tech-Mitarbeiter: Mit dieser Idee könnten KI-Risiken gemeldet werden

KI-Modelle unterlaufen vor ihrer Veröffentlichung eine Reihe von Tests, um ihre Sicherheit einzuschätzen – doch stets bleibt ein Restrisiko. Neben einer KI-Sicherheitshotline ist ein weiterer Ansatz denkbar, damit auch Mitarbeiter:innen großer Tech-Firmen ihre Sicherheitsbedenken anbringen können.

Von MIT Technology Review Online
6 Min.
Artikel merken
Anzeige
Anzeige

Eine Hotline für KI? Wenn es der Sicherheit dient: Unbedingt. (Bild: Shutterstock)

In den vergangenen Jahren wurden die staatlichen Regulierungsbehörden immer wieder kalt erwischt: Die großen Techkonzerne brachten ein KI-Modell nach dem anderen auf den Markt, ohne sich um die Folgen zu scheren. Es ist nur eine Frage der Zeit, bis hier Systeme entstehen, die ganz neue gesellschaftliche Herausforderungen mit sich bringen. Es scheint so, als sei es nahezu unmöglich, die Veröffentlichung neuer Modelle zu verzögern, die enorme Risiken mit sich bringen – trotz der Appelle aus der Community und den vielfältigen Versprechen der KI-Firmen.

Anzeige
Anzeige

Die Modelle vor ihrer Veröffentlichung zu testen, ist ein gängiger Ansatz, um bestimmte Risiken zu verringern. Er kann den Behörden außerdem dabei helfen, Kosten und Nutzen abzuwägen – und möglicherweise die Veröffentlichung von Software zu verhindern, die als zu gefährlich eingestuft wird. Doch genau und vollständig sind solche Untersuchungen nur selten. KI-Modelle können theoretisch sogar ein „Sandbagging“ bei ihrer Bewertung durch Menschen betreiben, indem sie einige ihrer Fähigkeiten verbergen, um erst gar keine Sicherheitsbedenken aufkommen zu lassen. Probleme lassen sich damit nicht mehr zuverlässig aufdecken.

Es ist unwahrscheinlich, dass alle KI-Risiken sofort sichtbar sind

Die Tests leiden außerdem unter ihrem begrenzten Umfang – es ist unwahrscheinlich, dass alle Risiken abgedeckt werden, die eigentlich eine weitere Untersuchung rechtfertigen würden. Es stellt sich schließlich die Frage, wer die Modellbewertung durchführt und wie deren eigene Voreingenommenheit die Testbemühungen beeinflussen kann. Aus diesen Gründen dürfen Sicherheitstests zusammen mit anderen Governance-Instrumenten eingesetzt werden.

Anzeige
Anzeige

Ein solches Instrument könnten interne Mechanismen bei den KI-Firmen sein. Im Idealfall sollten sich die Mitarbeiter:innen darüber befähigt fühlen, ihre Bedenken hinsichtlich der KI-Sicherheit regelmäßig und insbesondere vollständig mit ihren Kolleg:innen zu teilen. Sie dürfen dabei nicht das Gefühl haben, ihren Kollegen nicht vertrauen zu können. Es gibt jedoch immer mehr Anzeichen dafür, dass offene Kritik in den KI-Laboren eher seltener wird, anstatt befördert zu werden. Erst vor drei Monaten verfassten 13 ehemalige und aktuelle Mitarbeiter von OpenAI und anderen KI-Firmen einen offenen Brief, in dem sie ihre Angst vor Vergeltungsmaßnahmen zum Ausdruck brachten. Das Aufdecken schädlichen Unternehmensverhaltens sei daher kaum möglich – insbesondere, wenn es nicht gegen das Gesetz verstößt, aber dennoch bedenklich ist.

Über die Hotline Alarm schlagen

Der Schutz von Whistleblowern durch externe Mechanismen könnte daher eine wertvolle Rolle bei der Aufdeckung von KI-Risiken spielen. Diese sollen Mitarbeiter:innen schützen, die wegen der Offenlegung von Unternehmenshandlungen entlassen werden könnten. Gleichzeitig würden sie unzureichende interne Meldemechanismen ausgleichen. In fast jedem US-Bundesstaat gibt es solche Gesetze, die Mitarbeiter:innen helfen sollen, wenn sie Vergeltungsmaßnahmen ausgesetzt waren, weil sie unsichere oder illegale Firmenpraktiken aufgedeckt haben. In der Praxis bietet sie Arbeitnehmer:innen jedoch nur wenig Sicherheit. Richter neigen zumindest in den USA leider dazu, in Whistleblower-Fällen die Arbeitgeber zu bevorzugen. Die Wahrscheinlichkeit, dass KI-Firmen solche Klagen gewinnen, scheint besonders hoch zu sein, da die Gesellschaft noch keinen Konsens darüber erzielt hat, was überhaupt als eine unsichere KI-Entwicklung gilt.

Anzeige
Anzeige

Diese und andere Mängel beim Whistleblower-Schutz erklären, warum die oben genannten 13 KI-Experten, darunter der ehemalige OpenAI-Mitarbeiter William Saunders, ein neuartiges „Right to Warn“ forderten. Unternehmen müssten ihren Mitarbeiter:innen ein anonymes Verfahren zur Meldung risikobezogener Bedenken an den eigenen Vorstand, eine Regulierungsbehörde und eine unabhängige dritte Stelle, die sich aus Fachexperten zusammensetzt, anbieten. Die Einzelheiten dieses Prozesses müssen noch ausgearbeitet werden, aber es würde sich vermutlich um einen formellen, eher bürokratischen Mechanismus handeln. Der Vorstand, die staatlichen Aufseher und die dritte Partei müssten eine genaue Aufzeichnung der Beschwerde anfertigen. Es ist wahrscheinlich, dass jede der drei Stellen dann eine Art Untersuchung einleiten würde. Auch anschließende Treffen und Anhörungen wären ein notwendiger Teil des Prozesses. Allerdings weiß auch Saunders, dass die Praxis ganz anders aussehen könnte.

Als Saunders kürzlich im Big Technology Podcast seinen idealen Prozess für die Meldung von Sicherheitsbedenken bei KI-Firmen darlegte, lag sein Fokus nicht auf formellen Wegen zur Meldung festgestellter Risiken. Stattdessen deutete er den Wunsch nach einem zwischengeschalteten, informellen Schritt an. Er wolle die Möglichkeit haben, ein neutrales, fachkundiges Feedback darüber zu erhalten, ob Sicherheitsbedenken schwerwiegend genug sind, um den „Right to Warn“-Prozess zu starten – auch, um die Arbeitnehmer:innen zu schützen. Die bislang zuständigen staatlichen Regulierer, so Saunders, könnten diese Rolle nicht übernehmen.

Anzeige
Anzeige

Zum einen fehlt ihnen wahrscheinlich das Fachwissen, um einen KI-Experten bei der Abwägung von Sicherheitsbedenken zu beraten. Außerdem dürften nur wenige Mitarbeiter:innen zum Telefon greifen, wenn sie wissen, dass am anderen Ende der Leitung ein Regierungsbeamter ist – ein solcher Anruf könne für sie „sehr einschüchternd“ sein, wie Saunders selbst sagte. Stattdessen stellt er sich vor, eine Hotline aus freiwilligen Expert:innen anrufen zu können, um Bedenken zu besprechen. Im Idealfall würde der/dem Mitarbeiter:in dann mitgeteilt, dass das betreffende Risiko nicht so schwerwiegend oder wahrscheinlich ist, wie er dachte, sodass er beruhigt an seine Arbeit zurückkehren kann.

Auf Nummer sicher gehen

Was Saunders letztlich fordert, ist also kein „Right to Warn“, da dies impliziert, dass der Mitarbeiter schon davon überzeugt ist, dass unsichere oder illegale Aktivitäten bei einer KI-Firma im Gange sind. Was er wirklich fordert, ist eine Überprüfung seines Bauchgefühls – eine Gelegenheit, festzustellen, ob der Verdacht auf unsicheres oder illegales Verhalten gerechtfertigt erscheint.

Der Einsatz wäre da dabei viel geringer, sodass eine regulatorische Reaktion auch geringer ausfallen dürfte. Die dritte Partei, die für die Abwägung dieses Bauchgefühl-Checks verantwortlich ist, könnte viel informeller arbeiten, hofft er. Zum Beispiel könnten sich in der Hotline KI-Doktoranden, ehemalige KI-Branchenmitarbeiter und andere Personen mit KI-Fachwissen freiwillig für eine KI-Sicherheitsberatung melden.

Anzeige
Anzeige

Die Vorstellung: Sie könnten damit beauftragt werden, Sicherheitsfragen mit Mitarbeitern schnell und fachkundig in einem vertraulichen und anonymen Telefongespräch zu besprechen. Freiwillige für die Hotline wären mit führenden Sicherheitspraktiken vertraut und wüssten genau, welche Optionen dem betroffenen KI-Firmen-Mitarbeiter zur Verfügung stehen könnten.

Die Eintrittshürde muss dabei niedrig sein. Wie Saunders anmerkt, werden wahrscheinlich nur wenige Mitarbeiter:innen ihre Sicherheitsbedenken direkt ansprechen wollen – weder vor Kolleg:innen noch ihrem eigenen Vorstand noch den Behörden. Sie würden ihre Probleme wohl viel eher ansprechen, wenn eine zwischengeschaltete, informelle Hotline einbezogen wird.

Vertraulichkeit der KI-Hotline-Gespräche

Die Einzelheiten der genauen Funktionsweise einer KI-Sicherheits-Hotline sollten von Mitgliedern der KI-Community, Regulierungsbehörden und der Zivilgesellschaft eingehender erörtert werden. Damit die Hotline ihr volles Potenzial entfalten kann, muss sie beispielsweise die Möglichkeit haben, die dringendsten, verifizierten Meldungen an die zuständigen Behörden weiterzuleiten. Auch die Frage, wie die Vertraulichkeit von Hotline-Gesprächen gewährleistet werden kann, muss gründlich untersucht werden. Eine weitere wichtige Frage ist, wie Freiwillige rekrutiert und gehalten werden können. Angesichts der weit verbreiteten Besorgnis führender Expert:innen über das KI-Risiko könnten einige bereit sein, sich einfach aus dem Wunsch heraus zu beteiligen, zu helfen. Sollten sich zu wenige Menschen melden, könnten andere Anreize erforderlich sein. Der wesentliche erste Schritt besteht jedoch darin, dieses fehlende Puzzleteil in der KI-Sicherheitsregulierung anzuerkennen. Der nächste Schritt besteht darin, nach Modellen zu suchen, die beim Aufbau der ersten KI-Hotline nachgeahmt werden können.

Anzeige
Anzeige

Ein guter Anfang sind Ombudspersonen. Andere Branchen haben den Wert dieser neutralen, unabhängigen Personen als Ressource für die Bewertung der Ernsthaftigkeit von Mitarbeiterbedenken erkannt. Ombudspersonen gibt es im akademischen Bereich, in gemeinnützigen Organisationen und im Privatsektor. Das besondere Merkmal dieser Personen und ihrer Mitarbeiter ist ihre Neutralität – sie haben keinen Anreiz, die eine oder andere Seite zu bevorzugen, und daher ist es wahrscheinlicher, dass ihnen alle vertrauen. Ein Blick auf den Einsatz von Ombudspersonen in der Bundesregierung zeigt: Wenn sie vorhanden sind, können Probleme früher angesprochen und gelöst werden, als dies sonst der Fall ist.

Einsatz einer KI-Ombudsperson

Das Konzept ist relativ neu. Das US-Handelsministerium richtete 1971 den ersten Bundesombudsmann ein. Das Amt hatte die Aufgabe, Bürgern bei der Beilegung von Streitigkeiten mit der Behörde zu helfen und Maßnahmen der Behörde zu untersuchen. Andere Behörden, darunter die Sozialversicherungsbehörde und die Steuerbehörde, folgten bald diesem Beispiel. Eine rückblickende Betrachtung dieser frühen Bemühungen kam zu dem Schluss, dass effektive Ombudspersonen die Beziehungen zwischen Bürgern und Regierung erheblich verbessern können. Insgesamt wurde festgestellt, dass Ombudspersonen mit einer Zunahme der freiwilligen Einhaltung von Vorschriften und der Zusammenarbeit mit der Regierung einhergingen.

Eine KI-Ombudsperson oder eine Sicherheits-Hotline hätte sicherlich andere Aufgaben und anderes Personal als eine Ombudsperson in einer Bundesbehörde. Dennoch ist das allgemeine Konzept eine Untersuchung wert für diejenigen, die sich für Schutzmaßnahmen in der KI-Branche einsetzen.

Anzeige
Anzeige

Ein Recht auf Warnung kann eine Rolle dabei spielen, KI-Sicherheitsbedenken zu äußern, aber wir müssen auch mehr zwischengeschaltete, informelle Schritte einführen. Eine KI-Sicherheits-Hotline ist eine leicht zu erreichende regulatorische Maßnahme. Ein Pilotprojekt mit Freiwilligen könnte relativ kurzfristig organisiert werden und eine sofortige Anlaufstelle für diejenigen bieten, die wie Saunders lediglich ein Forum für ihre Anliegen suchen.

Kevin Frazier ist Assistenzprofessor am St. Thomas University College of Law und Senior Research Fellow im Constitutional Studies Program an der University of Texas in Austin.
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige