Anzeige
Anzeige
MIT Technology Review News

Schutz vor KI-Gefahren: MIT-Datenbank zeigt 700 mögliche Risiken auf

Die AI Risk Repository betitelte Liste basiert auf zahlreichen Fachartikeln und dokumentiert zahlreiche mögliche Risiken, die fortschrittliche KI-Systeme darstellen könnten. Doch diese Datenbank kann nur ein Anfang sein, um diese Gefahren auch in den Griff zu bekommen.

Von MIT Technology Review Online
3 Min.
Artikel merken
Anzeige
Anzeige

Vorsicht, AI inside! Eine neue Datenbank versucht durch Zusammenführung, einen Überblick über mögliche KI-Risiken zu geben. (Bild: Paper piper / Shutterstock)

Denkt man kritisch über den Einsatz von künstlicher Intelligenz nach, kann man schon ein wenig Bauchschmerzen bekommen: angefangen bei nachgeplapperten Vorurteilen und Unwahrheiten bis hin zur Gefahr der Abhängigkeit von KI-Chatbots, ganz zu schweigen von der Möglichkeit, Anleitungen für biologische oder chemische Waffen zu bauen oder dem ultimativen Kontrollverlust über diese Systeme.

Anzeige
Anzeige

Klar ist: Diese potenziellen Risiken müssen wir in den Griff bekommen. Aber dazu müssen wir erst einmal wissen, was sie im Kern ausmachen. Die Gruppe FutureTech bestehend aus Wissenschaftler:innen des CSAIL-Labors am Massachusetts Institute of Technology (MIT) und weiteren externen Beteiligten hat deshalb eine Datenbank zusammengestellt und online veröffentlich. Die AI Risk Repository betitelte Liste dokumentiert über 700 mögliche Risiken, die fortschrittliche KI-Systeme darstellen könnten. Es ist die bisher umfassendste Quelle für Informationen über bereits identifizierte Probleme, die sich aus der Entwicklung und dem Einsatz dieser Modelle ergeben könnten.

KI-Risiken in einer Liste gesammelt

Um die aufgelisteten Risiken erstmal zu ermitteln, die es auf die Liste schafften, durchforstete das Team sowohl bereits durch Expert:innen geprüfte Fachartikel als auch Texte aus Preprint-Datenbanken, die KI-Risiken detailliert beschreiben. Die häufigsten Risiken betrafen die Sicherheit und Robustheit von KI-Systemen (76 Prozent), unfaire Voreingenommenheit und Diskriminierung (63 Prozent) und die Gefährdung der Privatsphäre (61 Prozent). Die weniger verbreiteten Risiken sind eher esoterischer Natur, wie z. B. das Risiko der Entwicklung von KI mit der Fähigkeit, Schmerz zu empfinden oder so etwas wie den „Tod“ zu erleben.

Anzeige
Anzeige

Was die Datenbank auch verdeutlicht: Die meisten Risiken von KI werden erst erkannt, nachdem ein Modell veröffentlicht wurde. Nur 10 Prozent der untersuchten Risiken wurden erkannt, bevor sie den Nutzer:innen zugänglich gemacht wurden. Neil Thompson, Direktor von MIT FutureTech und einer der Ersteller der Datenbank, sagt dazu: „Das zeigt, dass es eine ganze Reihe von Risiken gibt, die nicht alle im Voraus geprüft werden können.“ Daher sollten Prüfer:innen, politische Entscheidungsträger:innen und Wissenschaftler:innen in den Labors, laut Thompson, die Modelle nach ihrer Veröffentlichung überwachen, indem sie regelmäßig die Risiken überprüfen.

Der Gedanke, eine solche Risiken-Liste systematisch zu erstellen, ist nicht neu. Es gab bereits Versuche, aber sie umfassten in erster Linie eine begrenzte Anzahl potenzieller Schäden durch KI, so Thompson. Der stückweise vorgehende Ansatz habe es erschwert, einen umfassenden Überblick über die mit KI verbundenen Risiken zu bekommen.

Anzeige
Anzeige

KI-System weiterhin Black Box

Diese Datenbank ist zwar ein Anfang, aber welche KI-Risiken am meisten Anlass zur Sorge bereiten, wird weiterhin schwierig bleiben. Dazu kommt, dass hochmoderne KI-Systeme zum Teil Black Boxes sind, deren Vorgehen immer noch nicht gänzlich verständlich ist.

Die Initiatoren der Datenbank sind der Frage der Priorisierung ausgewichen und haben sich dafür entschieden, die Risiken nicht nach ihrem Gefährdungsgrad einzustufen.

Anzeige
Anzeige

„Was wir wirklich wollten, war eine neutrale und umfassende Datenbank, und mit neutral meine ich, dass wir alles so nehmen, wie es uns präsentiert wird, und dabei sehr transparent sind“, sagt der Hauptautor der Datenbank, Peter Slattery, ein Postdoktorand des MIT FutureTech.

Doch diese Taktik könnte den Nutzen der Datenbank einschränken, meint Anka Reuel, Doktorandin der Informatik an der Stanford University und Mitglied des dortigen Zentrums für KI-Sicherheit, die nicht an dem Projekt beteiligt war. Ihrer Meinung nach wird die bloße Zusammenstellung der mit KI verbundenen Risiken bald nicht mehr ausreichen. „Sie waren sehr gründlich, was ein guter Ausgangspunkt für künftige Forschungsanstrengungen ist, aber ich denke, wir erreichen einen Punkt, an dem es nicht mehr das Hauptproblem ist, die Menschen auf alle Risiken aufmerksam zu machen“, sagt sie. „Für mich geht es um die Folgen dieser Risiken. Was müssen wir tatsächlich tun, um sie zu bekämpfen?“

Lücken in der Datenbank füllen

Diese Datenbank öffnet die Tür für künftige Forschungen. Die Verfasser:innen haben die Liste zum Teil erstellt, um ihren eigenen Fragen nachzugehen, etwa: welche Risiken zu wenig erforscht sind oder nicht angegangen werden. „Was uns am meisten Sorgen bereitet, ist die Frage, ob es Lücken gibt“, sagt Thompson.

Anzeige
Anzeige

„Wir sehen dies als eine lebendige Datenbank, der Anfang von etwas. Wir sind sehr daran interessiert, Feedback dazu zu bekommen“, sagt Slattery. „Wir haben nicht gesagt: ‚Wir haben es wirklich herausgefunden, und alles, was wir gemacht haben, wird perfekt sein‘.

Autor des Textes ist Scott J. Mulligan. Er ist Reporter für die US-amerikanische Ausgabe von MIT Technology Review.

 

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige