News

Google: Ein neuer KI-Rat soll ethische Richtlinien umsetzen

(Foto: Dreamframer/Shutterstock)

Google holt sich acht Experten aus Wissenschaft, Wirtschaft und Politik zur Hilfe, um seine eigenen Machine-Learning-Projekte mit den selbst aufgestellten Regeln kompatibel zu machen. KI soll demnach ethisch fair sein und Privatsphäre respektieren.

Um seine im vergangenen Jahr aufgestellten KI-Regeln zu etablieren, hat Google eine Gruppe von Spezialisten zusammengestellt, die als Advanced Technology Eternal Advisory Council (Ateac) bezeichnet werden. Insgesamt acht Personen aus dem wissenschaftlichen Umfeld sollen im Jahr 2019 vier Tagungen abhalten und Google bei der Umsetzung der eigens aufgestellten Regeln helfen. Die erste Sitzung ist für April 2019 geplant.

„Diese Gruppe wird einige von Googles komplexesten Herausforderungen berücksichtigen, die unter den KI-Prinzipien auftreten“, schreibt Kent Walker, Googles Bereichsleiter für globale Beziehungen. Dazu zählt das Unternehmen Gesichtserkennung und Gleichberechtigung beim Trainieren von Machine-Learning-Systemen. Obwohl der Fokus primär auf Googles eigenem Interesse liegt, will das Unternehmen seine Erfahrungen teilen. „Wir werden weiterhin Ideen austauschen und Feedback von Partnern und Organisationen in der Welt sammeln“, so Walker weiter.

Die acht Mitglieder sind zum Großteil an Universitäten tätig. Es befinden sich Informatiker, Diplomaten und Ökonomen unter ihnen. Sie stellen sich selbst als Experten in den Bereichen Wirtschaft, Privatsphäre, computergestützte Mathematik, Spracherkennung, Musiktechnik, Psychologie, KI-Ethik und Politik dar. In einem Blog-Post stellt Google die fünf Männer und drei Frauen genauer vor.

Regeln als Reaktion auf Militärprojekt

Googles KI-Prinzipien, die bereits 2018 vorgestellt wurden, sollen größtenteils ethische Probleme bei der Entwicklung von KI-Software lösen. So sollen Algorithmen einen sozialen Nutzen haben, möglichst Vorurteile bezüglich Geschlecht, Herkunft, Ethnie und sexueller Orientierung vermeiden, sicher sein, die Privatsphäre nicht beeinträchtigen und auch für Dinge genutzt werden, die diesen Prinzipien entsprechen.

Dabei war 2018 auch das Jahr, in dem Google-Mitarbeiter gegen das eigene Projekt Maven protestiert haben, das Militärdrohnen mit Bilderkennung ausstatten sollte. Im Juni gab Google bekannt, dass das Unterfangen auslaufen werde, kurz darauf präsentierte CEO Sundar Pichai die genannten Regeln.

Autor des Artikels ist Oliver Nickel.

Zum Weiterlesen:

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 65 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Stephan Dörner (Chefredakteur t3n.de) & das gesamte t3n-Team

Anleitung zur Deaktivierung