News

Angst vor Superintelligenz? „Hirnlose Agenten“ sind eigentlich das Problem!

Roboter auf der Hub Berlin. (Foto: Bitkom)

Die Digitalbranche trifft sich in Berlin – und das alles bestimmende Thema ist wieder einmal KI. Justizministerin Katarina Barley fordert ein Label für KI-Entscheidungen – und einem Experten macht „hirnlose Software“ viel mehr Sorgen als die Superintelligenz.

Deutschlands Digitalwirtschaft entdeckt die Science-Fiction für sich – den Eindruck jedenfalls bekommen Besucher der diesjährigen Hub Berlin, ausgerichtet vom Digitalbranchenverband Bitkom. Zwischen dem unverputzten Berliner Backstein-Charme der „Station“ in Kreuzberg und Hipster-Essen in nachhaltigen Holzschälchen aus aller Welt wird wieder einmal über das alles überstrahlende Thema der Digitalbranche diskutiert: künstliche Intelligenz (KI).

Und neben den praktischen Anwendungen der KI – vom Backoffice bis zu Robotern im Retail – geht es eben immer wieder auch um die Science-Fiction-Visionen der KI sowie die ethischen und moralischen Konsequenzen, wenn Software Entscheidungen über reale Menschen fällt.

Justizministerin Barley fordert Icon für KI-Entscheidungen

Bundesjustizministerin Katarina Barley (SPD) beispielsweise machte deutlich, unter welchen Umständen ihrer Meinung nach Algorithmen Entscheidungen über Menschen treffen sollten – und wann nicht. „Es fängt schon damit an, dass man es wissen muss, wenn ein Algorithmus eine Entscheidung fällt“, sagte Barley am Mittwoch in Berlin. „Deshalb muss Transparenz hergestellt werden, zum Beispiel über ein Icon.“ Weiterhin sollten die Algorithmen „fair und diskriminierungsfrei“ agieren, sagte Barley.

Justizministerin Katarina Barley (SPD). (Foto: dpa)

Justizministerin Katarina Barley (SPD). (Foto: dpa)

Schon lange ist klar: Software übernimmt die Vorurteile von Daten der realen Welt. Wenn beispielsweise eine Software herausfinden soll, welches Gehalt ein Bewerber als akzeptabel empfinden wird, wird diese Summe bei Männern im Schnitt höher liegen als bei Frauen – zumindest so lange Männer das Gehalt im Schnitt härter verhandeln.

„Grundsätzlich muss gelten: Je größer der Auswirkungen auf dich und deine Menschenrechte sind, desto höher müssen die Standards für Fairness sein“, sagte Barley mit Sicht darauf, dass KI-Systeme im Justizsystem der USA heute schon teilweise für Richter eine Prognose über die Rückfallwahrscheinlichkeit eines Straftäters fällen. Weiterhin müsse gelten, dass Entscheidungen, die von einer Software gefällt werden, vor einem Gremium bestehend aus Menschen infrage gestellt werden können.

Weit entfernt von „starker KI“

Beispiele für KI-Software, die Vorurteile aus der realen Welt repliziert, nennt auch Matthias Plaue, Chief Data-Scientist beim Berliner KI-Startup Mapegy. Er macht sich keine Sorgen über den Aufstand superintelligenter Maschinen, wie sie in zahlreichen Science-Fiction-Werken von „2001 – Odyssee im Weltraum“ bis „Terminator“ vorkommen. Ein Problem seien vielmehr „hirnlose Agenten“, die Intelligenz lediglich imitieren. In „2001“ aus dem Jahre 1968 – Spoiler-Alert – entwickelt der Raumschiff-Computer HAL9000 ein Bewusstsein und wendet sich gegen die menschliche Crew, weil er das zur Missionserfüllung für erforderlich hält.

KI sei heute gleichzeitig sehr schlau und sehr dumm. Bestimmte, klar abgegrenzte Aufgaben wie Schach oder das Brettspiel Go meistert Software um ein Vielfaches besser als Menschen. Doch auch wenn das Motto der angeschlossenen Konferenz rund um KI „From Fiction to Business“ lautete, ist die sogenannte „starke KI“ – also eine echte denkende Maschine – immer noch genauso Science-Fiction wie zu Beginn der KI-Entwicklung Anfang der 1950er Jahre.

KI: Das Problem ist kein HAL9000

Das mag auch daran liegen, wie wenig wir bis heute verstehen, wie unser eigenes Gehirn funktioniert. „Je mehr wir über das Gehirn wissen, desto mehr Fragen kommen auf. Weil das Gehirn sehr komplex ist und sehr individuell funktioniert“, sagte beispielsweise Andreas Dengel, Professor für Wissensbasierte Systeme am DFKI in Kaiserslautern, auf der Konferenz.

„Keine dieser Maschinen hat mehr kognitive Kapazität als eine Fruchtfliege, keine davon ist ein HAL9000 – trotzdem bestimmen sie über unser Leben.“

Macht das Algorithmen harmlos? Keinesfalls, argumentiert Plaue: In vielen Fällen sei KI-Software heute schon sehr mächtig, weil sie zunehmend Entscheidungen treffe. Algorithmen entscheiden heute schon bei Bewerbungen, Geschäftsprozessen oder Strafprozessen mit – oder dass wir Informationen über eine Sitcom bei Google sehen, wenn wir nach „Big Bang Theory“ suchen, statt über eine physikalische Theorie, die in den 1980ern unser Weltbild erschütterte. „Keine dieser Maschinen hat mehr kognitive Kapazität als eine Fruchtfliege, keine davon ist ein HAL9000 – trotzdem bestimmen sie über unser Leben.“

Mehr zum Thema KI:

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.