Kolumne

Algorithmen kontrollieren: Heiko Maas möchte Daten in „gut” und „böse” teilen

(Bild: Shutterstock / josefkubes)

Lesezeit: 4 Min. Gerade keine Zeit? Jetzt speichern und später lesen

Justizminister Heiko Maas möchte Algorithmen einer staatlichen Kontrolle unterwerfen und fordert „vorurteilsfreies Programmieren“. Nach den Erfahrungen mit dem Netzwerkdurchsetzungsgesetz lässt Schlimmes ahnen.

Mein persönlicher Aha-Moment war die Buchung eines Fluges. Als ich die Webseite des Anbieters einige Stunden später erneut aufrief, war mein gewünschter Flug plötzlich ein gutes Stück teurer. Nach einem Wechsel von Browser und IP-Adresse konnte ich den Flug wieder etwas günstiger buchen. Ob der Reiseanbieter wirklich einen Algorithmus verwendet, um personalisiert den Preis hoch zu treiben, oder ich nur eine zufällige Preisschwankung erlebt habe, lässt sich nachträglich nicht klären. Mein Browser-Wechsel könnte einen solchen Algorithmus ausgetrickst haben oder einfach nur Voodoo gewesen sein. Was bleibt ist der unangenehme Verdacht.

Über Algorithmen und ihre Auswirkungen auf die Gesellschaft wird schon lange debattiert und dabei wurden auch immer wieder Forderungen an den Staat formuliert. So fordert der Sicherheitsexperte Bruce Schneier schon seit Jahren ein Transparenzgesetz für Algorithmen. Vergangenen Montag nahm sich Justizminister Heiko Maas des Themas an und forderte in einer Rede ein „digitales Antidiskriminierungsgesetz“, Transparenz für Algorithmen und eine staatliche Agentur, von der nicht ganz klar ist, was ihre Aufgaben sein sollen. Leider wiederholt er in seiner Ansprache aber auch die Fehler, die bisher in der Debatte gemacht wurden: Er verrührt so unterschiedliche Dinge wie IT-Sicherheit mit den gesellschaftlichen Auswirkungen des Facebook-Algorithmus, Predictive Policing und Scoring-Verfahren wie etwa bei der Schufa. Wenn er Daten in gut und böse sortiert – er nennt da „positive Daten“, die nützen und „negative Daten“, die schädlich seien – möchte man sich mit Grausen abwenden. Man kann dabei aber nicht mehr überhören, dass er mal wieder die alte, unsinnige Floskel bemüht, dass das Internet „kein rechtsfreier Raum“ sein dürfe.

Jedes Kochrezept ist ein Algorithmus

Da hilft nur: Einen Schritt zurücktreten und durchatmen. Es gibt keine „guten“ und „bösen“ Daten. Es kommt nur darauf an, wie sie von wem verwendet werden. Und ein Algorithmus ist nichts weiter als eine Rechen- oder Handlungsanweisung. Jedes Kochrezept ist ein Algorithmus. Wenn Sachbearbeiter in Ämtern Entscheidungen treffen, dann vollziehen sie Algorithmen anhand ihrer Vorgaben. Algorithmen diskriminieren nicht, Menschen tun es. So gesehen könnte eine Art digitales Antidiskriminierungsgesetz tatsächlich eine gute Idee sein. Leider werden hierfür fast immer gruselige Beispiele aus anderen Ländern bemüht: Etwa US-Gerichte, die Computersysteme verwenden, um die Rückfallwahrscheinlichkeit eines Täters zu berechnen, von der dann das Strafmaß mit abhängt. Oder ein soziales Scoring in China, das einmal dazu führen soll, dass brave, angepasste Bürger mit hohen Punktzahlen gewisse Privilegien genießen.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Das Problem ist nur: So etwas wäre in Deutschland sowieso illegal. Entsprechende Beispiele sind hierzulande auch gar nicht so einfach zu finden. Da wird dann gerne spekuliert, Krankenversicherungen könnten ihre Tarife an Gesundheitsdaten binden, was sie aber gar nicht dürfen. Regelmäßig wird auf die Schufa geschimpft, selten werden jedoch Vorschläge gemacht, wie sich das Scoring verbessern ließe und trotzdem vermieden wird, dass zu viele Kredite an Menschen gehen, die sie nicht bedienen können. Und wenn echte Diskriminierung im Spiel ist, etwa bei der Auswahl von Job- und Wohnungsbewerben nach Namen und Hautfarbe, könnten algorithmische Computersysteme am Ende durchaus neutraler und fairer sein als die althergebrachte Praxis. Systeme wie Predictive Policing gefährden Grundrechte, wenn sie wie in Minority-Report gegen einzelne Menschen eingesetzt werden, können aber durchaus helfen, die Kriminalität zu senken, wenn sie der Polizei helfen, ihre Streifen in die richtigen Straßen zu schicken.

Auf der anderen Seite stehen Dienste wie Facebook oder Google. Derzeit gibt es laut Algorithm Watch keine belastbare Studie, die belegt, dass Google über das Ranking von Suchergebnissen die öffentliche Meinung aktiv beeinflusst. Dass sich Hatespeech in sozialen Medien aufschaukelt, liegt wohl weniger an den verwendeten Algorithmen als der Tatsache, dass Menschen dort auf andere Menschen treffen, die Hassbotschaften nicht sozial ächten sondern mit vielen Likes belohnen. In manchen Gruppen entsteht ein Klima, in dem es nur noch darauf ankommt, sich mit noch krasseren Posts zu überbieten. Mit der Kontrolle von Algorithmen lässt sich da nicht viel tun, allenfalls mit tiefen Einschnitten in die Meinungsfreiheit.

Algorithmen spielen bei vielen Vorwürfen die kleinste Rolle

Ebenfalls oft am Pranger: Startups und Konzerne wie Uber oder Airbnb. Da liegt das Problem aber ebenfalls nicht in den verwendeten Algorithmen sondern darin, dass diese Firmen gezielt gesetzliche Lücken etwa im Arbeitsrecht missbrauchen und Gehälter und Margen bei ihren Zulieferern drücken. Derlei kann auf vielen anderen Ebenen reguliert werden und wird es oft auch schon. Die Analyse der eingesetzten Algorithmen spielt dabei aber nur eine untergeordnete Rolle. Oder um auf meinen Reiseanbieter zurückzukommen: Eine Untersuchung des Algorithmus bringt gar nichts. Entweder gilt Preisfreiheit oder eben nicht. Das rührt an unangenehme Fragen, die gesellschaftlich und politisch viel tiefer gehen als Kontrolle von Algorithmen.

Zunächst einmal muss das Knäuel aufgedröselt werden: Was für Algorithmen werden eigentlich wo eingesetzt? Wann wirken sie diskriminierend? Wo verstoßen sie eventuell gegen gesetzliche Reglungen? Ist es nicht vielleicht sinnvoll, auf ein „digitales Antidiskriminierungsgesetz“ zu verzichten und dafür Gesetze in ganz anderen Bereichen zu reformieren, etwa im Arbeitsrecht? Dafür ist vor allem erst einmal Forschung notwendig. Mehr Transparenz kann da helfen. Aber spätestens wenn künstliche Intelligenz und selbstlernende Systeme eingesetzt werden, entstehen Systeme, die viel zu komplex sind, als dass sie sich noch mit vertretbarem Aufwand von irgendwelchen Kontrollinstanzen oder Behörden analysieren und überwachen ließen. Es sollte also nicht darum gehen, Algorithmen zu kontrollieren, sondern diejenigen, die sie einsetzen. Dass diese Systeme auch Vorurteile enthalten, lässt sich gar nicht verhindern, wenn sie anhand einer Datenbasis lernen, die von Menschen mit (oftmals unbewussten) Vorurteilen geschaffen wurden. Wo Menschen diskriminiert werden, muss es Anlaufstellen geben, bei denen diese Menschen Widerspruch einlegen können – ganz unabhängig davon, ob ein Mensch, eine Maschine oder ein unüberschaubares System aus beidem hinter einer Entscheidung steckt.

Heiko Maas kann einem ein wenig leidtun. Jahrelang beschwerten sich Menschen über Hatespeech, worauf er mit dem Netzwerkdurchsetzungsgesetz reagierte. Gut gemeint ist eben nicht gut gemacht. Mit seinen neuen Vorschlägen zur Kontrolle von Algorithmen läuft er Gefahr, erneut ein teilweise kafkaeskes System durch ein noch kafkaeskeres zu ersetzen. Was fehlt: Ein sinnvoller Vorschlag, wie sich die schädliche Effekte bestimmter Algorithmen vermindern lassen. Den liefert Heiko Maas nicht.

Meistgelesen

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Ein Kommentar
lola
lola

Heiko Maasz möchte alle bitte Ihre Algorithmen per Email an seine Postfach zu mailen
Adresse auf http://www.heiko-maas.de/index.php?id=11263
bitte den gesamten Quellcode damit er sich persönlich ein Bild machen kann.
Alle guten bekommen einen Fleißpunkt und die Bösen Ärger.

Bitte beachten das er leider bis 2145 im Februar beschäftigt ist. Daher dauert es länger.

Die bösen brauchen auch keine Angst haben, denn außerhalt Deutschland passiert nichts. Denn den meisten Staatsanwälten ist es eh zu doof Amtshife zu beantragen. Es sind eh alle mit der Terroristenjagt beschäftigt und daraugf bestrebt endlich mal einen zu fangen

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 70 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Luca Caracciolo (Chefredakteur t3n) & das gesamte t3n-Team

Anleitung zur Deaktivierung