Algorithmen kontrollieren: Heiko Maas möchte Daten in „gut” und „böse” teilen
Mein persönlicher Aha-Moment war die Buchung eines Fluges. Als ich die Webseite des Anbieters einige Stunden später erneut aufrief, war mein gewünschter Flug plötzlich ein gutes Stück teurer. Nach einem Wechsel von Browser und IP-Adresse konnte ich den Flug wieder etwas günstiger buchen. Ob der Reiseanbieter wirklich einen Algorithmus verwendet, um personalisiert den Preis hoch zu treiben, oder ich nur eine zufällige Preisschwankung erlebt habe, lässt sich nachträglich nicht klären. Mein Browser-Wechsel könnte einen solchen Algorithmus ausgetrickst haben oder einfach nur Voodoo gewesen sein. Was bleibt ist der unangenehme Verdacht.
Über Algorithmen und ihre Auswirkungen auf die Gesellschaft wird schon lange debattiert und dabei wurden auch immer wieder Forderungen an den Staat formuliert. So fordert der Sicherheitsexperte Bruce Schneier schon seit Jahren ein Transparenzgesetz für Algorithmen. Vergangenen Montag nahm sich Justizminister Heiko Maas des Themas an und forderte in einer Rede ein „digitales Antidiskriminierungsgesetz“, Transparenz für Algorithmen und eine staatliche Agentur, von der nicht ganz klar ist, was ihre Aufgaben sein sollen. Leider wiederholt er in seiner Ansprache aber auch die Fehler, die bisher in der Debatte gemacht wurden: Er verrührt so unterschiedliche Dinge wie IT-Sicherheit mit den gesellschaftlichen Auswirkungen des Facebook-Algorithmus, Predictive Policing und Scoring-Verfahren wie etwa bei der Schufa. Wenn er Daten in gut und böse sortiert – er nennt da „positive Daten“, die nützen und „negative Daten“, die schädlich seien – möchte man sich mit Grausen abwenden. Man kann dabei aber nicht mehr überhören, dass er mal wieder die alte, unsinnige Floskel bemüht, dass das Internet „kein rechtsfreier Raum“ sein dürfe.
Jedes Kochrezept ist ein Algorithmus
Da hilft nur: Einen Schritt zurücktreten und durchatmen. Es gibt keine „guten“ und „bösen“ Daten. Es kommt nur darauf an, wie sie von wem verwendet werden. Und ein Algorithmus ist nichts weiter als eine Rechen- oder Handlungsanweisung. Jedes Kochrezept ist ein Algorithmus. Wenn Sachbearbeiter in Ämtern Entscheidungen treffen, dann vollziehen sie Algorithmen anhand ihrer Vorgaben. Algorithmen diskriminieren nicht, Menschen tun es. So gesehen könnte eine Art digitales Antidiskriminierungsgesetz tatsächlich eine gute Idee sein. Leider werden hierfür fast immer gruselige Beispiele aus anderen Ländern bemüht: Etwa US-Gerichte, die Computersysteme verwenden, um die Rückfallwahrscheinlichkeit eines Täters zu berechnen, von der dann das Strafmaß mit abhängt. Oder ein soziales Scoring in China, das einmal dazu führen soll, dass brave, angepasste Bürger mit hohen Punktzahlen gewisse Privilegien genießen.
Das Problem ist nur: So etwas wäre in Deutschland sowieso illegal. Entsprechende Beispiele sind hierzulande auch gar nicht so einfach zu finden. Da wird dann gerne spekuliert, Krankenversicherungen könnten ihre Tarife an Gesundheitsdaten binden, was sie aber gar nicht dürfen. Regelmäßig wird auf die Schufa geschimpft, selten werden jedoch Vorschläge gemacht, wie sich das Scoring verbessern ließe und trotzdem vermieden wird, dass zu viele Kredite an Menschen gehen, die sie nicht bedienen können. Und wenn echte Diskriminierung im Spiel ist, etwa bei der Auswahl von Job- und Wohnungsbewerben nach Namen und Hautfarbe, könnten algorithmische Computersysteme am Ende durchaus neutraler und fairer sein als die althergebrachte Praxis. Systeme wie Predictive Policing gefährden Grundrechte, wenn sie wie in Minority-Report gegen einzelne Menschen eingesetzt werden, können aber durchaus helfen, die Kriminalität zu senken, wenn sie der Polizei helfen, ihre Streifen in die richtigen Straßen zu schicken.
Auf der anderen Seite stehen Dienste wie Facebook oder Google. Derzeit gibt es laut Algorithm Watch keine belastbare Studie, die belegt, dass Google über das Ranking von Suchergebnissen die öffentliche Meinung aktiv beeinflusst. Dass sich Hatespeech in sozialen Medien aufschaukelt, liegt wohl weniger an den verwendeten Algorithmen als der Tatsache, dass Menschen dort auf andere Menschen treffen, die Hassbotschaften nicht sozial ächten sondern mit vielen Likes belohnen. In manchen Gruppen entsteht ein Klima, in dem es nur noch darauf ankommt, sich mit noch krasseren Posts zu überbieten. Mit der Kontrolle von Algorithmen lässt sich da nicht viel tun, allenfalls mit tiefen Einschnitten in die Meinungsfreiheit.
Algorithmen spielen bei vielen Vorwürfen die kleinste Rolle
Ebenfalls oft am Pranger: Startups und Konzerne wie Uber oder Airbnb. Da liegt das Problem aber ebenfalls nicht in den verwendeten Algorithmen sondern darin, dass diese Firmen gezielt gesetzliche Lücken etwa im Arbeitsrecht missbrauchen und Gehälter und Margen bei ihren Zulieferern drücken. Derlei kann auf vielen anderen Ebenen reguliert werden und wird es oft auch schon. Die Analyse der eingesetzten Algorithmen spielt dabei aber nur eine untergeordnete Rolle. Oder um auf meinen Reiseanbieter zurückzukommen: Eine Untersuchung des Algorithmus bringt gar nichts. Entweder gilt Preisfreiheit oder eben nicht. Das rührt an unangenehme Fragen, die gesellschaftlich und politisch viel tiefer gehen als Kontrolle von Algorithmen.
Zunächst einmal muss das Knäuel aufgedröselt werden: Was für Algorithmen werden eigentlich wo eingesetzt? Wann wirken sie diskriminierend? Wo verstoßen sie eventuell gegen gesetzliche Reglungen? Ist es nicht vielleicht sinnvoll, auf ein „digitales Antidiskriminierungsgesetz“ zu verzichten und dafür Gesetze in ganz anderen Bereichen zu reformieren, etwa im Arbeitsrecht? Dafür ist vor allem erst einmal Forschung notwendig. Mehr Transparenz kann da helfen. Aber spätestens wenn künstliche Intelligenz und selbstlernende Systeme eingesetzt werden, entstehen Systeme, die viel zu komplex sind, als dass sie sich noch mit vertretbarem Aufwand von irgendwelchen Kontrollinstanzen oder Behörden analysieren und überwachen ließen. Es sollte also nicht darum gehen, Algorithmen zu kontrollieren, sondern diejenigen, die sie einsetzen. Dass diese Systeme auch Vorurteile enthalten, lässt sich gar nicht verhindern, wenn sie anhand einer Datenbasis lernen, die von Menschen mit (oftmals unbewussten) Vorurteilen geschaffen wurden. Wo Menschen diskriminiert werden, muss es Anlaufstellen geben, bei denen diese Menschen Widerspruch einlegen können – ganz unabhängig davon, ob ein Mensch, eine Maschine oder ein unüberschaubares System aus beidem hinter einer Entscheidung steckt.
Heiko Maas kann einem ein wenig leidtun. Jahrelang beschwerten sich Menschen über Hatespeech, worauf er mit dem Netzwerkdurchsetzungsgesetz reagierte. Gut gemeint ist eben nicht gut gemacht. Mit seinen neuen Vorschlägen zur Kontrolle von Algorithmen läuft er Gefahr, erneut ein teilweise kafkaeskes System durch ein noch kafkaeskeres zu ersetzen. Was fehlt: Ein sinnvoller Vorschlag, wie sich die schädliche Effekte bestimmter Algorithmen vermindern lassen. Den liefert Heiko Maas nicht.
Heiko Maasz möchte alle bitte Ihre Algorithmen per Email an seine Postfach zu mailen
Adresse auf http://www.heiko-maas.de/index.php?id=11263
bitte den gesamten Quellcode damit er sich persönlich ein Bild machen kann.
Alle guten bekommen einen Fleißpunkt und die Bösen Ärger.
Bitte beachten das er leider bis 2145 im Februar beschäftigt ist. Daher dauert es länger.
Die bösen brauchen auch keine Angst haben, denn außerhalt Deutschland passiert nichts. Denn den meisten Staatsanwälten ist es eh zu doof Amtshife zu beantragen. Es sind eh alle mit der Terroristenjagt beschäftigt und daraugf bestrebt endlich mal einen zu fangen