Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

Kolumne

Algorithmen kontrollieren: Heiko Maas möchte Daten in „gut” und „böse” teilen

    Algorithmen kontrollieren: Heiko Maas möchte Daten in „gut” und „böse” teilen

(Bild: Shutterstock / josefkubes)

Justizminister Heiko Maas möchte Algorithmen einer staatlichen Kontrolle unterwerfen und fordert „vorurteilsfreies Programmieren“. Nach den Erfahrungen mit dem Netzwerkdurchsetzungsgesetz lässt Schlimmes ahnen.

Mein persönlicher Aha-Moment war die Buchung eines Fluges. Als ich die Webseite des Anbieters einige Stunden später erneut aufrief, war mein gewünschter Flug plötzlich ein gutes Stück teurer. Nach einem Wechsel von Browser und IP-Adresse konnte ich den Flug wieder etwas günstiger buchen. Ob der Reiseanbieter wirklich einen Algorithmus verwendet, um personalisiert den Preis hoch zu treiben, oder ich nur eine zufällige Preisschwankung erlebt habe, lässt sich nachträglich nicht klären. Mein Browser-Wechsel könnte einen solchen Algorithmus ausgetrickst haben oder einfach nur Voodoo gewesen sein. Was bleibt ist der unangenehme Verdacht.

Über Algorithmen und ihre Auswirkungen auf die Gesellschaft wird schon lange debattiert und dabei wurden auch immer wieder Forderungen an den Staat formuliert. So fordert der Sicherheitsexperte Bruce Schneier schon seit Jahren ein Transparenzgesetz für Algorithmen. Vergangenen Montag nahm sich Justizminister Heiko Maas des Themas an und forderte in einer Rede ein „digitales Antidiskriminierungsgesetz“, Transparenz für Algorithmen und eine staatliche Agentur, von der nicht ganz klar ist, was ihre Aufgaben sein sollen. Leider wiederholt er in seiner Ansprache aber auch die Fehler, die bisher in der Debatte gemacht wurden: Er verrührt so unterschiedliche Dinge wie IT-Sicherheit mit den gesellschaftlichen Auswirkungen des Facebook-Algorithmus, Predictive Policing und Scoring-Verfahren wie etwa bei der Schufa. Wenn er Daten in gut und böse sortiert – er nennt da „positive Daten“, die nützen und „negative Daten“, die schädlich seien – möchte man sich mit Grausen abwenden. Man kann dabei aber nicht mehr überhören, dass er mal wieder die alte, unsinnige Floskel bemüht, dass das Internet „kein rechtsfreier Raum“ sein dürfe.

Jedes Kochrezept ist ein Algorithmus

Da hilft nur: Einen Schritt zurücktreten und durchatmen. Es gibt keine „guten“ und „bösen“ Daten. Es kommt nur darauf an, wie sie von wem verwendet werden. Und ein Algorithmus ist nichts weiter als eine Rechen- oder Handlungsanweisung. Jedes Kochrezept ist ein Algorithmus. Wenn Sachbearbeiter in Ämtern Entscheidungen treffen, dann vollziehen sie Algorithmen anhand ihrer Vorgaben. Algorithmen diskriminieren nicht, Menschen tun es. So gesehen könnte eine Art digitales Antidiskriminierungsgesetz tatsächlich eine gute Idee sein. Leider werden hierfür fast immer gruselige Beispiele aus anderen Ländern bemüht: Etwa US-Gerichte, die Computersysteme verwenden, um die Rückfallwahrscheinlichkeit eines Täters zu berechnen, von der dann das Strafmaß mit abhängt. Oder ein soziales Scoring in China, das einmal dazu führen soll, dass brave, angepasste Bürger mit hohen Punktzahlen gewisse Privilegien genießen.

Das Problem ist nur: So etwas wäre in Deutschland sowieso illegal. Entsprechende Beispiele sind hierzulande auch gar nicht so einfach zu finden. Da wird dann gerne spekuliert, Krankenversicherungen könnten ihre Tarife an Gesundheitsdaten binden, was sie aber gar nicht dürfen. Regelmäßig wird auf die Schufa geschimpft, selten werden jedoch Vorschläge gemacht, wie sich das Scoring verbessern ließe und trotzdem vermieden wird, dass zu viele Kredite an Menschen gehen, die sie nicht bedienen können. Und wenn echte Diskriminierung im Spiel ist, etwa bei der Auswahl von Job- und Wohnungsbewerben nach Namen und Hautfarbe, könnten algorithmische Computersysteme am Ende durchaus neutraler und fairer sein als die althergebrachte Praxis. Systeme wie Predictive Policing gefährden Grundrechte, wenn sie wie in Minority-Report gegen einzelne Menschen eingesetzt werden, können aber durchaus helfen, die Kriminalität zu senken, wenn sie der Polizei helfen, ihre Streifen in die richtigen Straßen zu schicken.

Auf der anderen Seite stehen Dienste wie Facebook oder Google. Derzeit gibt es laut Algorithm Watch keine belastbare Studie, die belegt, dass Google über das Ranking von Suchergebnissen die öffentliche Meinung aktiv beeinflusst. Dass sich Hatespeech in sozialen Medien aufschaukelt, liegt wohl weniger an den verwendeten Algorithmen als der Tatsache, dass Menschen dort auf andere Menschen treffen, die Hassbotschaften nicht sozial ächten sondern mit vielen Likes belohnen. In manchen Gruppen entsteht ein Klima, in dem es nur noch darauf ankommt, sich mit noch krasseren Posts zu überbieten. Mit der Kontrolle von Algorithmen lässt sich da nicht viel tun, allenfalls mit tiefen Einschnitten in die Meinungsfreiheit.

Finde einen Job, den du liebst

Eine Reaktion
lola
lola

Heiko Maasz möchte alle bitte Ihre Algorithmen per Email an seine Postfach zu mailen
Adresse auf http://www.heiko-maas.de/index.php?id=11263
bitte den gesamten Quellcode damit er sich persönlich ein Bild machen kann.
Alle guten bekommen einen Fleißpunkt und die Bösen Ärger.

Bitte beachten das er leider bis 2145 im Februar beschäftigt ist. Daher dauert es länger.

Die bösen brauchen auch keine Angst haben, denn außerhalt Deutschland passiert nichts. Denn den meisten Staatsanwälten ist es eh zu doof Amtshife zu beantragen. Es sind eh alle mit der Terroristenjagt beschäftigt und daraugf bestrebt endlich mal einen zu fangen

Antworten
Bitte melde dich an!

Du musst angemeldet sein, um einen Kommentar schreiben zu können.

Jetzt anmelden

Hinweis

Du hast gerade auf einen Provisions-Link geklickt und wirst in Sekunden weitergeleitet.

Bei Bestellung auf der Zielseite erhalten wir eine kleine Provision – dir entstehen keine Mehrkosten.


Weiter zum Angebot