Eine chinesische KI namens System 206 wird von ihren Machern immer weiter ausgebaut. Schon bislang setzten Staatsanwälte in China das Modell ein, um Beweise zu bewerten und Anhaltspunkte zu finden, ob ein mutmaßlicher Verbrecher eine Gefahr für die Allgemeinheit darstellt oder nicht.
Mit den jüngsten Trainings soll der Algorithmus in die Lage versetzt werden, Staatsanwälte bis zu einem gewissen Grad zu ersetzen. Daran arbeiten Forscher in Kooperation mit der Staatsanwaltschaft von Schanghai, der größten Bezirksstaatsanwaltschaft des Landes, wie die South China Morning Post (SCMP) berichtet. Erste Ergebnisse haben sie jüngst im chinesischen Wissenschaftsmagazin „Management Review“ veröffentlicht.
Acht Delikte kann die KI bereits eigenständig aufdecken
Und die sind – zumindest aus Sicht des Forschungsteams – vielversprechend. So soll die KI bei der Entscheidung, ob in einem Fall Anklage erhoben werden sollte, bereits eine Genauigkeit von 97 Prozent erreichen. Diese Zahl ist so zu lesen.
Schon bislang hatte die KI ihren Platz in der Staatsanwaltschaft Schanghais, konnte sich aber mangels wichtiger Fähigkeiten nicht an der Entscheidungsfindung bei der Erhebung von Anklagen und der Verhängung von Strafen beteiligen. Das scheiterte primär daran, dass die KI bislang nicht in der Lage war, irrelevante Informationen in einem Fall zu erkennen und zu entfernen. Zudem konnte sie Sprache, etwa aus Vernehmungen, nicht verarbeiten.
Die neue, um genau diese Fähigkeiten erweiterte KI könne nun eingesetzt werden, um Ermittlungsvorgänge vollständig zu bewerten. Dabei wurde die KI zunächst so optimiert, dass sie die acht häufigsten Straftaten im Bezirk Schanghai erkennen und anklagen kann. Dabei handelt es sich um Kreditkartenbetrug, Glücksspiel, rücksichtsloses Fahren, vorsätzliche Körperverletzung, Behinderung der Staatsgewalt, Diebstahl, Betrug und sogar politische Delikte.
Wer haftet bei Fehlern?
Diese Entwicklung freut nicht jeden – nicht einmal jeden Staatsanwalt. Gegenüber der SCMP äußerte ein Staatsanwalt sogar deutliche Bedenken. Zwar klinge die Genauigkeit von 97 Prozent sehr hoch, ließ er verlauten, aber es werde „immer die Möglichkeit eines Fehlers geben“. Dann stellte er die entscheidende Frage:
„Wer wird die Verantwortung übernehmen, wenn das passiert? Der Staatsanwalt, die Maschine oder der Entwickler des Algorithmus?”
Oder wird es einfach einen armen Tropf erwischen, der sich nicht adäquat gegen die KI-Beweislage zu verteidigen weiß? Wir werden es sehen, denn Pandoras Box ist nun geöffnet und die Ausweitung der KI-Verwendung in vielen Bereichen nur noch eine Frage der Zeit.