Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

Feature

Auf der Boxworks wird die künstliche Intelligenz ganz bodenständig

(Foto: Diego Wyllie)

Im Silicon Valley verdrängt die Künstliche Intelligenz zur Zeit fast jedes andere Thema. So auch auf der Boxworks. KI bekommt hier eine angenehme Bodenständigkeit: Was bedeutet KI für Versicherungen, NGOs und den Staat?

Eigentlich sollte „Die Zukunft der Arbeit“ am 29. und 30. August in San Francisco das treibende Thema sein. Dieses strapazierte Buzzword wurde zwar viel bemüht, der „digital workspace“ beschworen und der CEO und Gründer von Box, Aaron Levi plauderte dann auch zum Abschluss mit dem Basketball-Coach Steve Kerr launig über die Magie des Teams sowie die globalisierte Arbeit im Basketball und im Allgemeinen. Doch das spannendste Thema der Konferenz: Die Künstliche Intelligenz (KI) und wie Organisationen und Unternehmen sie nutzen können.

Künstliche Intelligenz in Unternehmen – wer arbeitet mit wem?

Data-Sharing, das ursprüngliche Geschäftsmodell von Box, ist schon lange nicht mehr aufsehenerregend. Box setzt nun alles daran, mithilfe von KI Unternehmen diese Daten bestmöglich nutzen zu lassen. File-Zugriffe, Chats, Mails, Videos und Telefonate können beispielsweise ausgewertet werden, um die Arbeitsorganisation grundlegend zu ändern. Vieles lässt sich dank KI herausfinden: Welche Dokumente brauchen die Mitarbeiter und in welchen Gruppen arbeiten sie am besten daran? Aber auch: Welche Mitarbeiter tauschen sich mit wem aus und mit welchem Ergebnis? Das kann zu neuen schlagkräftigeren Teams und agileren Projekten führen. Es klingt aber auch ein wenig nach dem Roman 1984, der düsteren Vision eines totalitären Überwachungsstaates. Denn wo sich engagierte Mitarbeiter identifizieren lassen, da können natürlich auch Abschusslisten für vermeintliche Blockierer und so genannte Minderleister entstehen. Die Zeit wird zeigen, was sich durchsetzen wird.

Auf der Jagd nach dem Muster

Auf der Boxworks wurde die KI in vielen Gesprächsrunden diskutiert. Was bedeutet sie für Versicherungen, für NGOs, für den Staat? Das Spannende auf der Boxworks waren die konkreten Ansätze und die Bodenständigkeit, die das Thema Künstliche Intelligenz bekam, das ja sonst gern ein bisschen mystisch durch die Gespräche wabert. So schlug Jon Walton, CIO der Kommune San Mateo, während der Podiumsdiskussion „Behind the hype: How AI and machine learning will transform government“ auch vor, doch lieber von „augmented Insights“ zu sprechen. Von erweiterten Einblicken. Die „artifizielle Intelligenz“ klinge doch etwas wuchtig und überstrapaziert. Doch auch diese Einblicke seien mächtig und könnten Gemeinden umformen.

„Es gibt uns die Möglichkeit, Muster zu erkennen, die wir (Menschen) niemals finden könnten“, erklärte Walton. Straßenführungen und Nahverkehr können demnach umgestaltet und die Gesundheitsversorgung entscheidend verbessert werden, in dem man beispielsweise Smogwarnungen automatisiert an gefährdete Patienten wie Asthmatiker schickt. Auch die Parkplatzsuche, so meinen die Diskussionsteilnehmer, sei dank künstlicher Intelligenz schnell passé. Dafür gibt es bereits Startups, beispielsweise in München wird daran gearbeitet. BMW bietet die Funktion für zehn Ballungszentren in seinen neuesten Autos gegen Aufpreis an.

Für die Verbrechensbekämpfung sei die maschinengelenkte Datenauswertung geradezu unschätzbar, erzählte Chris Tonjes, CIO des Generalstaatsanwaltes im Distrikt Columbia und begann von der Vorhersage von Verbrechen zu schwärmen. Diese liege aber leider noch in gewisser Ferne. Konkret nutzen lässt sich die künstliche Intelligenz bisher vor allem in der Datenauswertung. Die ist für die Strafverfolgungsbehörden ein viel größeres Problem als Serien wie Tatort und CSI dem Laien nahelegen. Tonjes berichtete anschaulich von einem Betrugsfall, bei dem eine Hotelkette verpflichtet wurde, Beweismaterial auszuliefern – und dies tat, in dem sie zwei Laster voller Papierausdrucke vor dem Justizgebäude ablieferte.

Eine klassische Taktik in amerikanischen Strafprozessen, die mit viel Arbeit für die Staatsanwälte verbunden ist und auch die Gefahr birgt, Entscheidendes zu übersehen. Denn natürlich schaut nicht ein Mensch alles durch und ist in der Lage vollständig informiert alle möglichen Verbindungen zu ziehen. Sondern Dutzende unterschiedlich begabter Mitarbeiter, die mitunter vollkommen neu im Thema sind, wühlen sich durch den Papierberg und versuchen, das Beste daraus zu machen. Ein gut gebauter Algorithmus beseitigt das Risiko Zufall vollständig. Er könnte jede kleine Normabweichung aufdecken – bis zu der Möglichkeit, vorher nicht erahnte Verstöße sichtbar zu machen. Ganz zu schweigen von der Geschwindigkeit, die die künstliche Intelligenz bei der Datenauswertung erlaubt.

Zehenbad für die Staatsmacht

Bald waren sich alle einig auf dem Podium. Die Hauptprobleme des Staates mit der künstlichen Intelligenz und seinen Daten seien: zu wenig Geld, zu wenige fähige Mitarbeiter und zu wenig Mut und Geschwindigkeit. Gemeinsam nickend freuten sich die Diskussionspartner an den Möglichkeiten, die vor ihnen liegen. Ihre Hauptsorge: Es geht vielleicht alles nicht schnell genug. „Wir tunken nur unsere Zehen in den Pool“, fasste es Chris Tonjes zusammen. „Ich habe Angst, dass wir vollkommen den Anschluss verlieren“. Woran genau, das sagte er leider nicht. Die drei Diskussionsteilnehmer wollten alle dasselbe: schnell mehr aus den Daten herausholen. Wer ist übergewichtig und deshalb diabetesgefährdet? Und ein für Amerika virulentes Thema: Wie gewinnen die Behörden einen schnellen Überblick bei „Shooters Incidents“ und Terroranschlägen? Hier kann die KI helfen, indem sie Tweets und Telefonanrufe in Echtzeit auswertet und daraus ungleich schneller einen verlässlichen Überblick über die Situation erzeugt, was ganz konkret Leben retten kann.

Der Algorithmus als Rassist

Noch Fragen? Ja, eine Frau in den hinteren Reihen hatte welche. Wie man denn verhindern wolle, dass Vorurteile ihren Weg in die Algorithmen finden? Wie man denn sicherstellen wolle, dass die Algorithmen farbenblind und fair arbeiten? Wie man die Bürger vor dem Rassismus der Roboter schützen wolle, denn solche Vorfälle seien ja schon Realität. Tatsächlich hatte der Staat in den USA schon genau diese Probleme beim Einsatz von künstlicher Intelligenz. So wurde etwa der Algorithmus COMPAS, der das Risiko von Rückfällen bei Straftätern vorhersagen sollte, von der Bürgerrechtsbewegung Propublica als rassistisch entlarvt.

Auf dem Podium machte sich nach der Frage Unruhe breit. In der Ecke, die sich da gerade auftat, wollte natürlich keiner der Sprecher stehen. Alle Diskutanten waren weiß und Männer jenseits der vierzig. Schnell beteuerte jeder, das wolle natürlich niemand und da müsse man genau drauf schauen, dass sich unglückliche Vorkommnisse wie in der Vergangenheit nicht wiederholten. Eine wirkliche Antwort auf die Publikumsfrage, wie das denn konkret verhindert werden könne, hatte keiner.

Und so macht diese Szene auf der Boxworks in San Francisco den Graben deutlich, der sich zur Zeit an vielen Stellen in der Tech-Industrie auftut. Die Euphorie für all die neuen Potenziale ist groß. Und sie sind unübersehbar. Millionen Möglichkeiten schneller zu arbeiten, Geld zu sparen, Hürden zu überwinden, sicherer, bequemer und gesünder zu leben. Doch immer häufiger wird die Frage nach der dunklen Seite der Macht gestellt. Die Antworten darauf fallen erstaunlich ratlos aus. Ob bei Marc Zuckerberg oder eben auf dem Podium der Boxworks.

Bitte beachte unsere Community-Richtlinien

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.