Vom KI-Boom überfordert? So könnte eine Lösung aussehen
Wenn es um die Ablieferung von Texten oder Gastbeiträgen geht, gehöre ich zu der Sorte Mensch, die sich damit gern Zeit lässt. Nicht selten reize ich Deadlines aus. Umso ungewöhnlicher fühlt es sich für mich an, noch beim Schreiben dieser Kolumne den Eindruck zu haben, in den nächsten Stunden von der Realität überholt zu werden. Mir scheint es damit aber nicht allein so zu gehen. Doch fangen wir vorne an.
Ausgangspunkt dieser Kolumne sind die politischen Leitplanken, die an verschiedenen Stellen gerade diskutiert werden und in den nächsten Wochen dann auch festgelegt werden sollen. Da ist zum einen die Digitalstrategie der Bundesregierung, die eigentlich keine ist – wie wir seit der tagelangen Sitzung des Koalitionsausschusses nun wissen. Die ursprünglichen zehn Milliarden Euro an Fördermitteln für junge Unternehmen bis zum Ende der Legislaturperiode sind inzwischen zu einem offenbar nicht weiter erwähnenswerten Anteil im Koalitionskompromiss zusammengeschrumpft.
Aus Erfahrung darf ich berichten, dass Fördermittel nicht selten Ressourcen binden, anstatt sie zur Entfaltung zu bringen. Dabei drängt sich schon mal der Eindruck auf: Eine Förderung muss man sich leisten können. Bei allem Optimismus: Ich gehe nicht davon aus, dass das auf Bundesebene kurzfristig besser funktionieren wird.
Kritische Stimmen zum AI-Act
Zum Anderen wird der AI-Act auf die Zielgerade gebracht – begleitet von kritischen Stimmen, in die ich mitunter eingestimmt habe. Denn: Die breite Debatte, die zwar zu Recht die Ängste und Vorbehalte der Menschen im Hinblick auf den Einsatz von KI-Technologien in den Blick nimmt, differenziert derzeit leider nicht nach den Branchen, in denen KI zum Einsatz kommen soll. Wie schnell man in diesen Debatten von der Realität überholt werden kann (ich erinnere kurz an meine eingangs geäußerte Sorge), zeigt die jüngst veröffentlichte, rund 300 Seiten starke Stellungnahme des Ethikrates.
Mehr als zwei Jahre wurde dieses Papier ausgearbeitet. Darin heißt es unter anderem, dass der Ethikrat im Bereich der öffentlichen Kommunikation und Meinungsbildung Weiterentwicklungen der Regeln für Onlineplattformen hinsichtlich der Auswahl und Moderation von Inhalten sowie zu personalisierter Werbung und zum Datenhandel empfiehlt. Zudem hält der Ethikrat eine Kontrolle und Verantwortung auch ohne vollständige Transparenz für möglich, nämlich dann, wenn die Verantwortung für den Einsatz entsprechender Systeme Herstellern und Nutzern zugewiesen wird, die im Zweifel nachweisen müssten, warum Intransparenz akzeptabel ist.
Man muss gar nicht ChatGPT oder Midjourney und die aktuell kursierenden Beispiele zur Hand nehmen, um sich zu fragen, was eigentlich passiert, wenn die „falsche Seite“ mit KI hantiert. Darum soll es auch beim AI-Act auf EU-Ebene gehen: um die Identifikation der Verursacher, Haftungsfragen und die Justiziabilität von „KI-Schäden“. Und ja, das sind wichtige Fragen, wenn es darum geht, das Vertrauen in sinnvolle Anwendungen zu stärken. Hier kommt nicht zuletzt auch Europol ins Spiel, die vor dem Missbrauch von KI-basierten Textautomatisierungen im Hinblick auf Phishing oder Desinformationskampagnen warnen.
Das macht deutlich, dass es Regeln braucht! Wie das funktionieren kann, wenn das Gefühl bleibt, quasi im Wochentakt von der Realität überholt zu werden, bleibt allerdings offen. Wir wissen alle, wie langsam die Mühlen auf europäischer Ebene mahlen. Und aus der Sicht eines KI-Innovators darf ich sagen, dass die Sorge, dass hier pauschal alles über einen Kamm geschoren wird, bleibt.
Vielleicht ist es daher tatsächlich richtig, einfach mal innezuhalten, so wie es Musk, Wozniak, Harari und mehrere Hundert Unterzeichner mit ihrer Forderung nach einem sechsmonatigen Moratorium – also einem Entwicklungsstopp – gerade fordern. Nur: Wie soll etwa China dazu verpflichtet werden? Ausgerechnet das Land, das sich die Entwicklung von KI auf die eigene politische (kommunistische) Agenda geschrieben und hier – im Gegensatz zu nahezu allen anderen Lebensbereichen – maximale Freiheit für die Entwickler ausgerufen hat? Auch darauf wird es kaum eine Antwort geben.
Transparenz ist die Lösung
Wir stehen an einem Scheideweg. Wir müssen als Menschen, als Wirtschaftsunternehmen, als globale Gesellschaft entscheiden, was wir wollen und wo und wie uns KI bei der Bewältigung der großen Probleme und der kleinen Hindernisse im Alltag helfen soll. Im Unterschied zum Ethikrat bin ich der Meinung: Transparenz wird – wie so oft – helfen.
Die Frage „Cui bono?“ – wem nützt es? – ist dabei ein ganz entscheidender Faktor. Je transparenter diese Frage beantwortet werden kann, desto leichter wird die Entscheidung fallen, ob KI tatsächlich eine sinnvolle Hilfe ist. Wenn nun selbst ein nicht unwesentlicher Teil der vermeintlichen KI-Treiber droht, den Überblick zu verlieren, dann wird es in der Tat Zeit für ein Regelwerk, das den Missbrauch eindämmt, ohne den Fortschritt zu behindern. Bleibt zu hoffen, dass die Diskussion und Verabschiedung des AI-Acts dabei nicht auch links und rechts von der Realität überholt wird.
Elon Musk fordert einen Entwicklungsstop…nur um sich 2 Wochen später 10.000 GPU zu kaufen und eine eigene KI zu entwicklen. Kannste dir nicht ausdenken.