KI löst Captchas in Sekunden: Warum das ein Problem ist – und welche Alternativen sich anbieten
Seit fast zwei Jahrzehnten stellen sogenannte Captchas einen wirksamen Schutz gegen Bots dar – vor allem gegen deren missbräuchlichen Einsatz in Internetformularen. Die meist bildbasierten kleinen Rätsel sollen Mensch von Maschine unterscheiden können.
KI-Tools machen Captchas unbrauchbar
Doch die rasant fortschreitende Entwicklung im KI-Bereich macht Captchas zunehmend unbrauchbar. KI-Tools überwinden diese Hürde meist spielerisch und lösen die Rätsel schneller als Menschen, wie eine im Juli 2024 veröffentlichte Studie ergeben hat.
Damit könnte es bald kaum mehr möglich sein, online zwischen KI-Agenten und Menschen zu unterscheiden. Jetzt stellen Forscher:innen eine Alternative für die Captcha-Barriere vor. Die hat viele Vorteile, aber auch einige entscheidende Haken.
Persönlichkeitsnachweise als Alternative?
Wie es in einer auf dem Preprint-Server Arxiv veröffentlichten Studie heißt, könnte künftig ein sogenanntes „Persönlichkeitsnachweis“-System die Captchas ersetzen. Die Verifizierungstechnik wurde von Forscher:innen vom MIT, mehreren namhaften US-Unis sowie Vertreter:innen von Microsoft und OpenAI ersonnen.
Die Persönlichkeitsnachweise sollen einen Beweis des Menschseins erbringen können, ohne dass dabei sensible Daten über die Identität der jeweiligen Nutzer:innen weitergegeben würden, erklärt Media-Lab-Mitarbeiter Tobin South, einer der Co-Autor:innen der Studie. Damit soll letztlich verhindert werden, dass KI etwa in großem Umfang Accounts eröffnen und Fake-News verbreiten oder sich als menschliche Person ausgeben könne.
KI hat weder Steuernummer noch Führerschein
Um einen solchen Persönlichkeitsnachweis zu erhalten, müssten Nutzer:innen ein Dokument vorzeigen, das von einer staatlichen Institution ausgegeben wurde, etwa ihre Steuer-ID-Nummer. Zudem soll eine Offline-Komponente enthalten sein. So könnten KI-Tools nicht zur Führerscheinbehörde gehen, wie South meint.
„Deshalb kombinieren wir zwei Ideen – die Sicherheit, die wir durch Kryptografie haben, und die Tatsache, dass Menschen immer noch über einige Fähigkeiten verfügen, die KI nicht hat“, so South gegenüber MIT News. Dadurch soll garantiert werden, dass es sich bei den Nutzer:innen wirklich um Menschen handelt.
Kritik: Tech-Konzerne in der Pflicht
Kritiker:innen sehen in der Idee allerdings insbesondere in puncto Überwachung und Datensicherheit Probleme. Die Tech-Konzerne würden damit die Verantwortung auf die Nutzer:innen abwälzen, statt als Reaktion auf die Entwicklung leistungsstarker KI-Tools ihre Produkte auch entsprechend abzusichern, wie der Sicherheitsforscher Chris Gilliard der Washington Post sagte.
Dazu könnten etwa Wasserzeichen eingesetzt werden, durch die von KI generierte Inhalte leichter zu identifizieren wären.
Missbrauch leicht möglich
Dass ihre Idee noch einige Haken hat, räumen die Studienautor:innen derweil auch selbst ein, wie Futurism schreibt. So sei nicht auszuschließen, dass einige Personen – gegen entsprechende Bezahlung – ihre Persönlichkeitsnachweise an KI-Spammer:innen verkaufen würden.
Zudem würden Organisationen, die diese Nachweise ausstellen, mit einer großen Machtfülle ausgestattet werden. Mögliche Hackerangriffe auf die Ausgabestellen würden das System ad absurdum führen. Zudem seien weniger internetaffine Menschen, etwa ältere Personen, ein leichtes Ziel von Online-Scams.
Die Forscher:innen empfehlen daher, dass das von ihnen erdachte System zunächst im Rahmen eines Pilotprogramms unter Aufsicht der US-Regierung getestet wird.