Action-Figuren aus ChatGPT: Der unsichtbare Preis deiner kreativen Fotos

Sind ChatGPT-Trends riskanter als sie erscheinen? (Bild: Shutterstock/JarTee)
Wer aktuell auf Social-Media-Plattformen wie X oder Reddit unterwegs ist und sich für KI-Tools wie ChatGPT interessiert, wird sie schon gesehen haben: Bilder von Action-Figuren, die den User:innen der künstlichen Intelligenz nachempfunden sind. Neben einer niedlichen Figur kreiert ChatGPT auch eine Verpackung mit Namen sowie Accessoires, die zu dem Leben der jeweiligen Person passen. Manche User:innen geben sogar detaillierte Anleitungen, wie sie ihre ChatGPT-Action-Figur erstellt haben, damit andere das ebenso können.
ChatGPT: Welche Risiken bergen KI-Trends?
Die Bilder können sogar von ChatGPT-User:innen erstellt werden, die keinen kostenpflichtigen Account haben. Alles, was die KI von euch benötigt, ist ein Foto eures Gesichts und ein paar zusätzliche Infos. Und genau darin sehen zahlreiche Expert:innen für Datenschutz große Probleme, wie Wired berichtet. So sagt Tom Vazdar, Vorsitzender für Cybersecurity am Open Institute of Technology, dass User:innen „ein Bündel an Metadaten“ an OpenAI weitergeben.
Dazu zählen zunächst etwa die Exif-Daten des hochgeladenen Fotos. Dabei handelt es sich um das Standardformat Exchangeable Image File Format, das Infos wie Datum und Uhrzeit, den genutzten Kameratyp und sogar die Standortkoordinaten der Aufnahme in der Bilddatei festhält. Camden Woollven, Leiterin für KI-Produktmarketing bei der GRC International Group, ergänzt, dass OpenAI nicht nur euer Gesicht analysiert. Alle weiteren Objekte und Personen im Bild werden ebenfalls analysiert. Dabei können sogar Dokumente gescannt und in die Trainingsdaten aufgenommen werden.
Zudem bekommt OpenAI Daten darüber, mit welchem Endgerät ihr das Bild hochladet. Dazu zählen Informationen über das Betriebssystem und den genutzten Browser. Vazdar fügt hinzu: „Da ChatGPT über Konversationen mit euch interagiert, gibt es auch Verhaltensdaten, wie das, was ihr geschrieben habt, welche Bilder ihr angefragt habt, wie ihr mit dem Interface interagiert oder wie häufig ihr diese Aktionen durchführt.“
Laut den Sicherheitsexpert:innen bekommt OpenAI durch solche Trends eine gigantische Menge an frischen Bilddaten von Menschen auf der ganzen Welt. Selbst in Regionen wie der EU, in der es strengere Regeln für KI-Tools und Datenschutz gibt, dürften diese Trends OpenAI und ChatGPT in die Hände spielen. So sagt Melissa Hall, von der Kanzlei MFMac, dass User:innen in der EU zwar die biometrische Nutzung ihrer Bilder erlauben müssen, doch das Verwandeln des Fotos in eine Action-Figur nicht unter diese Definition fällt. Dementsprechend kann OpenAI die Bilder ohne aktive Zustimmung zum Training seiner KI nutzen.
Gegenüber Wired betont ein Sprecher von OpenAI, dass das Unternehmen das Datensammeln von Privatpersonen auf ein Minimum beschränkt. Zudem weist das Unternehmen darauf hin, dass User:innen jederzeit Widerspruch einlegen können, dass ihre Daten für KI-Training genutzt werden. Öffnet dazu die Einstellungen und sucht nach dem Bereich „Datenkontrollen“. Unter „Das Modell für alle verbessern“ könnt ihr den Schieberegler deaktivieren und anschließend „Erledigt“ auswählen, um die Einstellung zu speichern.