KI-generiert oder reale Person? Studie zeigt die Gefahren von Deepfakes im Alltag
Deepfakes, also KI-generierte Bilder oder Videos, die echte Personen darstellen, gewinnen mit der fortschreitenden Entwicklung der Technologie immer weiter an Relevanz. Eine Studie von der University of Waterloo hat nun gezeigt, dass es für Menschen schwierig ist, echte von KI-generierten Personen zu unterscheiden.
Nur 61 Prozent der Teilnehmer konnten die Bilder korrekt identifizieren, was bedeutet, dass etwa 40 Prozent von der KI getäuscht wurden. Falls ihr überzeugt seid, dass ihr das besser könnt, könnt ihr es in unserem KI-Quiz unter Beweis stellen.
Viele sehen den Unterschied nicht
An der Studie beteiligten sich 260 Menschen, die 20 Bilder vorgelegt bekamen. Sie bestanden zur Hälfte aus Fotos von echten Personen, die über Google gefunden wurden, und zur anderen Hälfte aus Bildern, die mithilfe der KI-Tools Stable Diffusion oder Dall-E generiert wurden.
Die Teilnehmenden sollten markieren, welche Bilder sie für echt oder gefälscht hielten. Dazu sollten sie eine Begründung für die Entscheidung angeben. Teilnehmer konnten sich die Bilder über einen längeren Zeitraum ansehen. Dabei konzentrierten sie sich auf Details wie Finger, Zähne oder Augen, um zu einer Entscheidung zu gelangen, wie Sci Tech Daily schreibt.
Im echten Leben könnte es noch schwieriger werden
Beim Durchscrollen des Social-Media-Feeds werden Bilder in der Regel nur kurz betrachtet, bevor weitergescrollt wird. In diesem Kontext könnten KI-generierte Bilder noch öfter für echte Aufnahmen gehalten werden als in der Studie.
Das birgt vor allem dann Probleme, wenn auf den gefälschten Bildern Personen des öffentlichen Lebens abgebildet sind. Unternehmen wie OpenAI haben bereits Schritte unternommen, um zu verhindern, dass Nutzer mithilfe von ChatGPT Bilder echter Menschen in einem realistischen Stil generieren können.
Dennoch wird das Thema auch in Zukunft von Bedeutung bleiben, besonders angesichts der rasanten Weiterentwicklung von KI-Tools.