
Gemini kann nicht mehr über Wahlen sprechen. (Bild: Poetra.RH / Shutterstock)
Informationen, die von KI-Chatbots wie Googles Gemini oder OpenAIs ChatGPT kommen, sind nicht immer akkurat. Zudem können Chatbots und generative KI für Bilder und Videos auch dazu genutzt werden, um Fakes von echten Personen zu erstellen.
Die Technologie birgt das Risiko, für Desinformationskampagnen eingesetzt zu werden, was insbesondere bei Wahlen problematisch ist. Um solchen Missbrauch zu verhindern, hat Google seiner Gemini-KI nun Einschränkungen auferlegt.
Gemini antwortet nicht mehr auf Fragen oder Prompts zu den US-Wahlen. Stattdessen teilt die KI mit: „Ich lerne immer noch, wie ich diese Frage beantworten soll. Versuchen Sie es in der Zwischenzeit mit der Google-Suche“, wie Reuters berichtet.
Zuerst in Indien erprobt
Google hatte ähnliche Maßnahmen bereits bei den Wahlen in Indien erprobt, um die Verbreitung falscher Informationen zu verhindern und den demokratischen Prozess zu unterstützen, wie Cryptopolitan berichtet.
OpenAI hat für ChatGPT ähnliche Maßnahmen eingeführt, die darauf abzielen, die Verbreitung von irreführenden Informationen und Identitätsbetrug zu unterbinden. Über ChatGPT ist es mittlerweile nicht mehr möglich, echt wirkende Bilder von real existierenden Personen zu erstellen.
Gemini bereits wegen KI-Bildern im Fokus
Erst kürzlich geriet Googles Gemini-KI in die Schlagzeilen, nachdem es historisch nicht korrekte Bilder erstellt hatte. So produzierte die KI beispielsweise Darstellungen von Schwarzen und asiatischen Wehrmachtssoldaten oder von Schwarzen Gründervätern der USA.
Google reagierte auf die Kritik, indem sich das Unternehmen öffentlich entschuldigte und Besserungen versprach.