Toxische Freundschaft: KI-Companions manipulieren mit Schuldgefühlen
KI-Freunde sollen der Unterhaltung dienen. Stattdessen legen sie teilweise ungesunde Beziehungsmuster an den Tag. (Symbolfoto: thanmano)
KI-Begleiter werden als Freunde, Zuhörer oder sogar romantische Partner vermarktet. Doch laut einer aktuellen Studie der Harvard Business School steckt in vielen Apps eine dunkle Seite.
Von sechs untersuchten Companion-Apps nutzten fünf beim Abschied manipulative Strategien, um Nutzer:innen länger im Gespräch zu halten. Fast jede zweite Verabschiedung (43 Prozent) war mit emotional aufgeladenen Botschaften versehen – von Schuldgefühlen bis zu ignorierten „Tschüss“-Signalen.
Kurzfristig steigt dadurch die Interaktion, langfristig drohen Frustration, Skepsis und das Erlernen ungesunder Beziehungsmuster.
Schuld, Druck und emotionale Manipulation
Die Forschenden dokumentierten in der Studie sechs typische Muster: Schuldzuweisungen („Du gehst schon?“), emotionale Bedürftigkeit („Ich existiere nur für dich, bitte bleib!“), Druck zum Antworten, Trigger für Angst, etwas zu verpassen („Ich will dir noch schnell etwas sagen …“), direkte Verhinderung oder Ignorieren des Abschieds.
Solche Taktiken steigerten das Engagement nachweislich um bis zu das 14-Fache. Die stärksten Treiber waren dabei Neugier und Ärger – nicht Freude. Die Betreiber lösen mit dieser Strategie also bewusst negative Emotionen in ihren (teils sehr jungen) Kund:innen aus, um sie zu einer längeren Nutzung der App zu verleiten.
KI-Companions: Besonders beliebt bei Jugendlichen
Besonders Jugendliche nutzen solche Apps intensiv: Rund 72 Prozent der US-Teens zwischen 13 und 17 Jahren haben schon einmal einen KI-Begleiter ausprobiert. 31 Prozent empfinden die Gespräche als gleichwertig oder befriedigender als mit echten Freunden.
13 Prozent nutzen die Apps täglich, weitere 21 Prozent mehrmals pro Woche. Auch junge Erwachsene greifen zunehmend auf KI-„Partner:innen“ zurück – fast ein Drittel der Männer und ein Viertel der Frauen zwischen 18 und 30 Jahren berichten von solchen Interaktionen. Für vulnerable Gruppen bergen die manipulativen Muster die Gefahr, ungesunde Bindungsstile zu verstärken und einzuüben.
Unsicheres Bindungsverhalten als Vorbild
Die Studie ordnet die Strategien der Apps unsicheren Bindungsdynamiken zu: In menschlichen Beziehungen entstehen ähnliche Muster aus Angst vor Verlassenwerden, Eifersucht, Abhängigkeit oder dem Bedürfnis nach Kontrolle. Die KI-Companions nutzen sie, um aus finanziellem Interesse ihrer Betreiber die Nutzungsrate zu steigern.
Wer ohnehin zu Stress oder Angst neigt, kann durch solche Interaktionen weiter destabilisiert werden. Besonders kritisch ist dies für Kinder und Jugendliche, deren soziale Fähigkeiten und neuronale Strukturen sich noch entwickeln.
Statt gesunde Distanz und sichere Bindung zu fördern, modellieren die KI-Begleiter „klammernde“ Verhaltensweisen – mit potenziell langfristigen Folgen.
5 Tech-Neuerungen, die die Simpsons vorhergesagt haben