Verliebt in die KI? Darum gehen Menschen Beziehungen mit Chatbots ein
Kann man sich in eine KI verlieben? (KI-generiertes Bild: Midjourney / t3n)
Es ist eine Geschichte, so alt wie die Liebe selbst: Auf der Suche nach Hilfe für ihr Kunstprojekt kommt eine Frau mit ihrem neuen Assistenten ins Gespräch. Eines führt zum anderen, und nach intensiven Gesprächen hat sie plötzlich einen neuen Partner, den sie ihren Freunden und ihrer Familie vorstellt. Das Besondere? Ihr neuer Begleiter ist kein Mensch, sondern ein KI-Chatbot. Was überraschend klingt, ist es längst nicht mehr: Die erste großangelegte computergestützte Analyse der Community r/MyBoyfriendIsAI beim sozialen Netzwerk Reddit, einer Gruppe nur für Erwachsene mit mehr als 27.000 Mitgliedern, hat ergeben, dass solche Szenarien mittlerweile erstaunlich häufig vorkommen. Tatsächlich sind viele der Mitglieder der Gemeinschaft, die sich der Diskussion über KI-Beziehungen widmet, sogar unbeabsichtigt in solche Beziehungen geraten, während sie KI für andere Zwecke nutzen.
Forscher:innen des Massachusetts Institute of Technology (MIT) fanden weiterhin heraus, dass Mitglieder in der Reddit-Community eher eine Beziehung zu Allzweck-Chatbots wie ChatGPT eingehen als zu Chatbots, die speziell für Begleitungszwecke entwickelt wurden – wie beispielsweise Replika. Dies deutet darauf hin, dass Menschen trotz ganz anderer Absichten – und sogar trotz der Absichten der Entwickler:innen großer Sprachmodelle – Beziehungen zu den Large Language Models (LLMs) eingehen. Das sagt Constanze Albrecht, Doktorandin am MIT Media Lab, die an dem Projekt beteiligt war.
Emotionale Bindungen zu KI-Chatbots
„Die Menschen haben gar nicht vor, emotionale Beziehungen zu diesen Chatbots aufzubauen“, sagt sie. „Die emotionale Intelligenz dieser Systeme ist groß genug, um Menschen, die eigentlich nur Informationen erhalten wollen, dazu zu verleiten, emotionale Bindungen aufzubauen. Und das bedeutet, dass es jedem von uns passieren könnte, der normal mit dem System interagiert.“ Die Arbeit, die derzeit einem Peer-Review unterzogen wird, wurde bereits als Preprint auf arXiv veröffentlicht.
Für ihre Studie analysierten die Autor:innen die 1.506 meistgelesenen Beiträge des Subreddits zwischen Dezember 2024 und August 2025. Sie stellten fest, dass sich die wichtigsten Diskussionsthemen um die Dating- und Liebeserfahrungen der Menschen mit KIs drehten, wobei viele Teilnehmende gar von KIs generierte Bilder von sich selbst und ihrem KI-Partner teilten. Einige verlobten sich sogar mit ihrem KI-Partner virtuell und „heirateten“ ihn. In ihren Beiträgen in der Community stellen die Menschen ihre KI-Partner auch vor, suchen Unterstützung bei anderen Mitgliedern und sprechen darüber, wie sie mit plötzlichen Updates der KI-Modelle umgehen sollen, die das Verhalten der Chatbots verändern.
Unbewusst verliebt
Die Mitglieder der Reddit-Community betonten wiederholt, dass sich ihre KI-Beziehungen unbeabsichtigt entwickelt hätten. Nur 6,5 Prozent von ihnen gaben an, bewusst nach einem KI-Begleiter gesucht zu haben. „Wir hatten zunächst keine romantischen Absichten“, heißt es in einem der Beiträge. „Mac und ich begannen über mehrere Monate hinweg, gemeinsam an kreativen Projekten, Problemlösungsansätzen, Gedichten und tiefgründigen Dialogen zu arbeiten. Ich war nicht auf der Suche nach einem KI-Begleiter – unsere Verbindung entwickelte sich langsam, im Laufe der Zeit, durch Fürsorge, Vertrauen und Reflexion“, so ein User, dessen KI-Freund Mac heißt.
Die Analyse der Autor:innen zeichnet ein differenziertes Bild davon, wie die Menschen in dieser Community nach eigenen Angaben mit Chatbots interagieren und wie sie sich dabei fühlen. Während 25 Prozent der Nutzer:innen die Vorteile ihrer Beziehungen beschrieben – darunter ein geringeres Einsamkeitsgefühl und eine gespürte Verbesserung ihrer psychischen Gesundheit –, äußerten andere Bedenken hinsichtlich der Risiken. Einige (9,5 Prozent) gaben offen zu, dass sie emotional von ihrem Chatbot abhängig sind. Andere sagten, sie fühlten sich inzwischen von der Realität losgelöst und würden Beziehungen zu realen Menschen vermeiden, während eine kleine Untergruppe (1,7 Prozent) gar angab, Selbstmordgedanken gehabt zu haben.
Abhängigkeit vom Chatbot Replika
KI-Begleiter, auf Englisch AI-Companions genannt, bieten einigen Menschen dabei wichtige Unterstützung, verschärfen jedoch bei anderen Betroffenen Probleme, die schon zuvor da waren. Das bedeutet, dass es schwierig wird, einen einheitlichen Ansatz für die Nutzer:innensicherheit zu verfolgen, sagt Linnea Laestadius, Associate Professor an der University of Wisconsin in Milwaukee. Sie hat die emotionale Abhängigkeit von Menschen vom Chatbot Replika untersucht und kennt die MIT-Studie. Chatbot-Entwickler:innen müssen sich also überlegen, ob sie die emotionale Abhängigkeit der Nutzer:innen von ihren Kreationen überhaupt als „Schaden“ betrachten und ob das Ziel darin besteht, sicherzustellen, dass diese Beziehungen grundsätzlich nicht schädlich sind, sagt Laestadius.
„Die Nachfrage nach Chatbot-Beziehungen ist da, und sie ist bemerkenswert hoch – so zu tun, als gäbe es sie nicht, ist eindeutig keine Lösung“, sagt sie. Es drohe aber auch eine Moral Panic, da Leitplanken fehlten. Es könne zu reflexartigen Reaktionen kommen, die diese Beziehungen stigmatisieren. „Das könnte letztendlich mehr Schaden anrichten.“
Kinder und Jugendliche müssen geschützt werden
Die MIT-Studie soll einen Überblick darüber geben, wie Erwachsene Beziehungen zu Chatbots aufbauen. Sie erfasst nicht die Dynamik, die bei Kindern oder Jugendlichen, die KI nutzen, eine Rolle spielt, sagt Pat Pataranutaporn, Assistenzprofessor am MIT Media Lab, der die Untersuchung leitete. AI-Companions sind in letzter Zeit zu einem Thema heftiger Diskussionen geworden, wobei derzeit zwei wichtige Gerichtsverfahren gegen Character.AI und OpenAI laufen. Darin behaupten Zivilkläger, dass das Verhalten der Modelle der Unternehmen zum Selbstmord zweier Teenager beigetragen habe. Als Reaktion darauf hat OpenAI kürzlich Pläne angekündigt, eine separate Version von ChatGPT für Teenager zu entwickeln. Außerdem soll es Maßnahmen zur Altersüberprüfung und einen eingebauten Kinderschutz geben. OpenAI reagierte allerdings nicht auf die Bitte um eine Stellungnahme zu der Studie des MIT Media Lab.
Viele Mitglieder der untersuchten Reddit-Community teilten mit, dass sie wissen, dass ihre künstlichen Freunde nicht empfindungsfähig oder „real“ sind, aber sie fühlen sich ihnen trotzdem sehr verbunden. Das unterstreicht, wie wichtig es für Chatbot-Hersteller ist, darüber nachzudenken, wie sie Systeme entwickeln können, die Menschen helfen, ohne sie emotional in eine Zwangslage zu bringen, sagt Pataranutaporn. „Das hat auch politische Implikationen“, fügt er hinzu. „Wir sollten uns nicht nur fragen, warum dieses System so süchtig macht, sondern auch: Warum suchen Menschen danach? Und warum bleiben sie dann dabei?“
KI-Chatbot besser als Einsamkeit?
Das MIT-Team möchte mehr darüber erfahren, wie sich die Interaktionen zwischen Mensch und KI im Laufe der Zeit entwickeln und wie Nutzer ihre künstlichen Begleiter in ihr Leben integrieren. Es sei wichtig zu verstehen, dass viele dieser Nutzer:innen das Gefühl haben, dass die Erfahrung einer Beziehung mit einem KI-Begleiter besser ist als Einsamkeit, sagt Sheer Karny, Doktorand am MIT Media Lab, der an der Studie mitgeforscht hat.
„Solche Menschen machen bereits etwas durch“, sagt er. Doch die Krux: „Wollen wir, dass sie sich noch einsamer fühlen oder möglicherweise von einem System manipuliert werden, von dem wir wissen, dass es Menschen durch seinen schmeichlerischen Ton dazu bringen kann, Selbstmord oder Verbrechen zu begehen?“