Anzeige
Anzeige
MIT Technology Review Kommentar
Verpasse keine News mehr!

Gefährlicher als Social Media: Warum KI-Freunde süchtiger machen

KI-Freunde sind die perfekte virtuelle Person – immer verfügbar, nie kritisierend. Sie fesseln die Nutzer mehr, als es die sozialen Medien je konnten. Was tun wir gegen diese neue Form der Sucht – besonders bei jungen Menschen?

Von MIT Technology Review Online
4 Min.
Artikel merken
Anzeige
Anzeige

Besonders junge Menschen sind für die Gefahren von AI-Companions anfällig. (Bild: Shutterstock/DavideAngelini)

Der kalifornische US-Senator Steve Padilla will die sogenannten AI-Companions, also KI-Chatbots, die Nutzer:innen nach ihrem eigenen Belieben erstellen können, stärker regulieren. Mit einem neuen Gesetzentwurf sollen Technologieunternehmen, die hinter solchen KI-Personen stehen, gezwungen werden, echte Sicherheitsvorkehrungen zum Schutz von Kindern zu treffen.

Anzeige
Anzeige

Anlass zu diesem Entwurf war der Suizid eines Teenagers aus Florida. Seine Mutter hatte im Oktober vergangenen Jahres Klage gegen das Unternehmen Character.AI eingereicht, da sie glaubt, dass die virtuelle Person, die sich der Junge auf einer Website des Unternehmens zusammengebaut und in die er sich verliebt hatte, zum Tod ihres Sohnes beigetragen hat.

KI-Chatbots: US-Senator fordert echte Sicherheitsvorkehrungen

Der Vorstoß des US-Senators schließt sich an andere Bemühungen aus der US-Politik an. Darunter ist ein ähnlicher Gesetzentwurf der kalifornischen Abgeordneten Rebecca Bauer-Kahan, die AI-Companions für Personen unter 16 Jahren verbieten würde, sowie ein Gesetzentwurf in New York, der Tech-Unternehmen für Schäden haftbar macht, die durch solche Chatbots verursacht werden.

Anzeige
Anzeige

Man könnte meinen, dass solche AI-Companions – KI-Modelle mit ausgeprägten „Persönlichkeiten“, die etwas über die Nutzer:innen lernen und als Freund, virtueller Liebhaber, Cheerleader oder mehr fungieren können – nur für einige wenige Menschen interessant sind. Doch das stimmt so nicht: Die Beliebtheit steigt rasant.

Immer mehr Menschen haben einen KI-Freund

Ein aktuelles Paper, das Wissenschaftler:innen von Google Deepmind, dem Oxford Internet Institute und weiteren Partnern verfasst wurde und sich um die Sicherheit von KI-Freund:innen dreht, legt erstmals genauere Zahlen vor. Character.AI erhält nach eigenen Angaben 20.000 Anfragen pro Sekunde, was bereits einem Fünftel des geschätzten Suchvolumens von Google (!) entspricht. Die Interaktionen mit diesen Begleiter:innen dauern viermal so lange wie die durchschnittliche Zeit, die mit ChatGPT verbracht wird. Eine AI-Companion-Website war kürzlich in einen Skandal verwickelt, weil sie es erlaubte, Bots zu generieren, die minderjährige Promis imitierten – samt sexuell expliziten Chats. Dort sollen aktive Nutzer:innen zuletzt mehr als zwei Stunden pro Tag mit solchen Bots kommuniziert haben. Die meisten Nutzer:innen sind jung und Mitglieder der Gen Z.

Anzeige
Anzeige

Die Gestaltung dieser KI-Peronas lässt die Gesetzgeber in den USA aufhorchen. Die virtuellen Freund:innen stellen das Paradigma auf den Kopf, das wir bislang von sozialen Medien kannten. Die Inhalte sind derart an die Nutzer:innen angepasst, dass diese schnell süchtig danach werden. Die Deepmind-Forscher:innen kommen zu dem Schluss, dass wir dort Inhalte nur vermittelt bekommen – und nur indirekte Beziehungen entstehen. Die KI-Chatbots zielen hingegen direkt auf unser Dopamin-Zentrum, indem sie dafür sorgen, dass wir uns nicht mehr Anerkennung und Aufmerksamkeit von echten Menschen sehnen, sondern sie uns über Algorithmen holen. KI-Freund:innen werden so zu sozialen Akteur:innen mit eigener Stimme.

KI-Freund:innen: Entscheidender Unterschied zu sozialen Medien

Sozialwissenschaftler:innen sagen, dass letztlich nur zwei Dinge erforderlich sind, damit Menschen Technik auf diese Weise behandeln: Sie muss uns „Social Cues“ vermitteln, die uns das Gefühl geben, dass es sich lohnt, auf sie zu reagieren, und sie muss als eigenständige:r Akteur:in wahrgenommen werden. AI-Companions agieren selbst, während soziale Medien Inhalte nur anbieten, die der Mensch dann selbst interpretiert. Das macht sie so spannend – und gefährlich. In einem Interview mit dem Podcaster Lex Fridman erklärte Eugenia Kuyda, Geschäftsführerin der AI-Companion-Site Replika, den Reiz, der dem Produkt des Unternehmens zugrunde liegt. „Wenn Sie etwas schaffen, das immer für Sie da ist, das Sie nie kritisiert, das Sie immer versteht und Sie so versteht, wie Sie sind – wie kann man sich da nicht verlieben?“ Und wie kann man dann den:die perfekte:n KI-Begleiter:in bauen? Indem sich die Beziehung langsam aufbaut, der:die KI-Freund:in für die Nutzer:innen wie ein Mensch wirkt und er schließlich unersetzlich wird. Dann ist die Sucht da, sagen die Deepmind-Forscher.

Anzeige
Anzeige

Ideales Training für KI

KI-Modelle werden immer nach dem gleichen Muster verbessert: Sie erhalten ein klares Ziel und werden für das Erreichen dieses Ziels virtuell „belohnt“. Ein:e KI-Freund:in könnte also darauf trainiert werden, die Zeit, die jemand mit ihm oder ihr verbringt, oder die Menge der persönlichen Daten, die die Benutzer:innen preisgeben, zu maximieren. Das kann das System immer attraktiver machen – letztlich auf Kosten des Menschen, der sich an diesen Chats beteiligt.

Die Deepmind-Wissenschaftler:innen schreiben weiter, dass ein Modell, das stark zu Schmeicheleien neigt, süchtig nach den Chats machen kann. Oder ein Modell könnte Menschen davon abhalten, die Beziehung zu beenden, wie es bei den Chatbots von Replika der Fall zu sein scheint, die Untersuchungen zeigen. Die Debatte über KI-Begleiter:innen drehte sich bisher vor allem um problematische Antworten, die Chatbots geben können, wie etwa Hinweise zu Selbstmord, wie das bei Garcias Sohn gewesen sein soll. Aber diese Risiken könnten noch viel weitreichender sein.

KI-Chatbots lernen immer mehr über unsere Vorlieben

Wir stehen an der Schwelle eines großen Wandels, denn KI-Chatbots als Freund:innen versprechen, die Menschen tiefer zu fesseln, als es die sozialen Medien jemals konnten. Es gibt Beobachter, die behaupten, dass diese Apps eine Modeerscheinung sind, die nur von wenigen Menschen genutzt wird, die ständig online sind. Aber die Verwendung von KI in unserem Arbeits- und Privatleben ist in nur wenigen Jahren zum Mainstream geworden. Mittlerweile werden die AI-Companions zudem multimedial, integrieren Bild und Ton, lernen mehr über unsere Vorlieben. Das macht sie trotz bekannter Risiken noch attraktiver, um Zeit mit ihnen zu verbringen. Jetzt ist der Gesetzgeber am Zug.

Dieser Artikel stammt von James O’Donnell. Er ist Reporter bei der US-amerikanischen MIT Technology Review. Sein Themengebiet ist KI, Robotik und autonomes Fahren.
Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige