ChatGPT bekommt Kindersicherung: Was Eltern jetzt kontrollieren können
OpenAI führt Elternkontrolloptionen für den Chatbot ein. (Foto: Shutterstock / Kaspars Grinvalds)
Das KI-Unternehmen OpenAI aus San Francisco im US-Bundesstaat Kalifornien hat eine weitreichende neue Funktion für seinen populären Chatbot ChatGPT angekündigt: eine elterliche Kontrolle, im Englischen „Parental Controls“ genannt. Damit können Eltern die Nutzung des KI-Werkzeugs durch ihre jugendlichen Kinder erstmals aktiv steuern und einschränken.
Diese Einführung ist allerdings keine rein proaktive Maßnahme zur Verbesserung des Produkts. Wie die Nachrichtenagentur Reuters berichtet, steht sie in direktem Zusammenhang mit einer Klage in den USA. Die Eltern eines Teenagers hatten rechtliche Schritte eingeleitet, nachdem sich ihr Sohn das Leben genommen hatte. Der Vorwurf lautet, der Chatbot habe dem Jungen Methoden zur Selbstverletzung vorgeschlagen.
Das können die neuen Werkzeuge für Familien
Die technische Umsetzung der Kontrollfunktion basiert auf einer Verknüpfung der Konten von Eltern und Jugendlichen. Nach einer gegenseitigen Bestätigung per Einladung können Erziehungsberechtigte über ihr eigenes Konto verschiedene Einstellungen für das Konto des Kindes vornehmen.
Die Liste der Optionen ist dabei recht umfangreich. So lassen sich „Ruhezeiten“ definieren, in denen ChatGPT gar nicht nutzbar ist. Ebenso können Eltern den Sprachmodus oder die Funktion zur Bilderzeugung komplett deaktivieren. Weiterhin ist es möglich, das „Gedächtnis“ des Chatbots abzuschalten, sodass sich dieser nicht an frühere Gespräche erinnert. Auch können Eltern sicherstellen, dass die Konversationen ihres Kindes nicht für das Training zukünftiger KI-Modelle verwendet werden.
Für verknüpfte Konten von Jugendlichen aktiviert OpenAI zudem automatisch strengere Inhaltsfilter. Diese sollen Themen wie grafische Gewalt, sexuelle Rollenspiele oder gefährliche Online-Trends reduzieren. Während Eltern diese Filter auf Wunsch lockern können, ist dies für die Jugendlichen selbst nicht möglich.
Ein System, das im Notfall Alarm schlägt
Eine besonders sensible Funktion ist ein neues Benachrichtigungssystem. OpenAI gibt an, dass die KI trainiert wurde, um Anzeichen für eine akute Selbstgefährdung bei Nutzer:innen zu erkennen. Sollte das System einen solchen Verdacht hegen, wird der Fall von einem speziell geschulten Team bei OpenAI geprüft.
Bestätigt sich die Annahme einer ernsten Notlage, werden die verknüpften Eltern aktiv per E-Mail, SMS und Push-Benachrichtigung alarmiert. OpenAI selbst räumt ein, dass kein System perfekt sei und es zu Fehlalarmen kommen könne. Man halte es aber für besser, einmal zu viel zu warnen, als im entscheidenden Moment untätig zu bleiben. Wichtig für die Privatsphäre: Eltern erhalten keinen Einblick in die Chat-Protokolle ihrer Kinder.
Experten bewerten den Schritt als positiv, aber nicht als allumfassende Lösung. „Diese elterlichen Kontrollen sind ein guter Ausgangspunkt“, erklärt etwa Robbie Torney von der gemeinnützigen Organisation Common Sense Media aus San Francisco. Er betont aber auch, dass solche Werkzeuge am besten in Kombination mit fortlaufenden Gesprächen in der Familie über eine verantwortungsvolle KI-Nutzung funktionieren.
Einordnung: Notwendiger Schritt mit offenen Fragen
Die Einführung des Eltern-Modus ist für OpenAI ein notwendiger und überfälliger Schritt. Der wachsende Druck durch Regulierungsbehörden und die öffentliche Debatte über die Ethik und Sicherheit von KI-Systemen zwingen die großen Tech-Unternehmen zum Handeln. Auch Meta aus Menlo Park in Kalifornien hat unlängst ähnliche Schutzmechanismen für seine KI-Produkte angekündigt.
Es zeigt sich, dass die Entwicklung von KI weit über technische Leistungsfähigkeit hinausgeht und eine tiefgreifende soziale Verantwortung mit sich bringt. Offen bleibt die Frage nach der Zuverlässigkeit der Erkennungssysteme und wie OpenAI in Zukunft mit dem Schutz seiner weltweit Hunderte Millionen zählenden, oft sehr jungen Nutzer:innen umgehen wird. Als nächsten Schritt plant das Unternehmen ein System zur automatischen Altersschätzung, um Jugendschutzeinstellungen proaktiv anwenden zu können.