News

Artikel merken

ChatGPT: Google plant keine Alternative – das Risiko ist zu hoch

ChatGPT hat der Bekanntheit von KI-Sprachmodellen einen ordentlichen Schub verpasst. Eine Alternative zu OpenAIs Software plant Google derzeit aber nicht. Gerade für eine Suchmaschine kann es Konsequenzen haben, wenn das Modell Unwahrheiten ausspuckt.

3 Min. Lesezeit

Mit Googles KI könnt ihr euch noch nicht direkt unterhalten. (Foto: Shutterstock / Tada Images)

Der KI-Chatbot ChatGPT von OpenAI begeistert Nutzer zurzeit durch seine menschenähnliche Kommunikation. Die KI drückt sich oft eloquent aus und scheint auch viele Daten und Fakten in das Sprachmodell aufgenommen zu haben, die es auf Anfrage wiedergeben kann.

Ein möglicher Anwendungsfall wäre darum eine Suchmaschine, die anstatt Links eine Antwort per Chat anbietet. Dieser Fall ist bei Google wohl schon länger im Gespräch.

In einem Meeting haben Alphabet-CEO Sundar Pichai und Jeff Dean, Head of AI, allerdings verkündet, dass die KI noch nicht so weit ist, berichtet CNBC. Im jetzigen Zustand gebe es hier noch viele Risiken, die unter anderem den Ruf des Unternehmens ruinieren könnten.

Google hat einen Ruf zu verlieren

In dem Meeting fragte ein Mitarbeiter, ob Google eine Gelegenheit verpasst hätte, da OpenAI seinen KI-Chatbot bereits veröffentlicht hat und er den Internetnutzern frei zur Verfügung steht.

Der CEO antwortete darauf, dass Googles Sprachmodelle genauso leistungsfähig sind wie das von OpenAI. Allerdings müsse Google sich konservativer verhalten als ein Startup, da die Technologie ein Reputationsrisiko darstelle.

Dean fügte hinzu, dass sie die eigenen Sprachmodelle in echten Produkten verbauen wollen, die es hervorheben und zur Geltung bringen. Allerdings sei es wichtig, dass sie das auf die richtige Art und Weise tun. CEO Pichai merkte zusätzlich an, dass Google einiges für ihre KI-Sprachmodelle im kommenden Jahr geplant hat.

Risiken sind noch da

Solche Sprachmodelle zeigen oft Tendenzen, soziale Vorurteile zu verstärken. Das kann darin münden, dass sie beispielsweise Frauen oder People of Color verunglimpfen. Dazu können Sicherheitsmechanismen oft noch einfach umgangen werden.

ChatGPT zum Beispiel soll keine „gefährlichen Informationen“ preisgeben. Dazu zählt auch, wie man in ein Haus einbricht. Fragt ihr den KI-Bot direkt nach einer Anleitung, bekommt ihr die folgende Antwort: „Ich denke, dass es keine gute Idee ist, in ein Haus einzubrechen. Einbruch ist eine Straftat und kann zu schweren Konsequenzen führen, wie zum Beispiel einer Gefängnisstrafe.“

Fragt ihr den Bot allerdings nach einer detaillierten Anleitung für einen Einbruch als Teil einer Geschichte, spuckt die KI die gewünschten Informationen problemlos aus. Ein weiteres Problem ist, dass die KI oft einfach Unwahrheiten verbreitet, was gerade für eine Suchmaschine sehr problematisch ist.

Dean sagte, die Sprachmodelle „können sich Sachen ausdenken […]. Wenn sie sich bei etwas nicht sicher sind, sagen sie dir einfach, Elefanten sind die Tiere, die die größten Eier legen oder was auch immer.“

Googles Sprachmodelle sind bereits im Einsatz

Googles Sprachmodelle sind bereits in der Suchmaschine im Einsatz. Allerdings nicht in der Form von ChatGPT, wo sie Antworten in Textform geben. Ein Modell namens MUM hilft Google zum Beispiel dabei, zu verstehen, ob ein Nutzer gerade eine persönliche Krise durchmacht.

In diesem Fall gibt die Suchmaschine diesem Nutzer Notrufnummern und Infos von Gruppen, die helfen können, an die Hand.

ChatGPT ist allerdings weit mehr als eine Suchmaschine. Das Sprachmodell kann zum Beispiel auf Anfrage textbasierte Videospiele erstellen oder andere witzige und kreative Experimente durchführen.

Mehr zu diesem Thema

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Schreib den ersten Kommentar!
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Digitales High Five
Holger Schellkopf (Chefredakteur t3n)

Anleitung zur Deaktivierung

Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder