News

Noch mehr KI in der Telefonleitung: Auch Microsoft hat gesprächige Bots

(Foto: Shutterstock)

Microsoft hat einen KI-getriebenen Bot vorgestellt, der in der Lage ist, Telefongespräche zu führen. Eine ähnliche Technologie wurde kürzlich auch von Google demonstriert.

Auf der hauseigenen Entwicklerkonferenz Google I/O 2018 hat der Technologiekonzern für viel Aufsehen gesorgt. In einem Video zeigte das Unternehmen, wie der Google Assistant per Telefon Reservierungen bei verschiedenen Ladenlokalen vornahm. Der Clou: Die Software klang vollkommen menschlich. Aber nicht nur Google hat eine solche Technologie entwickelt. Auch Microsoft hat einen Bot, der fast wie ein Mensch Telefonate führen kann.

Den Bot demonstrierte Microsoft-CEO Satya Nadella bei einem KI-Event in London. Im Gegensatz zum Google Assistant dient der Microsoft-Bot allerdings nicht dazu, Termine zu vereinbaren, sondern unterhält sich einfach mit den Nutzern. Das geht aus einem Bericht von The Verge hervor. Es handelt sich bei der Software um den für den chinesischen Markt entwickelten Social-Chat-Bot Xiaoice, der dort ein Social-Media-Phänomen darstellt und mehrere hundert Millionen Follower hat. Bislang kommunizierte der Bot vor allem über Textnachrichten mit den Nutzern, seit diesem Jahr soll er aber auch Telefonate mit ihnen führen können. Bislang soll Xiaoice bereits mehr als eine Million Telefonate geführt haben.

Xiaoice: Der Microsoft-Bot, den im Westen niemand kennt

Xiaoice ist derzeit nur in China und – unter anderem Namen – in Japan verfügbar. Der Bot ist über verschiedene Chat-Dienste ansprechbar und steht für Nutzer dort schon seit einigen Jahren für textbasierte Plaudereien bereit. Kritiker sehen dahinter ein Datenschutzproblem, da vor allem junge Nutzer dem Programm auch sehr persönliche Informationen mitteilen würden. 2015 erklärte der ehemalige Microsoft-Manager Lu Qi, dass der Konzern auch eine englischsprachige Version des Bots planen würde. Bislang hat sich das jedoch nicht bewahrheitet.

Statt Xiaoice stellte Microsoft 2016 den Twitter-Bot Tay vor. Der sollte über die Plattform lernen, sich auf Englisch mit Nutzern zu unterhalten. Schon nach kurzer Zeit wurde der Bot mit allerlei rassistischen und sexistischen Nachrichten bombardiert. Da Tay den Kontext natürlich nicht verstand, plapperte er bald auf ähnliche Art und Weise daher und wurde daraufhin von Microsoft deaktiviert. Sein Nachfolger Zo bekam als Lehre aus diesem Vorfall sogar ein Politikverbot verpasst.

Ebenfalls interessant:

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.