Analyse

Amazon: Dieser neue KI-Chip macht Alexa schneller und schlauer

Alexa und ihr neuer KI-Chip: Künstliche Intelligenz will Amazon seinen Echo-Geräten mit Hilfe einer Eigenentwicklung mitgeben. (Foto: dpa)

Amazon will mit einem eigenen KI-Chip die User Experience seiner Alexa-Geräte verbessern und schneller machen. Künstliche Intelligenz entwickelt sich damit zu einem Feature der Saison.

Huawei arbeitet schon daran, Samsung auch, ebenso MicrosoftGoogle und Apple – und jetzt will es auch Amazon für seine Echo-Serie haben: künstliche Intelligenz, die dank KI-Chips dafür sorgen soll, dass die Geräte beim Erkennen des Willens des Nutzers nicht mehr alles erst in die Cloud senden müssen. Nach Medienberichten entwickelt Amazon einen eigenen KI-Chip, der der virtuellen Assistentin Alexa das Verstehen menschlicher Wünsche und Anforderungen erleichtern soll. Durch die KI-Unterstützung soll Alexa schneller beim Verstehen werden und Kommandos zuverlässiger deuten und verarbeiten können.

Künstliche Intelligenz könnte dafür sorgen, dass die Leistungsfähigkeit der digitalen Assistenten auf ein ganz anderes Niveau gebracht wird als wir es heute gewohnt sind. Einfachere Aufgaben, für die keine Netzanbindung erforderlich ist, könnten somit schneller und einfacher ausgeführt werden, ohne dass hierfür Daten erst über die Cloud geschickt werden müssen. Selbst bei der Aufbereitung komplexer Daten, für die Amazon im vergangenen Jahr bereits das Startup Graphiq übernommen hat, könnte KI in Zukunft dafür sorgen, dass deutlich mehr Rechenarbeit ohne Zuhilfenahme der Cloud erfolgen kann.

Ein weiterer positiver Nebeneffekt: Weil die virtuellen Assistenten nicht jede Eingabe über die Cloud verarbeiten müssen, könnte der Anwender einen Teil seiner Privatsphäre zurückgewinnen. Allerdings dürften gerade die komplexeren Rechercheanfragen auch weiterhin nicht ohne den Umweg über die Cloud auskommen.

Amazon hat das Budget für eigene KI-Entwicklungen

Neu ist dabei, dass (wie zuletzt in den 90ern und frühen Nullerjahren) große Unternehmen wie Apple mit dem im Homepod verwendeten A8-Chip auf eigene Chips setzen. Das stellt zwar sicher, dass das Unternehmen den Finger darauf hat, wer die Technologie nutzen kann, bedeutet aber einen immensen Entwicklungsaufwand, den zuletzt selbst große Unternehmen gescheut hatten. So war Apples Homepod vor allem wegen seiner bisher schwachen Fähigkeiten in der Erkennung kritisiert worden. Dass gerade Amazon diesen Schritt hin zur Entwicklung eigener Chips gehen würde, zeichnete sich bereits 2015 nach der Übernahme von Annapurna Labs ab. Damals hatte Amazon das israelische Unternehmen für rund 350 Millionen US-Dollar übernommen. Und wenn neben Apple und Google ein Digitalkonzern über hohe Entwicklungsbudgets verfügt, dürfte das Amazon sein.

Offenbar ist die Implementierung von KI-Fähigkeiten in dieser Saison das Feature, über das sich die Unternehmen von der Konkurrenz abheben wollen. Und so werden wir KI-Chips zunächst in den stationären Geräten und in mobilen Endgeräten der Oberklasse sehen. Naturgemäß leichter haben es dabei die Unternehmen, die solche KI-Chips in die leistungsfähigeren netzbetriebenen Geräte einbauen, die über mehr Platz (und somit potenziell mehr Rechenpower) verfügen. Umgekehrt können KI-Fähigkeiten die User Experience gerade bei der Sprachverarbeitung deutlich verbessern. Wie sich insbesondere bei den Mobilgeräten die zusätzlichen KI-Chips auf den Stromverbrauch auswirken, wird sich noch zeigen müssen. Im Umkehrschluss sinkt hier aber die für den Rechenprozess benötigte Prozessorleistung.

Zahlreiche KI-Features zum MWC erwartet

Zu erwarten ist, dass gerade im Zusammenhang mit dem Mobile World Congress, der Ende Februar in Barcelona stattfindet, weitere Unternehmen ähnliche Bauteile und dazu passende Anwendungen ankündigen. Insbesondere das Samsung Galaxy S9 dürfte mit entsprechenden Features aufwarten, nachdem Huaweis Mate 10 Pro (Test) bereits im Herbst mit der Aussicht auf (noch zu schaffende) KI-Anwendungen vorgestellt worden war. Allerdings wird sich erst zeigen müssen, wie gut und zielführend die jeweiligen Unternehmen auf Machine Learning setzen. Denn die Tatsache allein, dass ein solcher Chip in einem Gerät seinen Dienst versieht, stellt noch keine substanzielle Verbesserung der Skills des jeweiligen digitalen Assistenten sicher.

Das könnte dich auch interessieren: 

Zur Startseite
Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 65 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Stephan Dörner (Chefredakteur t3n.de) & das gesamte t3n-Team

Anleitung zur Deaktivierung