let's
play
china
Panda ausblenden

Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

Sponsored Post Was ist das?

Google Assistant: Interaktionen mit dem Sprachinterface müssen Sinn ergeben

(Bild: S&S Media)

Anzeige
Google Assistant soll die nächste Evolutionsstufe der Spracherkennung und -steuerung sein. Auch auf der MobileTech Conference (13. bis 16. März, München) spielt Googles Assistent eine wichtige Rolle.

Spätestens seitdem uns Stanley Kubrick 1968 in „2001: Odyssee im Weltraum“ erstmals mit dem menschlich agierenden und ziemlich neurotisch veranlagten Supercomputer HAL 9000 konfrontierte, begleitet uns das Thema maschinelle Spracherkennung und -steuerung. Doch immer wieder scheiterte der Durchbruch solcher Technologien an eklatanten Unzulänglichkeiten. Mittlerweile sind allerdings genügend Sprachdaten, Rechenleistung und Algorithmen verfügbar, um den Einsatz sprachgesteuerter Bots und Personal Assistants praktikabel zu gestalten. Und so buhlen die Alexas und Assistants dieser Welt um die Gunst der Nutzer.

Auf der MobileTech Conference nimmt Dominik Helleberg, Head of Mobile Development bei der inovex GmbH, den Google Assistant genauer unter die Lupe. Die Veranstaltung findet vom 13. bis 16. März in München statt und ist eine der führenden Konferenzen für Mobile-Technologien und Innovation im deutschsprachigen Raum. Wer sich noch bis zum 16. Februar für die Konferenz anmeldet, spart bis zu 280 Euro und erhält eine Smartwatch kostenlos.

Google Assistant: Dominik Helleberg im Interview

Christoph Ebert: Dominik, wie lange wird es noch dauern, bis wir mit Systemen kommunizieren, die das Level eines HAL 9000 oder eines Star-Trek-Bordcomputers erreichen?

Dominik Helleberg: Naja, viele Dinge funktionieren ja schon sehr gut, wie zum Beispiel das Licht ein- oder auszuschalten. Der Anfang ist also gemacht. Der Weg zu komplexeren Anfragen, wie man sie bei Star Trek sieht, ist schon vorgezeichnet. Speziell Google kann mit dem Knowledge Graph schon überraschend viele Fragen beantworten. Aber manchmal scheitern die Systeme noch an ganz einfachen Aufgaben. Die emotionale Komponente des HAL 9000 dürfte aber noch in ziemlich weiter Ferne liegen, und das ist ja vielleicht auch gut so.

Ebert: Das Level, das Sprachsteuerungen wie Alexa oder Google Assistant erreichen, ist teils beeindruckend, teils steckt es noch in den Kinderschuhen. Wo siehst du derzeit noch die größten Defizite?

Man kann diese Systeme ja in mehrere Schichten zerlegen, um zu verstehen, wie sie funktionieren. Das werde ich in meinem Vortrag auf der Mobile Tech Con im Detail aufzeigen. Einfach gesagt können wir das Problem in zwei Bereiche zerlegen: die eigentliche Spracherkennung, also die Umwandlung von Sprache in Text, sowie die maschinelle Interpretation dieses Textes. Dabei hat die Spracherkennung große Fortschritte gemacht, während es bei der Interpretation noch häufig klemmt. Soll heißen: Die Systeme erkennen ziemlich gut, was ich sage, haben aber noch Probleme zu interpretieren, was ich damit meine. Hier sehe ich noch den größten Entwicklungsbedarf. Andere Baustellen sind beispielsweise die Authentifizierung oder die Verknüpfung mit anderen User-Interfaces.

Der Google Assistant läuft nicht nur auf Google Home, sondern kommt auch in Smartwatches, Smartphones und Autos zum Einsatz (Bild: Google).

Ebert: Wie funktioniert das Entwickeln für Google Assistant? Bei Amazon Alexa lassen sich ja so genannte Skills entwickeln, die den Funktionsumfang erweitern. Sind die „Actions on Google“ vergleichbar?

Im Prinzip schon, auch wenn Google seine APIs anders zugeschnitten hat. Google unterscheidet zwischen „Conversational Actions“ und „Direct Actions“. Letztere sind noch im Closed-Beta-Status und auf einfache, direkte Interaktionen ausgerichtet, während „Conversational Actions“ eher auf einen Dialog ausgelegt sind. Im Vergleich zu Alexa kann man sich bei Google allerdings aussuchen, ob man die Interpretation des Textes selbst übernimmt oder dafür Googles Dienst API.AI nutzen möchte.

Google Home ist das Pendant zu Amazons Echo. Darin werkelt der persönliche Assistent Google Assistant (Bild: Google).

Ebert: Was genau macht der Dienst API.AI und welche Rolle spielt Googles eigene Conversational-UX-Plattform?

Der erwähnte Einsatzzweck von API.AI – die Interpretation der Benutzereingaben – ist zunächst einmal kein Zwang. Es gibt aber viele Gründe, die für den Einsatz von API.AI sprechen. Das Tool ist sehr leistungsfähig und übernimmt den komplexeren Teil der Sprachinterpretation auf Basis von Machine-Learning-Technologien. Dabei hilft es dem Entwickler, die wesentlichen Informationen aus Anfragen zu extrahieren (Entity extraction), Fehler in der Interpretation der Anfragen zu erkennen und das Modell zu verbessern. Der Preis, den ich dafür wie so häufig zahle: API.AI läuft als reine SaaS-Lösung komplett in der Cloud.

Ebert: Was sind die spannendsten Möglichkeiten, die sich durch „Actions“ eröffnen?

Spannende Use-Cases gibt es viele: von der Steuerung der Smart-Home-Geräte und einfachen Interaktionen mit Online Diensten, wie das Aufladen einer Pre-Paid-Karte, über komplexe Wissens- und Datenabfragen (Wie lange hat der Supermarkt geöffnet?) bis hin zu komplexeren Dialogen wie zum Beispiel bei einer Restaurantreservierung. Die Frage ist eher, welche Interaktionen sich auch sinnvoll über ein Sprachinterface abbilden lassen. Denn man stellt schnell fest, dass viele klassische Paradigmen, wie zum Beispiel das Scrollen durch Ergebnislisten, hier einfach nicht funktionieren. Daher wird sich noch zeigen, welche Use-Cases sich bequemer über Sprache durchführen lassen und welche nicht.

MobileTech Conference: Mehr über den Google Assistant und Mobile-Technologien erfahren

Tipp: Jeder Teilnehmer der MobileTech Conference hat freien Zugang zur parallel stattfindenden Internet of Things Conference – außerdem gibt es bei Anmeldung bis 16. Februar nicht nur besondere Frühbucherpreise, sondern auch noch eine Smartwatch als Geschenk dazu.

Jetzt alle Speaker der MobileTech Conference kennenlernen!

 

Schreib den ersten Kommentar!

Du musst angemeldet sein, um einen Kommentar schreiben zu können.

Jetzt anmelden