Vorheriger Artikel Nächster Artikel

Perceptual Computing: Sensoren sind die Zukunft des PC [Video]

Auch wenn Webcam und Mikrofon im PC schon seit vielen Jahren absoluter Standard sind, so lassen sich diese Geräte heutzutage auf ganz neue Weise nutzen. Dank und immer schnellerer Hardware sind vollkommen neue Anwendungen denkbar. Das Stichwort dazu lautet „Perceptual Computing“, also „wahrnehmendes Computing“. Im Klartext: Der Computer versteht den Kontext unserer Eingaben.

Perceptual Computing: Sensoren sind die Zukunft des PC [Video]

Eine Frage von Rechenleistung und Internetanschluss

Computer haben schon lange Augen und Ohren, in Form von Webcams und Mikrofonen. Aber die Anwendungen der Software-Welt beschränkte sich in der Vergangenheit darauf, die aufgenommenen Eindrücke in Form von Bildern, Videos oder Sounds wiederzugeben oder neu zu arrangieren, was aus Hardware-Sicht relativ simple Aufgaben sind. Erst durch Aufkommen schnellerer Internetanschlüsse, das damit verbundene Cloud-Computing und immer schnellere Desktop-Rechner können wir heutzutage audiovisuelle Inhalte auch wirklich analysieren und nahezu in Echtzeit manipulieren. Das Ergebnis dieser Entwicklungen wird oftmals als „Perceptual Computing“ bezeichnet, denn dazu muss der Computer Bild- oder Audioinhalte verstehen können, und nur bestimmte Teile davon modifizieren oder löschen.

Perceptual Computing im Einsatz am Beispiel der Spracherkennung Nuance „Dragon Assistant“
Perceptual Computing im Einsatz am Beispiel der Spracherkennung Nuance „Dragon Assistant“.

Perceptual Computing als Sammelbegriff für viele Techniken

Diesen Begriff möchte momentan vor allem Intel prägen und weiterentwickeln, ähnlich wie man es bereits mit dem „Ultrabook“ getan hat. Eigentlich gehören dazu aber viel mehr Firmen und Bereiche, die bisher jedoch nicht unter diesem Schlagwort werben. So lassen sich auch die meisten Anwendungen die wir heute als „Augmented Reality“ einstufen würden, dem „Perceptual Computing“ zuordnen.

Intel ist eine der treibenden Kräfte bei diesem Trend, und das obwohl Intel direkt keinerlei Hardware-Produkte anbietet, die explizit mit Perceptual Computing zu tun haben. Sicherlich braucht es für solche Anwendungen leistungsstarke Prozessoren, aber die können auch von einem anderen Hersteller kommen. Es wäre jedoch möglich, dass Intel spezielle Funktionen für diese Art von Anwendungen zukünftig ins eine Chipsätze und Prozessoren auf Hardware-Ebene einbaut. Sehr wohl bietet Intel allerdings seit einigen Wochen sein Software Development Kit für Perceptual Computing an. Das beinhaltet derzeit Werkzeuge für Sprach- und Gestensteuerung zur Verwendung mit einer Entwickler-Webcam von Creative, die Ende des Jahres auch für Normalverbraucher erscheinen soll.

Anwendungsbeispiele: Gesten- und Sprachsteuerung des PC

Was aber versteht man konkret unter Perceptional Computing? Um das er zu erklären, hat Intel eine ganze Reihe von Demonstrationen aggregiert und zeigt diese bei vielen Gelegenheiten. Zum Einsatz kommt dabei immer eine 3D-Nahfeld-Kamera mit integriertem Mikrofon von Creative, ähnlich dem Microsoft Kinect-System (allerdings für den Einsatz mit Laptops optimiert in Bezug auf den Abstand vom Objekt zur Linse). Damit demonstriert der Chip-Riese verschiedene Anwendungsbeispiele, vom produktiven Einsatz mit der Nuance-Spracherkennung „Dragon Assistant“ bis hin zu Spiel-Beispielen – zum Beispiel einer Portal-2-Modifikation oder dem virtuellen Haustier MoogiMoko. In allen Fällen werden Audio- oder Videoeingaben in kürzester Zeit analysiert, modifiziert und weiterverarbeitet. Und wer denkt, dass die Technik nur zum Spielen und für die Freizeit geeignet ist, der sollte sich die Möglichkeit zum Face-Login genauer ansehen. Im Gegensatz zu einer 2D-Variante kann man nicht einfach ein Bild der jeweiligen Person vor die Webcam halten, denn es wird auch die räumliche Gestalt analysiert. Erst wenn der echte Nutzer seinen Kopf in die Kamera hält wird das System entsperrt.

Mehr solcher Anwendungen erhofft sich Intel durch aus Ausloben diverser Wettbewerbe und das Veröffentlichen des SDK, und man darf gespannt sein, welche Produkte in Zukunft mit Perceptual-Computing-Elementen auf dem Markt erscheinen, und wann sich die Technik tatsächlich flächendeckend durchsetzen wird.

MoogiMoko: Das Virtuelle Haustier erinnert an ein Tamagotchi und kann unter anderem Stein-Schere-Papier mit dem Nutzer spielen.
MoogiMoko: Das Virtuelle Haustier erinnert an ein Tamagotchi und kann unter anderem Stein-Schere-Papier mit dem Nutzer spielen.

Weiterführende Links

NEU: Lass dir diesen Artikel vorlesen
Ein Service von t3n, in Kooperation mit Narando.
Vorheriger Artikel Zurück zur Startseite Nächster Artikel
Keine Antwort
Deine Meinung

Bitte melde dich an!

Du musst angemeldet sein, um einen Kommentar schreiben zu können.

Jetzt anmelden

Mehr zum Thema Cloud-Computing
ERP-Software in der Cloud: Deutscher Mittelstand hängt hinterher [Infografik]
ERP-Software in der Cloud: Deutscher Mittelstand hängt hinterher [Infografik]

Mit ERP-Software in der Cloud können mittelständische Unternehmen bis zu 25 Prozent der Kosten sparen. Entsprechend überraschend sind die Ergebnisse einer Studie, wonach in Deutschland nur zwölf … » weiterlesen

Photoshop im Browser: Adobe bringt die Creative Cloud ins Web
Photoshop im Browser: Adobe bringt die Creative Cloud ins Web

Adobe will die Creative Cloud ins Web bringen. Erste Beta-Tester können schon jetzt Photoshop im Chrome-Browser und auf dem Chromebook testen. » weiterlesen

Cloud Platform: Google macht Startups ein Angebot im Wert von 100.000 Dollar
Cloud Platform: Google macht Startups ein Angebot im Wert von 100.000 Dollar

Google will jetzt auch Startups von seiner „Cloud Platform“ überzeugen und bietet ihnen kostenlose Leistungen im Wert von 100.000 US-Dollar. Dazu kooperiert das Unternehmen mit verschiedenen … » weiterlesen

Kennst Du schon unser t3n Magazin?

t3n-Newsletter t3n-Newsletter
Top-Themen der Woche für Web-Pioniere
Jetzt kostenlos
anmelden
Diesen Hinweis verbergen