Vorheriger Artikel Nächster Artikel

Perceptual Computing: Sensoren sind die Zukunft des PC [Video]

Auch wenn Webcam und Mikrofon im PC schon seit vielen Jahren absoluter Standard sind, so lassen sich diese Geräte heutzutage auf ganz neue Weise nutzen. Dank und immer schnellerer Hardware sind vollkommen neue Anwendungen denkbar. Das Stichwort dazu lautet „Perceptual Computing“, also „wahrnehmendes Computing“. Im Klartext: Der Computer versteht den Kontext unserer Eingaben.

Perceptual Computing: Sensoren sind die Zukunft des PC [Video]

Eine Frage von Rechenleistung und Internetanschluss

Computer haben schon lange Augen und Ohren, in Form von Webcams und Mikrofonen. Aber die Anwendungen der Software-Welt beschränkte sich in der Vergangenheit darauf, die aufgenommenen Eindrücke in Form von Bildern, Videos oder Sounds wiederzugeben oder neu zu arrangieren, was aus Hardware-Sicht relativ simple Aufgaben sind. Erst durch Aufkommen schnellerer Internetanschlüsse, das damit verbundene Cloud-Computing und immer schnellere Desktop-Rechner können wir heutzutage audiovisuelle Inhalte auch wirklich analysieren und nahezu in Echtzeit manipulieren. Das Ergebnis dieser Entwicklungen wird oftmals als „Perceptual Computing“ bezeichnet, denn dazu muss der Computer Bild- oder Audioinhalte verstehen können, und nur bestimmte Teile davon modifizieren oder löschen.

Perceptual Computing im Einsatz am Beispiel der Spracherkennung Nuance „Dragon Assistant“
Perceptual Computing im Einsatz am Beispiel der Spracherkennung Nuance „Dragon Assistant“.

Perceptual Computing als Sammelbegriff für viele Techniken

Diesen Begriff möchte momentan vor allem Intel prägen und weiterentwickeln, ähnlich wie man es bereits mit dem „Ultrabook“ getan hat. Eigentlich gehören dazu aber viel mehr Firmen und Bereiche, die bisher jedoch nicht unter diesem Schlagwort werben. So lassen sich auch die meisten Anwendungen die wir heute als „Augmented Reality“ einstufen würden, dem „Perceptual Computing“ zuordnen.

Intel ist eine der treibenden Kräfte bei diesem Trend, und das obwohl Intel direkt keinerlei Hardware-Produkte anbietet, die explizit mit Perceptual Computing zu tun haben. Sicherlich braucht es für solche Anwendungen leistungsstarke Prozessoren, aber die können auch von einem anderen Hersteller kommen. Es wäre jedoch möglich, dass Intel spezielle Funktionen für diese Art von Anwendungen zukünftig ins eine Chipsätze und Prozessoren auf Hardware-Ebene einbaut. Sehr wohl bietet Intel allerdings seit einigen Wochen sein Software Development Kit für Perceptual Computing an. Das beinhaltet derzeit Werkzeuge für Sprach- und Gestensteuerung zur Verwendung mit einer Entwickler-Webcam von Creative, die Ende des Jahres auch für Normalverbraucher erscheinen soll.

Anwendungsbeispiele: Gesten- und Sprachsteuerung des PC

Was aber versteht man konkret unter Perceptional Computing? Um das er zu erklären, hat Intel eine ganze Reihe von Demonstrationen aggregiert und zeigt diese bei vielen Gelegenheiten. Zum Einsatz kommt dabei immer eine 3D-Nahfeld-Kamera mit integriertem Mikrofon von Creative, ähnlich dem Microsoft Kinect-System (allerdings für den Einsatz mit Laptops optimiert in Bezug auf den Abstand vom Objekt zur Linse). Damit demonstriert der Chip-Riese verschiedene Anwendungsbeispiele, vom produktiven Einsatz mit der Nuance-Spracherkennung „Dragon Assistant“ bis hin zu Spiel-Beispielen – zum Beispiel einer Portal-2-Modifikation oder dem virtuellen Haustier MoogiMoko. In allen Fällen werden Audio- oder Videoeingaben in kürzester Zeit analysiert, modifiziert und weiterverarbeitet. Und wer denkt, dass die Technik nur zum Spielen und für die Freizeit geeignet ist, der sollte sich die Möglichkeit zum Face-Login genauer ansehen. Im Gegensatz zu einer 2D-Variante kann man nicht einfach ein Bild der jeweiligen Person vor die Webcam halten, denn es wird auch die räumliche Gestalt analysiert. Erst wenn der echte Nutzer seinen Kopf in die Kamera hält wird das System entsperrt.

Mehr solcher Anwendungen erhofft sich Intel durch aus Ausloben diverser Wettbewerbe und das Veröffentlichen des SDK, und man darf gespannt sein, welche Produkte in Zukunft mit Perceptual-Computing-Elementen auf dem Markt erscheinen, und wann sich die Technik tatsächlich flächendeckend durchsetzen wird.

MoogiMoko: Das Virtuelle Haustier erinnert an ein Tamagotchi und kann unter anderem Stein-Schere-Papier mit dem Nutzer spielen.
MoogiMoko: Das Virtuelle Haustier erinnert an ein Tamagotchi und kann unter anderem Stein-Schere-Papier mit dem Nutzer spielen.

Weiterführende Links

Vorheriger Artikel Zurück zur Startseite Nächster Artikel
Keine Antwort
Deine Meinung

Bitte melde dich an!

Du musst angemeldet sein, um einen Kommentar schreiben zu können.

Jetzt anmelden

Mehr zum Thema Cloud-Computing
5 Cloud-Storage-Giganten im Vergleich: Das sind die Ergebnisse des Hasso-Plattner-Instituts
5 Cloud-Storage-Giganten im Vergleich: Das sind die Ergebnisse des Hasso-Plattner-Instituts

Das Hasso-Plattner-Institut hat einen Vergleich der fünf größten Cloud-Speicherdienste vorgelegt. Eine eindeutige Empfehlung sprechen die Wissenschaftler allerdings nicht aus. » weiterlesen

Amazon Zocalo: Einfacher Cloud-Speicherdienst für Unternehmen
Amazon Zocalo: Einfacher Cloud-Speicherdienst für Unternehmen

Amazon hat mit „Zocalo“ einen neuen Cloud-Speicherdienst vorgestellt. Zocalo funktioniert ähnlich einfach wie Dropbox oder Box, richtet sich an Unternehmen und wird ähnlich wie … » weiterlesen

Fog-Computing: Vergesst die Cloud, der Nebel ist da [Kommentar]
Fog-Computing: Vergesst die Cloud, der Nebel ist da [Kommentar]

Viele Geräte sind fast permanent mit der Cloud verbunden und immer mehr wird in die Cloud verlagert. Doch bei allem im Zusammenhang mit der Cloud gibt es ein Problem – die Bandbreite. » weiterlesen

Kennst Du schon unser t3n Magazin?

t3n-Newsletter t3n-Newsletter
Top-Themen der Woche für Web-Pioniere
Jetzt kostenlos
anmelden
Diesen Hinweis verbergen