Neue AR-Brille Spectacles von Snap: „Nicht der dümmste Computer, den ich mir je ins Gesicht gesetzt habe“
Bevor ich auf die neue Spectacles von Snap zu sprechen komme, müsst ihr etwas über mich wissen: Ich habe eine lange Geschichte, was das Aufsetzen von albernen neuen Dingen angeht, von denen ich jedes Mal begeistert war. Hier ein kleiner Einblick: 2011 probierte ich die 3D-Brille von Sony aus und fand sie anscheinend gut. Irgendwie. Anfang 2013 war ich von einem Kickstarter-Projekt namens Oculus Rift begeistert, das ich auf der CES sah. Dann habe ich den größten Teil des Jahres mit Googles lächerlicher Glass-Brille auf der Nase verbracht und dachte, das sei die Zukunft. Microsoft HoloLens? Toll. Google Cardboard? Völlig normal. Apple Vision Pro? Ein Durchbruch, Baby.
Das vorweggeschickt, komme ich jetzt auf die neue Version der Spectacles von Snap zu sprechen. Es handelt sich dabei um eine AR-Brille, die endlich das einlösen könnte, was Geräte wie Magic Leap, HoloLens oder sogar Google Glass vor vielen Jahren versprochen haben. Ich konnte sie vor ein paar Wochen ausprobieren. Sie ist ziemlich toll! (Aber auch gilt der Verweis auf den Anfang dieses Textes.)
Spectacles: Mittendrin statt nur dabei
Die Spectacles der fünften Generation können visuelle Informationen und Anwendungen direkt auf ihren durchsichtigen Gläsern anzeigen, sodass Objekte wie in der realen Welt erscheinen. Die Schnittstelle wird durch das neue Betriebssystem des Unternehmens, Snap OS, unterstützt. Im Gegensatz zu typischen VR-Headsets oder Spatial-Computing-Geräten verdecken diese Augmented-Reality (AR)-Gläser nicht die Sicht und bilden sie mit Kameras nach. Es gibt keinen Bildschirm, der das reale Sichtfeld verdeckt. Stattdessen scheinen die Bilder zu schweben und dreidimensional in der Welt um mich herum zu existieren, in der Luft zu schweben oder auf Tischen und Böden zu ruhen.
Bobby Murphy, CTO von Snap, beschrieb das angestrebte Ergebnis gegenüber MIT Technology Review als „über die Welt gelegtes Computing, das unsere Erfahrung mit den Menschen an den Orten, die uns umgeben, verbessert, anstatt uns zu isolieren oder uns aus dieser Erfahrung herauszunehmen“.
In der Augmented Reality zwischen Lego, Golf und KI-Chatbot
In meiner Demo konnte ich virtuelle Legosteine auf einem Tisch stapeln, einen AR-Golfball in ein Loch auf der anderen Seite des Raums schlagen (mindestens ein Triple Bogey), mit meinen Händen Blumen und Ranken an die Decke und die Wände malen und Fragen zu den Objekten stellen, die ich betrachtete, und Antworten vom virtuellen KI-Chatbot von Snap erhalten. Es gab sogar ein kleines lilafarbenes virtuelles hundeähnliches Wesen von Niantic, ein Peridot, das mir durch den Raum und nach draußen auf einen Balkon folgte.
Wendet man aber den Blick ab von den virtuellen Projektionen, sieht man den ganz normalen, realen Raum. Der Golfball liegt auf dem Boden, nicht auf einem virtuellen Golfplatz. Der Peridot hockt auf einem echten Balkongeländer. Das bedeutet vor allem, dass man mit den Menschen im Raum in Kontakt bleiben kann, auch mit Blickkontakt.
Alles im (Brillen-)Rahmen
Um all dies zu erreichen, hat Snap eine Menge Technik in den Rahmen gepackt. Im Inneren sind zwei Prozessoren eingebaut, sodass die gesamte Rechenleistung in der Brille selbst stattfindet. Die Kühlkammern an den Seiten haben während meines Tests die Wärme effektiv abgeleitet. Vier Kameras erfassen die Welt des/der Träger:in sowie die Bewegungen der Hände für die Gestenerkennung. Die Bilder werden über Mikroprojektoren angezeigt, ähnlich denen in Pico-Projektoren, die diese dreidimensionalen Bilder direkt vor den Augen darstellen, ohne viel einrichten zu müssen. So entsteht ein großes, tiefes Sichtfeld – Snap behauptet, es sei vergleichbar mit einem 100-Zoll-Display in 10 Fuß Entfernung – in einem relativ kleinen, leichten Gerät (226 Gramm). Außerdem verdunkeln sie sich automatisch, wenn Sie nach draußen gehen, sodass sie nicht nur zu Hause, sondern auch in der freien Natur gut funktionieren.
Steuern lässt sich die Brille mit einer Kombination aus Sprach- und Handgesten, von denen mir die meisten ziemlich leicht fallen. Man kann zum Beispiel durch Auf- und Zuziehen Objekte auswählen und sie verschieben. Der KI-Chatbot kann auf Fragen in natürlicher Sprache antworten („Was ist das für ein Schiff, das ich in der Ferne sehe?“). Für einige der Interaktionen ist ein Telefon erforderlich, aber im Großen und Ganzen ist die Spectacles ein eigenständiges Gerät.
Für monatlich 99 US-Dollar den Zugang zur Spectacles sichern
Es ist nicht billig. Snap verkauft die Brille nicht direkt an Verbraucher, sondern setzt auf eine Art Abo-Modell, Laufzeit: mindestens ein Jahr, 99 US-Dollar für ein Spectacles-Entwicklerprogramm, das den Zugang zu der Brille sichert.
Mir wurde versichert, dass das Unternehmen eine sehr offene Definition dafür hat, wer für die Plattform entwickeln darf. Snap kündigte auch eine neue Partnerschaft mit OpenAI an, die die Vorteile seiner multimodalen Fähigkeiten nutzt, die Entwicklern dabei helfen sollen, Erlebnisse mit echtem Kontext über die Dinge zu schaffen, die Menschen sehen oder hören (oder sagen).
Dennoch funktionierte das Ganze beeindruckend gut. Die dreidimensionalen Objekte blieben an den Stellen, an denen man sie platziert hat, selbst wenn man sich bewegte. Der KI-Assistent hat alles, worum ich ihn gebeten habe, richtig erkannt. Hier und da gab es ein paar Pannen – zum Beispiel fielen die Lego-Steine ineinander –, aber im Großen und Ganzen ist dies ein solides kleines, jedoch nicht unbedingt unauffälliges Gerät.
Verwechselungsgefahr mit einer normalen oder einer Sonnenbrille besteht definitiv nicht. Ein Kollege beschrieb sie als gepimpte 3D-Brille, was für mich stimmig ist. Die Spectacles-Brille ist nicht der dümmste Computer, den ich mir je ins Gesicht gesetzt habe, aber ich fühlte mich damit auch nicht gerade wie ein cooler Typ.