Anzeige
Anzeige
News

Rabbit R1: Umstrittenes KI-Gadget mit neuem Fail – Was bisher schief ging

Die lange Fail-Liste des zuletzt mit heftigen Vorwürfen konfrontierten KI-Projekts Rabbit mit seinem Gadget R1 ist um einen Punkt reicher. Ein Datenleck erlaubte Zugang zu jeder bisher von dem Gerät gegebenen Antwort. Was sonst noch geschah.

3 Min.
Artikel merken
Anzeige
Anzeige

KI-Gadget Rabbit R1 – schicke Hülle, nichts dahinter? (Bild: Rabbit)

Es war der heimliche Star der Tech-Messe CES 2024: das Rabbit R1. Mit dem in auffälligem Orange gehaltenen KI-Gadget sollte laut der Ankündigung von Rabbit-CEO Jesse Lyu nichts weniger als „eine neue Ära der Mensch-Maschine-Interaktion“ eingeläutet werden.

Anzeige
Anzeige

Hype um R1 spült Millionen in die Rabbit-Kasse

Mit diesen Versprechen im Gepäck verbuchte das Rabbit R1 in kurzer Zeit rund 100.000 Vorbestellungen, was dem dahinterstehenden Unternehmen 20 Millionen US-Dollar in die Kasse spülte. Dazu kamen mindestens zwei Finanzierungsrunden, die weitere 30 Millionen Dollar einbrachten.

Spätestens die ersten Tests offenbarten dann allerdings, dass das Hype-Projekt – möglicherweise absichtlich – zu viel versprochen hatte. Es stellte sich heraus, dass das Gadget schlicht nicht zu gebrauchen war, zumindest nicht als KI-Assistent in Geräteform, der auf Zuruf Aufgaben übernimmt.

Anzeige
Anzeige

Bisherige Nachforschungen haben etwa ergeben, dass das System des Rabbit R1 im Grunde nur eine Android-App beziehungsweise ein proprietärer Launcher ist. Das Ganze läuft laut dem Android-Experten Mishaal Rahman auf einem Mittelklasse-Android-Smartphone.

Ist das KI-Modell Lam nur ein ChatGPT „Plus“?

Ebenfalls mindestens komisch ist, dass das von Rabbit angeblich verwendete KI-Modell Lam wohl lediglich eine leicht aufgefettete Version von ChatGPT sein dürfte. Im Code findet sich laut dem Youtuber Coffeezilla die Anweisung an die Rabbit-R1-KI, niemals zuzugeben, dass der KI-Assistent „eine von OpenAI entwickelte KI“ sei.

Anzeige
Anzeige

Der neueste Fail dreht sich um die von dem Gadget gesammelten Daten. Das rabbitu.de-Team hat eigenen Angaben zufolge Mitte Mai 2024 Zugriff auf den Rabbit-Code erhalten und dort mehrere kritische API-Schlüssel gefunden, die es versierten Nutzer:innen erlauben, alle Antworten, die R1 jemals gegeben hat – und zwar über alle Geräte – einzusehen. Einschließlich sensibler persönlicher Daten.

Die betroffenen API-Schlüssel gehörten demnach zu den Diensten Elevenlabs und Azure sowie Yelp und Google Maps. Die wahrscheinlich größtmögliche Auswirkung des Datenlecks war laut rabbitu.de, dass man damit das RabbitOS-Backend hätte crashen und alle R1-Gadgets nutzlos machen können.

Anzeige
Anzeige

Datenleck: Rabbit soll nicht reagiert haben

Rabbitu.de zufolge habe das Rabbit-Team trotz des Wissens um das Datenleck nicht reagiert und den allgemeinen Zugang zu den API-Keys nicht eingeschränkt. Das geschah erst, nachdem die Softwareexpert:innen damit an die Öffentlichkeit gegangen waren.

Noch schwerer wiegen die Vorwürfe verschiedener Journalist:innen, die unter anderem zu vergangenen Projekten von Rabbit-CEO Lyu recherchiert haben. So hatte er 2021 im NFT-Geschäft mitgemischt und einen CO2-neutralen Coin versprochen. Für dieses Gama genannte Projekt hatte Lyu sechs Millionen Dollar eingesammelt.

Vorwürfe rund um Kryptoprojekt Gama

Anders als von Lyu dargestellt, soll ein Großteil der versprochenen Leistungen nie verwirklicht worden sein. Auch mit weiteren Firmen soll Lyu mit großen Versprechungen mehrere Millionen Dollar eingeworben haben. Lyu bestreitet die Vorwürfe – verwickelt sich allerdings öfter in Widersprüche.

Anzeige
Anzeige

Die hinter dem Rabbit R1 stehende Lyu-Firma Rabbit Inc. hieß noch kurz vor der Ankündigung des KI-Gadgets Cyber Manufacturing Co. – und arbeitete an dem Kryptoprojekt Gama. Laut Lyu sollen beide Projekte aber in keinem Zusammenhang stehen.

Die Basis des Ganzen, das KI-Modell Lam, scheint über die Nutzung von ChatGPT hinaus lediglich ein Programm zu sein, das auf Playwright basiert – einem Framework zum Testen von Web-Apps. Nutzer:innen-Befehle wie „Spiele ein Lied von Spotify“ würden per eigens geschriebener Skripts ausgeführt.

Wieso Lam wohl kein KI-Modell ist

Das Problem: Ändert sich das Design von Spotify oder anderen anzusteuernden Websites, versagen die Skripts. Außerdem hat das natürlich wenig mit dem angepriesenen KI-Modell zu tun.

Anzeige
Anzeige
Googles neue KI-Suche geht nach hinten los Quelle: (Bild: Koshiro K/Shutterstock)

Daher werfen die Journalist:innen wie Emily Shepherd, Andy Parackal und Ed Zitron Rabbit in diesem speziellen Punkt auch Betrug vor. Mal sehen, ob weitere Vorwürfe auftauchen und ob oder inwieweit Rabbit Inc. und CEO Jesse Lyu das Ganze entkräften können.

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare (1)

Community-Richtlinien

Malte Kern

Ich habe das Teil. Für 200$ ein ganz hervorragendes und sehr schickes Gadget zum rumspielen. Wenn man damit auch noch irgendwann telefonieren könnte (weil Android-System), würde ich es sicher ständig nutzen…

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige