Niantic entwickelt riesiges geospatiales KI-Modell mit Daten von Pokémon-Go-Spielern

2016 stürmten erstmals Horden von Menschen nach draußen, um mit ihren Smartphones Pokémon zu fangen und zu trainieren. Pokémon Go war vor acht Jahren das Spiel der Stunde, das erstmals im großen Stil das Konzept von Augmented Reality (AR) etablierte. Auch heute erfreut es sich noch gewisser Beliebtheit, auch wenn der Hype abgeflaut ist.
Was die wenigsten Spieler:innen von Pokémon Go ahnten: Sie halfen dem Entwicklerstudio Niantic, mit den Schnappschüssen ihrer Pokémon ein Large Geospatial Model zu bauen. In einem Blogpost hat Niantic dieses Konzept kürzlich vorgestellt. „Räumliche Intelligenz ist die nächste Entwicklungsstufe der KI-Modelle“, heißt es in dem Text.
So funktioniert ein Large Geospatial Model
Was Large Language Models (LLM) wie ChatGPT für Text und Sprache sind, sollen Large Geospatial Models (LGM) für dreidimensionale Modelle werden. Das bedeutet: Wie LLM mit gigantischen Mengen von Texten gefüttert werden müssen, um Texte produzieren zu können, müssen LGM mit Millionen von Bildern trainiert werden, um dreidimensionale Ansichten entwerfen zu können.
Large Geospatial Model gehen dabei über reine 3D-Modelle hinaus, die nicht maßstabsgetreu sind. LGM erfassen hingegen „3D-Entitäten“, „die an bestimmten geografischen Orten verankert sind und eine metrische Qualität aufweisen“, wie Niantic schreibt.
Ein geospatiales KI-Modell verstehe, wie ein aufgenommenes Bild mit „Millionen anderer Szenen auf der ganzen Welt in Beziehung steht“. Ein Geomodell besitze „eine Form von räumlicher Intelligenz, bei der das Modell aus seinen früheren Beobachtungen lernt und in der Lage ist, das Wissen auf neue Orte zu übertragen, selbst wenn diese nur teilweise beobachtet werden“.
Denn: Während Menschen sich in etwa vorstellen können, wie ein Gebäude, das sie von vorne betrachten, von hinten aussieht, tun sich Computer schwer damit. Dieses Problem sollen LGM lösen, für spätere Anwendungen in Computerspielen oder in Maps.
Woher nimmt Niantic die Trainingsdaten des LGM?
Wo nimmt Niantic diese „Millionen anderer Szenen auf der ganzen Welt“ her? Richtig, aus hauseigenen AR-Spielen wie Pokémon Go oder Ingress. Dazu kommen Bilder aus der App Scaniverse, mit der User:innen Objekte in 3D scannen und teilen können.
Seit fünf Jahren arbeitet das Unternehmen an einem sogenannten Visual Positioning System (VPS). Damit können Bilder anhand einer 3D-Karte in ihrer Umwelt erkannt werden. VPS ist bereits in manche Niantic-Spiele implementiert. Wer darin ein Bild scannt, erhält etwa eine In-Game-Belohnung.
Mit Pokémon Playgrounds und Co. zu „Erfahrungen im planetarischen Maßstab“?
Bei Pokémon Go ist VPS in Form einer Funktion namens Pokémon Playgrounds eingebaut, die gerade getestet wird. Dabei können die Spieler:innen ein Pokémon an Locations in der realen Welt hinterlassen. Dort können sie von anderen User:innen gefunden und abfotografiert werden.
Niantic macht übrigens keinen Hehl aus seinen Plänen, die ganze Welt zu kartieren. Das Unternehmen spricht von „Erfahrungen im planetarischen Maßstab“.
Diese Ambitionen lösen Ängste und Kritik aus. „Pokemon Go wird zum Aufbau eines KI-Systems verwendet, das am Ende fast zwangsläufig von automatischen Waffensystemen zum Töten von Menschen eingesetzt wird“, schrieb eine X-Nutzerin zu den LGM-Plänen von Niantic.
Und wie immer wird das nervige P:Go in den Vordergrund gestellt mit lauten, schlecht erzogenen Spielern, die zudem die Datenbasis völlig verfälschen, da sie falsche Orte und fake Positionen in das Spiel bringen.
Zudem haben sie durch ihr Verhalten auch selbst und anderen die Spiele zum Teil kaputt gemacht. Und tun dies weiterhin.
Das die Spiel und Datenbasis, die zu 90% sauber und korrekt war, mit der das Spiel gestartet ist, mittlerweile 12 Jahre alt ist wird immer unter dem Teppich gekehrt. Klickt sich halt nicht so gut, was?