Paragraphica: Diese KI-Cam erstellt einzigartige Bilder mit Standortdaten und Beschreibungen

Die KI-Kamera trägt den Namen Paragraphica und wurde vom Dänen Bjorn Karmann entwickelt. Sie verwendet die Bild-KI Stable Diffusion, die fotorealistische Bilder aus beliebigen Texteingaben erzeugen kann.
In Kombination mit den Standortdaten werden so spezielle Bilder erzeugt. Diese fangen „einige Stimmungen und Emotionen ein, die an den Ort erinnern, aber auf eine unheimliche Art und Weise, denn die Fotos sehen nie genau so aus wie dort, wo ich mich befinde“, erklärt Entwickler Karmann auf seiner Homepage.
Der Sucher der Kamera zeigt in Echtzeit eine Beschreibung des aktuellen Standorts an und durch Drücken des Auslösers erstellt die Kamera eine Darstellung der Beschreibung. Dafür muss man sie mit Daten füttern: die Adresse, das aktuelle Wetter, die Uhrzeit sowie nahegelegene Objekte. Das können Sehenswürdigkeiten, aber auch parkende Autos oder Geschäfte sein.
Dann verknüpft Paragraphica die Standortdaten über das Internet mit offenen API – und entwickelt so ihren „Blick“ auf den Ort zur angegebenen Zeit.
Die Kamera gibt es sowohl als Prototyp als auch als virtuelle Kamera. Beim Prototyp, den Karmann mithilfe 3D-gedruckter Bauteile hergestellt hat, fallen sofort rote Fühler an der Vorderseite ins Auge. In ihrer Anordnung erinnern sie an das sogenannte Eimersche Organ, das an der Schnauze des Maulwurfs sitzt und sein Sensorsystem ist. Mit diesem tastet das Tier seine Umgebung ab und braucht dabei kein Licht, um sie wahrzunehmen – wie die Paragraphica.
Der Prototyp verfügt über drei Regler. Der erste bestimmt den Radius, in dem Paragraphica nach Orten und Daten sucht, über den zweiten kann der Diffusionsprozess festgelegt werden, und der dritte entspricht dem Fokusregler einer „normalen“ Kamera.
Die Kamera biete eine „Möglichkeit, die Welt um uns herum zu erleben, die sich nicht nur auf die visuelle Wahrnehmung beschränkt“, erklärt Karmann. Durch Standortdaten und KI-Bildsynthese gebe Paragraphica „tiefere Einblicke in das Wesen eines Augenblicks aus der Perspektive anderer Intelligenzen“, findet er.
Bitte beachte unsere Community-Richtlinien
Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.
Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.
Dein t3n-Team
Das ist mit hoher Wahrscheinlichkeit Fake!
Woher sollte die Kamera denn die Daten für die Bilderzeugung denn haben? Es gibt aktuell kein Stable Diffusion Model was mit Street View / Geo-Daten von Google oder Bing Maps trainiert wurde. Auch mit der exakten GPS Location weiß das Modell nicht was dort ist.