
Dieses Bild hat Stable Diffusion generiert. (Bild: Stable Diffusion / t3n)
Ob aus Langeweile, Neugierde oder mit ernstem Hintergedanken – Bild-KI werden immer häufiger verwendet. Sie liefern unterhaltsame und fürchterliche Ergebnisse und manchmal ist das, was sie da ausspucken, sogar gut genug, um Foto-Wettbewerbe zu gewinnen und besser auszusehen als die reale Welt.
Viele dieser KI sind dabei nicht einem exklusiven Nutzerkreis vorbehalten, sondern können von jedem, der Interesse hat, genutzt werden. Wir zeigen euch die KI, die ihr ganz einfach im Netz ausprobieren könnt, ohne irgendwelche Kosten zu haben.
Dall-E
Dall-E ist ein von OpenAI entwickeltes Programm, das Textaufforderungen in Bilder übersetzt. Es basiert auf einem neuronalen Netzwerk, das künstliche Intelligenz verwendet, um Bilder auf der Grundlage von ihm gegebenen Aufforderungen zu erstellen. Um Dall-E nutzen zu können, müssen Interessierte ein Konto mit ihrer Mobilfunknummer erstellen. Sie können dann Textaufforderungen eingeben und aus den generierten Bildern auswählen, die mit einem Wasserzeichen heruntergeladen werden können.
Dall-E ist bis zu einer bestimmten Anzahl von Textaufforderungen kostenlos. Benutzer können maximal zwölf Bilder pro Stunde erstellen, und jedes Mal, wenn sie auf „Generieren“ oder „Variationen“ klicken, wird einer der Credits verbraucht. Dall-E-Konten sind mit Handynummern verknüpft, um zu verhindern, dass Benutzer das Creditsystem umgehen. OpenAI ermöglicht es Künstlern sogar, finanzielle Unterstützung zu beantragen, um die Nutzung des Tools in der Kreativbranche zu fördern.
Shutterstock Creative Flow
Die Stock-Foto-Plattform Shutterstock bietet ein Feature namens Creative Flow an, das es den Kunden ermöglicht, auf Wunsch Stockfotos von einer KI generieren zu lassen. Hierfür arbeitet das Unternehmen mit OpenAI zusammen und nutzt deren Bildgenerator Dall-E 2. Die generierten Bilder werden direkt mit einer Lizenz versehen und die Künstler, die Bilder erstellen, mit denen die KI trainiert wird, erhalten dafür sogar Geld.
Stable Diffusion
Stable Diffusion ist ein Deep-Learning-Text-zu-Bild-Generator, der hauptsächlich zur Generierung detaillierter Bilder auf der Grundlage von Textbeschreibungen verwendet wird, aber auch für andere Aufgaben wie Inpainting, Outpainting und Bild-zu-Bild-Übersetzungen eingesetzt werden kann. Stable Diffusion verwendet ein latentes Diffusionsmodell, eine Variante eines tiefen generativen neuronalen Netzes, das von der Compvis-Gruppe an der LMU München entwickelt wurde. Im Gegensatz zu anderen ähnlichen Modellen stellt Stable Diffusion seinen Quellcode zusammen mit den Trainingsdaten öffentlich zur Verfügung.
Runway
Runway ML war eines der beiden Startups, das Stable Diffusion entwickelt hat, und sein kostenloser Text-to-Image-Service hat die gleiche Qualität wie die früheren Open-Source-Versionen der Software. Bei der kostenlosen Version erhalten Nutzer 25 Bilder zum Ausprobieren, bevor sie auf die kostenpflichtige Version hingewiesen werden.
Runway hat mit Gen-2 allerdings auch eine Text-zu-Video-KI auf den Markt gebracht, die Videos allein anhand von Textvorgaben erstellen kann.
Wombo Dream
Die App von Wombo Dream basiert, wie viele andere Apps, die generative Kunst schaffen, im Grunde auf zwei künstlichen neuronalen Netzen, die zusammenarbeiten, um die Bilder zu erstellen. Mit dem Wombo-Dream-System können Nutzer Kunst in mehreren verschiedenen Stilen erstellen. Es erlaubt Nutzern auch, ein Referenzbild einzufügen, das Combo Dream dann verwenden kann, um sich daran zu orientieren. Die entstandenen Bilder können anschließend auch in NFT umgewandelt werden.
Genau – wir brauchen unbedingt mehr kostenlose Bilder im Web und vor allem Bilder von Systemen, die den Stil von Künstlern per klick in wenigen Sekunden nachmachen können…. Tod den Kreativen auf der Welt!
Wenn man sich nie mit der Gestaltungslehre in seinem kurzen Leben je beschäftigt hat – kommt man vermutlich auf die Idee, diese Links hier zu teilen. Wie merk befreit muss man die Ergebnisse betrachten – für diesen Artikel?