Lokale KI: Google bringt On-Device-Gemini auf Android-Smartphones

Googles KI Gemini soll als lokale Version auf Android-Smartphones kommen. (Bild: gguy/Shutterstock)
Google scheint kurz davor zu stehen, seine On-Device-KI Gemini Nano für Entwickler:innen zu öffnen. Eine neue Schnittstelle namens ML Kit GenAI API ist laut Android Authority bereits dokumentiert und dürfte zur Entwicklerkonferenz I/O offiziell angekündigt werden. Damit könnten generative KI-Funktionen direkt auf Android-Geräten laufen – ganz ohne Cloud. Eine neue Schnittstelle namens ML Kit GenAI API soll es erlauben, generative KI-Funktionen wie Textzusammenfassungen, Korrekturvorschläge oder Bildbeschreibungen auf Android-Geräten zu nutzen.
Vier KI-Funktionen, komplett lokal
Die neue API-Schnittstelle basiert auf dem schlanken Modell Gemini Nano und läuft laut Google auf allen Android-Geräten, die den Systemdienst AI Core unterstützen. Entwickler:innen erhalten damit Zugriff auf vier generative Funktionen: Texte zusammenfassen, Korrekturlesen, Umformulieren und Bilder beschreiben.
Die Zusammenfassungsfunktion erstellt bis zu drei Stichpunkte aus einem Text oder Chatverlauf, allerdings nur auf Englisch, Japanisch und Koreanisch. Beim Korrekturlesen und Umschreiben werden sieben Sprachen unterstützt, darunter auch Deutsch. Für Bildbeschreibungen gibt es zunächst nur englischen Output.
Voraussetzung für den Einsatz ist ausreichende Rechenleistung auf dem Gerät. Während High-End-Modelle wie das Samsung Galaxy S25 oder das Xiaomi 15 bereits kompatibel sind, müssen günstigere Modelle mit reduzierten Gemini-Versionen auskommen. So verarbeitet etwa das Pixel 9a aus dem Hause Google nur Texte und verzichtet auf erweiterte Bildfunktionen.
Lokale KI: Privatsphäre als Treiber
Der entscheidende Unterschied zu bisherigen Lösungen: Alle Funktionen laufen komplett auf dem Gerät. Das bedeutet, dass keine persönlichen Inhalte zur Verarbeitung an Cloud-Server gesendet werden müssen. Gerade für sensible Anwendungsfälle wie das Korrigieren von privaten Nachrichten oder das Beschreiben von Bildern mit vertraulichem Inhalt kann das ein deutlicher Gewinn für die Privatsphäre sein.
Google betont in der bereits verfügbaren offiziellen Dokumentation, dass die gesamte Verarbeitung lokal erfolgt. Das senkt nicht nur das Datenschutzrisiko, sondern verbessert auch die Reaktionsgeschwindigkeit, da Netzwerkverbindungen entfallen.
Production ready: ML Kit ersetzt Edge SDK
Mit dem Schritt verabschiedet sich Google zugleich von der bisherigen Experimentierschiene. Das sogenannte AI Edge SDK war nur für die Pixel-9-Serie verfügbar und durfte nicht in produktiven Apps eingesetzt werden. Die ML Kit GenAI APIs sind hingegen offiziell als Beta freigegeben – und damit grundsätzlich bereit für den Einsatz in öffentlich veröffentlichten Anwendungen.
Der Funktionsumfang ist zudem deutlich größer: Während das Edge SDK lediglich Textfunktionen bot, erlaubt ML Kit erstmals auch die Beschreibung von Bildern – sofern das Gerät die nötige Leistung mitbringt.
Lokale KI als Ökosystem-Impuls
Google bringt mit der neuen API nicht nur eine weitere KI-Spielerei auf Android, sondern setzt einen wichtigen Impuls für die Plattform. On-Device-KI verspricht eine Balance zwischen Funktionsvielfalt und Datenschutz – ein Argument, das im Vergleich mit Cloud-gebundenen Lösungen anderer Anbieter:innen an Gewicht gewinnt.
Entwickler:innen erhalten ein standardisiertes, gut dokumentiertes Werkzeug, das den Einstieg in generative KI erheblich erleichtert – ohne sich durch proprietäre NPU-Schnittstellen von Qualcomm oder MediaTek kämpfen zu müssen. Welche Anwendungen daraus entstehen, dürfte sich schon bald im Play Store zeigen.