Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

News

Google bohrt Pixel-2-Kamera weiter auf: Android 8.1 aktiviert schlummernden Custom-Chip

Die Kamera der beiden neuen Pixel-Modelle soll die Konkurrenz hinter sich lassen. (Foto: t3n.de)

Google hat in seinen neuen Pixel-2-Smartphones einen Custom-Chip verbaut. Mit dem Pixel Visual Core sollen HDR+-Aufnahmen um den Faktor fünf beschleunigt werden. Aktiviert wird er allerdings erst mit Android 8.1.

Google Pixel 2 (XL): Der Pixel Visual Core bohrt die Kamera auf – aber nicht nur

Google hat zum Verkaufsstart seines Pixel 2 eine kleine Überraschung parat, die sich derzeit noch im Schlummermodus befindet: Die neuen Smartphone-Modelle haben einen sogenannten Pixel Visual Core (PVC) unter der Haube, mit dem unter anderem die Leistung des schon sehr guten HDR+-Modus der Pixel-Kamera um das Fünffache beschleunigt werden soll.

Die Kamera des Google Pixel 2 XL dürfte in den kommenden Wochen noch besser werden. (Foto: t3n)

Durch die Auslagerung der Kamera-Prozesse auf den dedizierten Chip bei der Foto-Aufnahme und -Verarbeitung soll der Stromverbrauch auf weniger als ein Zehntel dessen reduziert werden, was  der Hauptprozessor für die gleichen Aufgaben benötigen würde. Sprich: Der PVC dürfte auch die Akkulaufzeit des Pixel 2 (XL) verbessern.

Der Pixel Visual Core ist der erste Chip aus dem Hause Google, der in einem Consumer-Gerät verbaut wird. Bislang hatte sich das Unternehmen auf Custom-Prozessoren für seine Machine-Learning-Server konzentriert. Mit dem Pixel Visual Core will Google allerdings nicht nur die Kamera-Leistung verbessern, sondern Machine-Learning-Prozesse auf das Smartphone verfrachten, wie es auch Huawei mit dem Kirin 970-SoC (System on a Chip) praktiziert, auf dem ein dedizierter KI-Chip (NPU) sitzt. Das erste Gerät mit der NPU (Neural Processing Unit) ist das Huawei Mate 10 Pro.

HDR+ auf dem Pixel 2: Links ohne Pixel Visual Core, rechts mit. (Foto: Google)

Zurück zum PVC: Der Kern von Googles selbst entwickeltem Pixel Visual Core ist die Image Processing Unit (IPU), die aus acht Kernen besteht. Jeder dieser Kerne umfasst jeweils 512 „Arithmetic Logic Units“ (ALUs). Laut Google erreiche die IPU eine Rechenleistung von drei Billionen Operationen pro Sekunde. Der Pixel Visual Core besteht außerdem aus einem ARM-Cortex-A53-Prozessor und LPDDR4-Speicher unbekannter Größe.

Der Aufbau des Google Pixel Visual Core. (Bild: Google)

Laut Google arbeitet die IPU weit effizienter als ein herkömmlicher Prozessor, da Soft- und Hardware viel besser aufeinander abgestimmt seien. Dadurch, dass die Software über mehr Kontrolle über die Hardware verfüge, sei die Programmierung aufwendiger und lasse sich nicht leicht durch traditionelle Programmiersprachen bewältigen.

Daher greift Google zu eigenen Mitteln: Für die Bildverarbeitung arbeite man mit Halide, Googles Tensorflow werde für die Nutzung von Machine-Learning-Prozessen eingesetzt. Der daraus entstandene Code wird laut Google mit einem eigens entwickelten Compiler für die Hardware optimiert.

Erst Android 8.1 haucht dem Pixel Visual Core Leben ein

Android 8.1 Oreo erscheint in wenigen Wochen– als Developer Preview. (Bild: Google)

Wie bereits erwähnt, ist der PVC im Pixel 2 (XL) noch nicht aktiv – was überrascht, da die Kamera-Qualität der neuen Google-Phones schon jetzt exquisit ist, wie wir bei unseren Testgeräten bereits feststellen konnten. Mit dem Pixel Visual Core dürfte sich die Qualität der Kamera nochmals erhöhen. Aktiviert werden soll der Chip mit dem Update auf Android 8.1, das in den kommenden Wochen als Developer-Preview-Version veröffentlicht werden soll. Der PVC müsse in der Entwickler-Vorschau in den Entwickler-Einstellungen aktiviert werden.

Zu einem späteren Zeitpunkt will Google die HDR+-Technologie der Pixel-2-Modelle auch für alle Apps von Drittanbietern per Android-Camera-API freischalten. Die Kamerafunktionen seien aber erst der Anfang: Da der PVC programmierbar ist, könne der Chip auch andere Prozesse erledigen. Google arbeite eigenen Angaben zufolge schon an weiteren Lösungen aus den Bereichen Machine Learning und Bildbearbeitung.

Pixel und Pixel 2 XL - erste Eindrücke
Google Pixel 2 XL. (Foto: t3n)

1 von 64

Android 8.1 erweitert auch KI-Funktionen des Huawei Mate 10 Pro

Das Huawei Mate 10 wird mit Android 8.1 auch Zugriff auf die Neural-Processing-Schnittstelle erhalten. (Foto: t3n)

Die Pixel-2-Modelle sind aber nicht die einzigen Smartphones, die einen dedizierten Chip für Machine-Learning-Prozesse an Bord haben. Huaweis Mate 10 Pro mit dem Kirin 970 profitiert auch von Android 8.1 und der Neural-Network-API. Mithilfe der API sollen Apps, die auf Tensorflow oder Coffee 2 setzen, Prozesse auf den lokalen Machine-Learning-Chip (NPU) auslagern können. Die Nutzung der NPU dürfte Datenvolumen, Ressourcen und Energie sparen, denn es ist kein Zugriff auf einen Cloudservice vonnöten.

Android 8.1 soll laut Googles Jamie Rosenberg, VP Android und Google Play, Anfang nächsten Jahres für das Mate 10 Pro verfügbar sein.

Huawei Mate 10 Pro im Hands-on

1 von 20

Weiterlesen:

Bitte beachte unsere Community-Richtlinien

2 Reaktionen
Jan

Das iPhone kann Video mit 240 fps bei Full HD Auflösung darstellen. Warum können die anderen Hersteller (z.B. Google mit dem Pixel 2 XL) das (noch) nicht ? Ist das der Software oder der Hardware geschuldet ? Kann mir das mal jemand erklären? Habe hierzu noch nirgends Informationen gefunden. Wäre doch mal sehr interessant zu wissen woran das liegt und wie die Technik funktioniert.

Antworten
msoika84

Das ist der Hardware geschuldet. Der Snapdragon 835 kann leider nicht mehr verarbeiten.
Könnte aber sein das durch den Pixel Visual Core die Berechnung ausgelagert wird und dadurch 60fps ermöglicht werden. Der Sensor der Kamera sollte dazu in der Lage sein.

Antworten

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.