News

ML-Processor: ARMs Smartphone-NPU schafft 5 Teraops pro Watt

ML-Prozessor alias NPU. (Bild: ARM)

Der ML-Processor ist, der Name impliziert es bereits, für Machine Learning gedacht: Der Funktionsblock von ARM soll neben CPU/GPU in Smartphone-Chips stecken und dort aufwendige Berechnungen bei hochauflösenden Fotos durchführen oder bei der Entsperrung per Gesichtserkennung helfen.

Apple hat sie, Huawei hat sie und ARM auch: eine sogenannte NPU (Neural-Processing-Unit) für die dedizierte Berechnung von künstlicher Intelligenz in Smartphone-Chips. Bei ARM wird der Funktionsblock als ML-Processor bezeichnet und Anfang 2018 als Teil von Project Trillium vorgestellt. Mittlerweile ist der ML-Processor weiter fortgeschritten, weshalb der britische Entwickler sich ausführlicher zu ihm geäußert hat.

In heutigen Smartphones laufen bereits sehr viele Machine-Learning-Algorithmen, die Chips in den meisten Geräten verwenden dafür aber keine dedizierten Funktionsblöcke, sondern schlicht die CPU-Kerne oder die Grafikeinheit und teils den DSP (Digital-Signal-Processor): Auf niedrigster Ebene sind das Workloads wie das Scheduling von Apps und deren Threads, etwas aufwendiger ist Spracherkennung. Deutlich mehr Rechenleistung ist bei der Sprachsynthese und den heutzutage alltäglichen Fotos sowie Videos erforderlich.

Blockdiagramm des ML-Prozessors. (Screenshot: Golem)

Blockdiagramm des ML-Prozessors. (Screenshot: Golem)

Gerade wenn diese hochauflösend in 4K- oder 8K-UHD aufgenommen werden, steigt der Rechenaufwand drastisch an, was sich gut bei Instagram zeigt: Der Bokeh-Filter generiert zwar sehr gute Resultate, fordert aber CPU-Kerne und die Grafikeinheit stark, was zulasten der Akkulaufzeit geht. ARM zufolge sind weltweit rund vier Milliarden Smartphones in Benutzung, aber nur 500 Millionen davon hätten eine NPU integriert. Weil die Workloads kontinuierlich fordernder werden, verbauen immer mehr Hersteller einen Funktionsblock für Machine Learning. Selbst multiple CPU-Kerne schaffen kein Teraops an INT8-Leistung, auch eine Grafikeinheit wie eine Mali-G76 kommt nicht auf 2 Teraops.

Bisher ging ARM von drei Teraops mit INT8-Genauigkeit pro Watt für den ML-Prozessor aus, durch eine verbesserte Effizienz und Kompression der neuronalen Netze durch den Winograd-Algorithmus sollen es nun über fünf Teraops pro Watt sein. Konkret verwendet ARM bis zu acht Kerne, um so 32 Teraops an Rechenleistung für Inferencing, also das Anwenden bereits trainierter Netze, zu erreichen. Um möglichst viele Daten für mehr Geschwindigkeit lokal vorzuhalten, hat jeder Core gleich ein Megabyte an SRAM zum Puffern. Die Kerne können dabei mehrere Netze parallel bearbeiten – was häufiger der Fall ist – oder aber gemeinsam kohärent an einem rechnen. Ein Beispiel sind extrem hochauflösende Fotos wie 360-Grad-Aufnahmen oder 8K60-Videos.

Präsentation zum ML-Prozessor alias NPU (Bild: ARM)

Präsentation zum ML-Prozessor alias NPU (Bild: ARM)

Der ML-Processor hat eigene Firmware, um bei Anwendungen wie der Entsperrung des Smartphones per Gesichtserkennung die notwendigen Daten zu schützen; überdies ist sie mit ARMs Trustzone verknüpft. Der Hersteller betont zudem, dass Sicherheit von mehr als einem IP-Block abhänge und eine systemweite Anpassung von Hard- und Software erfordere. Rein von der physischen Implementierung her, also der Fläche des ML-Processors, sagt ARM, dass die NPU deutlich kompakter sei als ein CPU-Cluster oder eine Grafikeinheit. Das verwundert wenig, denn neben der Leistung pro Watt ist auch die Geschwindigkeit pro Quadratmillimeter eine wichtige Metrik bei jedem Funktionsblock eines Smartphone-Chips.

ARM zufolge ist der ML-Processor auf 16 Nanometer und sieben Nanometer ausgelegt, der RTL-Code für Partner existiert bereits und es gibt multiple Lizenznehmer. Wer das ist und wann deren Designs erscheinen, wollte ARM wie üblich nicht kommentieren. Neben Apple und Huawei hat auch Mediatek eine eigene NPU, wohingegen Qualcomm eine extra Tensor-Einheit im DSP für künstliche Intelligenz entwickelt hat. Wie wichtig eine NPU ist, zeigt Google: Deren Assistant läuft mittlerweile auf dem Gerät und nicht mehr in der Cloud.

ARM Projekt Trillium. (Grafik: ARM)

ARM Projekt Trillium. (Grafik: ARM)

Software-seitig nutzt ARM das eigene NN-Framework, eine Open-Source-Inferencing-Engine. Deren Performance liegt ARM zufolge deutlich über der vieler Partner-Lösungen, egal ob sie von einem Cortex-Kern, einer Mali-GPU oder einer NPU ausgeführt wird. Das NN-Framework werde daher bereits in über 250 Millionen Geräten eingesetzt.

Autor des Artikels ist Marc Sauter.

Mehr zu ARM:

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.

Bitte schalte deinen Adblocker für t3n.de aus!

Hey du! Schön, dass du hier bist. 😊

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team bestehend aus 70 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Danke für deine Unterstützung.

Digitales High Five,
Luca Caracciolo (Chefredakteur t3n) & das gesamte t3n-Team

Anleitung zur Deaktivierung