Edge AI: Der nächste Evolutionsschritt für das Internet der Dinge?
Künstliche Intelligenz ist eine der meist diskutierten technologischen Innovationen der letzten Jahre. Die Einsatzmöglichkeiten scheinen – glaubt man zumindest dem medialen Tenor – endlos zu sein. Egal ob Alexa oder Google Home, beim Online-Shopping, im Healthcare-Bereich, im Online-Marketing oder der Industrie – lernende und vernetzte IT-Systeme spielen in Unternehmen eine immer wichtigere Rolle. Mithilfe immer leistungsfähigerer Algorithmen lassen sich Unmengen an Daten analysieren, Muster oder Fehler erkennen und Prozesse automatisieren.
Cloud Computing ist nicht immer geeignet
Derzeit basiert das Gros der Anwendungsfälle, die Künstliche Intelligenz beinhalten, auf der Funktionalität des Cloud Computing. Das heißt etwa, dass beispielsweise eine Smart-Watch stets mit der Cloud kommunizieren muss, um KI-Funktionen nach dem jetzigen Stand der Technik abbilden zu können. Das Problem: Um die nächste Evolutionsebene von Künstlicher Intelligenz zu erreichen, wird eine weitaus schnellere Datenverarbeitung benötigt, als sie die Cloud bieten könnte – die Cloud wird für fortgeschrittene AI-Anwendungsfälle also mehr und mehr zum Flaschenhals. Ein Beispiel: Ein Motorradfahrer mit einem sensorbestückten Helm und Objekterkennung fährt auf ein Schlagloch zu. Der Helm erhält das Signal des Sensors, der die potentielle Gefahrenstelle erkannt hat, und muss dieses innerhalb weniger Sekunden verarbeiten. Hier scheint es wenig sinnvoll, die Daten aufgrund der hohen Latenz zunächst an die Cloud zu senden, geschweige denn diese langfristig zu speichern – eine alternative Methode zur Datenverarbeitung muss her. In Folge gewinnt in der Forschung und Praxis rund um Künstliche Intelligenz das Thema „Edge Computing“ immer mehr an Bedeutung. Der Unterschied zum Cloud Computing: Daten werden bei diesem Ansatz dezentral am „Rande des Netzwerks“ – das heißt auf smarten Devices und Sensoren unterschiedlicher Art – erfasst, analysiert und verarbeitet.
Die Vorteile dezentraler Datenverarbeitung
Im Grunde werden somit die Daten dort verarbeitet, wo sie erhoben werden. Die Dezentralität bietet dabei in vielen Bereichen Vorteile. Denn wenn die Kommunikation mit der Cloud entfällt, ist das einzelne Gerät für die Verarbeitung nicht auf eine stabile Netzverbindung angewiesen. Das ist vor allem in ländlichen Regionen mit geringer Breitbandabdeckung entscheidend. Aber auch für extreme Wettersituationen. Beispielsweise bei Wetterstationen oder in den Bergen ist die Datenverarbeitung über Edge AI weit sinnvoller. Dort, aber auch in Städten, kommt das Thema Energieeffizienz hinzu. Dauerhafte Kommunikationsfähigkeit benötigt Energie und wenn Akkus oder aufwendige Stromversorgung nötig ist, treibt das den Preis in die Höhe. Damit werden Anwendungsbereiche, beispielsweise aus dem Retail-Bereich, aufgrund knapper Margen uninteressant. Gleiches gilt für die Kommunikationskosten selbst. Bei hochskalierenden Business Cases sind die Kosten für Cloudkapazitäten und Datenübertragung schnell ein entscheidender Kostenfaktor.
Nicht zuletzt spielen auch der Datenschutz und die IT-Sicherheit eine nicht unwesentliche Rolle. Werden Daten stets an die Cloud gesendet, um dort verarbeitet zu werden, steigt das Risiko, dass Unbefugte sie abgefangen oder auslesen. Werden die ursprünglichen Informationen dagegen direkt vor Ort ausgewertet und verarbeitet, können sie danach schlichtweg sofort gelöscht werden und nur entsprechende Meta-Daten werden in definierten Intervallen weitergegeben. Ein besonders kritischer Fall ist hier die Bild- und Videoverarbeitung.
Beim Thema IT-Sicherheit rückt zudem die Anfälligkeit der Cloud in den Vordergrund. In großen Unternehmen, in denen systemkritische KI-Lösungen oft zentralisiert organisiert sind, besteht neben hohen Latenzzeiten auch das Risiko von gebündelten Angriffen über IoT-Geräte. Ist eine Vielzahl diese Geräte im Einsatz und kommuniziert sie konstant mit der Cloud, kann ein Distributed Denial of Service Angriff (DDoS) schnell zum Problem werden. Bei Edge-AI-Devices besteht diese Problem in der Regel nicht, da die Geräte nicht konstant miteinander oder mit der Cloud kommunizieren. Und auch das Risiko des „Single Point of Failure“, bei dem der Ausfall eines Bestandteils den Ausfall des gesamten Systems bedeutet, ist bei Edge-AI-Geräten nicht vorhanden.
Die Umsetzung von Edge-AI-Projekten
Zu Beginn eines jeden Edge-AI-Projekts gilt es, das grundlegende Problem klar zu definieren und den Lösungsweg zu skizzieren. Da wir bei Edge AI von einer sehr neuen Technologie reden, bleibt abzuwarten, wie sich in der Geschäftspraxis einzelne Aspekte entwickeln und durchsetzen werden. Dazu gehört vor allem die Frage, wie weit Künstliche Intelligenz von der Cloud in die Edge wandern wird. Dies hängt nicht zuletzt von der Leistungsfähigkeit der Prozessoren ab. Fragen, die darüber hinaus relevant sein werden, sind, welche Preis-Leistungs-Kombinationen sich im Chipdesign durchsetzen und wie entsorgbar die Chips der Zukunft sein werden.
Als zweiter Schritt auf dem Weg zum Edge-AI-Projekt gilt es, einen System-Footprint zu erzeugen und zu definieren, in welchen Bereichen Machine Learning unterstützen soll. Im Zentrum dieser Überlegung stehen vor allem die Fragen: Welche Zielgruppe möchte ich mit dem Produkt ansprechen und welche Value Proposition möchte ich der Nutzerschaft des Endprodukts geben? Kernfragen, die es darüber hinaus zu beachten gilt, sind:
- Welche Funktionen soll das Produkt erfüllen?
- Welche Use Cases sollen von dem Produkt unterstützt werden?
- Welche Key Deliverables muss das Projekt erbringen und wann müssen sie erbracht werden?
- Aus welchem spezifischen technischen Komponenten (Building Blocks) soll das Projekt bestehen?
- Welche technischen Interfaces benötigt das Projekt zu jedem involvierten System oder Nutzer?
- Wie sehen mögliche technische Einschränkungen aus?
- Wie sehen mögliche Einschränkungen durch involvierte Stakeholder aus?
Sind diese zentralen Fragen geklärt, geht es im dritten Schritt des Edge-AI-Projektes daran, Daten zu sammeln und zu labeln sowie in Folge digitale Testszenarien zu entwickeln, die den Use Case in der Praxis später nachweisen sollen. Hier gilt es also Modelle aufzubauen und diese mit den gesammelten Daten zu füttern und so zu trainieren. Integral wichtig für dieses Vorhaben ist die Datenqualität – insbesondere beim Labeln sollte also sauber gearbeitet werden, da darauf die fortfolgenden Schritte beruhen. Fragen, die man sich vorab stellen sollten, sind darüber hinaus: Welche Mechanismen zum Sammeln der Daten wende ich an? Welches Datenformat wähle ich, und welche Real-Life-Conditions definiere ich für mein Projekt?
Ist auch dieser Schritt erfolgreich absolviert, gilt es schlussendlich die bisher geleistete Umsetzung zu überprüfen und das Machine-Learning-Modell auf dem intelligente Device zu integrieren.
Aussicht und Herausforderungen
Wie bereits erwähnt, handelt es sich bei Edge AI um eine neue Technologie, die durch technische Innovationen befeuert, gerade erst umsetzbar wird – aber schon jetzt enormes Potenzial für Use Cases in verschiedenen Industrien verspricht. Ein Problem, das sich bereits heute abzeichnet, ist – wie so oft im Bereich Internet of Things –, dass kein einheitlicher Standard für Frameworks besteht. Unternehmen sollten hier mehr zusammenarbeiten, um einen „Common Ground“ zu schaffen, von dem alle Akteure profitieren können.
Das ist für mich nur ein Übergangsszenario, bis die mobilen Netzwerke insb. 5G die Konnektivität flächendeckend mit hoher Bandbreite ausstatten. Wenn dies gegeben ist, sind die Vorteile der Cloud zu eindeutig wie z.B. günstigere Hardware oder keine Software-Updates mehr für Nutzer.
Auch die notwendige geringe Latenz wird durch die Edge-Cloud (MEC) in Mobilfunkstationen oder Nutzer-nahen Standorten auf das notwendige reduziert werden können…