Was ist eigentlich Edge Computing?
Die Weiterentwicklung des Internets und unseres Umgangs damit führt auch dazu, dass Themen, die gar nicht neu sind, neu diskutiert werden. Das gilt auch für den Begriff des „Edge Computings“. Schon Ende der neunziger Jahre gab es mit Akamais Content Delivery Networks erste Schritte in diese Richtung, um beispielsweise Werbung ortsgebundener mitliefern zu können. Das Prinzip von damals ist die Grundidee des Edge Computings. 2014 hat dann Cisco unter dem Begriff „Fog Computing“diese Technologie neu thematisiert, während IBM und Microsoft weiterhin vom Edge Computing sprechen und damit die gleichen Ideen beschreiben.
Um sich vorzustellen, was Edge Computing bedeutet, muss man sich zuerst einmal mit Netzwerkarchitektur beschäftigen. Der typische Modell-Aufbau eines Netzwerks sieht ein einzelnes Rechenzentrum in der Mitte als zentralen Punkt vor. Die Kanten, also Edges, sind hingegen die Punkte, an denen Daten in dieses Netzwerk hereinkommen. Von den Kanten werden diese Daten dann direkt an das Rechenzentrum gesendet, was natürlich eine entsprechende Bandbreite benötigt und Latenzen nach sich ziehen kann, ehe die Ergebnisse vorliegen. Ein aktuelles Beispiel dieser Architektur ist das Cloud Computing, wo die Cloud das Zentrum bildet, an das alle Daten gesendet werden.
Edge Computing verändert die gängige Netzwerkarchitektur
Dem entgegen setzt das Edge Computing auf eine dezentrale Datenauswertung. Das ist als Erweiterung der Netzwerkarchitektur zu sehen, es gibt also durchaus auch weiterhin ein großes Rechenzentrum im Netzwerk. Für die Umsetzung des Edge Computings gibt es verschiedene Ansätze. Einer ist es, die Sensoren selbst ausreichend intelligent zu gestalten, sodass diese die zeitkritischen Daten selbst auswerten können und an das Rechenzentrum nur die Daten weiterleiten, die beispielsweise archiviert oder zur Big-Data-Analyse genutzt werden sollen. Eine andere Variante ist es, mehrere kleine Rechenzentren an verschiedenen Punkten und möglichst nahe an den Edges zur Verfügung zu stellen, was den Übertragungsweg verkürzt. Außerdem werden nicht mehr alle Daten ungefiltert weitergeleitet, sondern eben nur die, für die eine Weiterleitung sinnvoll ist. Auch eine Kombination der beiden Ansätzen ist möglich.
Dank des Vormarschs des Internets der Dinge sind heutzutage weit mehr und verschiedene Geräte in Netzwerken zusammengeschlossen. Gemein ist dem Smartphone, Fitness-Tracker, Kühlschrank, Parkleitsystem und intelligentem Thermostat, dass sie mit Sensoren ausgestattet sind und Daten sammeln, die verarbeitet werden müssen. In der Praxis sind bei all diesen Beispielen die leichten Verzögerungen aufgrund des Verschickens der Daten aber hinnehmbar, da niemals Entscheidungen in Echtzeit zu treffen sind. Edge Computing ist dafür also nicht unbedingt von Vorteil.
Edge Computing ist keine universelle Lösung
Anders sieht das hingegen in der Industrie 4.0 aus, wo beispielsweise Roboter in der Fertigung immer genau wissen müssen, wie die aktuelle Situation anzugehen ist. Ein vielleicht noch besseres Beispiel sind selbstfahrende Autos. Hier müssen in Notfällen Entscheidungen in Bruchteilen von Sekunden getroffen werden, eine Datenverarbeitung muss also so schnell wie nur möglich erfolgen. Hier kommt dann der Vorteil der schnelleren Datenübertragung des Edge Computings zum Tragen.
Mehrere Recheneinheiten sprechen weiterhin für eine bessere Skalierbarkeit, da jederzeit neue Recheneinheiten dazugeschaltet oder wieder aus dem Netzwerk genommen werden können. Problematisch kann das hingegen werden, wenn die Datenmengen sehr unregelmäßig sind und daher die tatsächlich nötigen Kapazitäten nachjustiert werden müssen oder die Schwankungen nicht einberechnet sind. Ebenfalls ist es ein Vorteil der Dezentralisierung, dass die Stabilität in Bezug auf sogenannte DDoS-Attacken zunimmt, da diese sich dann nicht auf das eine Rechenzentrum konzentrieren und das lahmlegen können. Je nach Netzwerkaufbau fällt der Ausfall eines einzelnen Rechenzentrums weniger oder gar nicht ins Gewicht.
Zusätzlich durchlaufen Daten auf dem Weg zum Zentrum mehrere Knotenpunkte, an denen Bedrohungen wie Viren erkannt und ausgemerzt werden können, ehe diese das Rechenzentrum erreichen. Aber natürlich bedeuten mehrere Rechenzentren und zahlreichere Geräte auch, dass ein größerer Aufwand vorliegt, alle Punkte sicher zu halten. So kann im schlimmsten Fall die einzelne Einheit leichter angegriffen werden, wenn beispielsweise nicht überall die gleichen Sicherheitsvorkehrungen getroffen werden konnten oder Sicherheitsupdates unterschiedlich schnell eingespielt werden.