Ratgeber

AWS, Azure oder Google Cloud: Eine ausführliche Analyse aus Management-Sicht

Seite 2 / 2

Die Verlässlichkeit im Praxis-Check

Verfügbarkeitszusagen und Gutschriften (sogenannte Service Level Credits) sollten in keinem SLA fehlen, sie helfen allerdings im Moment des Ausfalls wenig. In den meisten großen Unternehmen ist ein Arbeiten ohne die technische Infrastruktur kaum noch möglich. Interne Systeme müssen immer verfügbar sein, sonst steht der Betrieb. Daher stellt sich die Frage, wie verlässlich die angebotenen Public Clouds tatsächlich sind.

Verschiedene Websites wie Cloudharmony von Gartner bieten die Möglichkeit, die Verfügbarkeiten der letzten Wochen oder Monate zu vergleichen. Studiert man die Statistiken der vergangenen Jahre, so lässt sich feststellen, dass alle Clouds relativ verlässliche Ergebnisse liefern, kurze Downtimes einzelner Standorte jedoch dazugehören (siehe https://cloudharmony.com/status), weswegen eine Infrastruktur auf mindestens zwei Availablity-Zones essenziell ist. Bei besonders kritischen Applikationen, wie Finanzportalen, bei denen schon ein kleiner Ausfall verheerende Folgen hat, ist der Aufbau einer vernetzten Infrastruktur unter Einbeziehung der Ressourcen von zwei Public-Cloud-Anbietern ratsam.

Zusammenfassend lässt sich sagen, dass aufgrund der Flexibilität und Kombinationsmöglichkeiten von Standorten und Cloud-Anbietern eine hohe Verfügbarkeit erreicht werden kann. Diese entsteht jedoch in der Hauptsache durch ein durchdachtes Konzept für die Gesamtinfrastruktur, das in Kundenhand liegt und final auch eine Budgetfrage ist. Beim Betrieb der eigenen Infrastruktur in zwei Availablity-Zones mit automatischem Failover ist im Normalfall mit branchenüblichen Verfügbarkeiten über achtundneunzig Prozent pro Monat zu rechnen. Bei einem Ausfall bedarf es eigener Administratoren, die die in der Cloud betriebenen Systeme 24/7 überwachen und im Fehlerfall sofort reagieren. Die Cloud-Provider werden bei einem Ausfall schnell aktiv, reparieren jedoch nur die eigene Cloud-Infrastruktur. Die Überwachung, ob alle Systeme automatisiert wieder hochfahren und sich wie gewünscht verhalten, bleibt dem Kunden überlassen.

Erhöhte unternehmerische Agilität und Skalierbarkeit – kein Vendor-Lockin?

Die Public Cloud ermöglicht es, flexibel auf neue Anforderungen zu reagieren. Bestands-Ressourcen können mit wenigen Einschränkungen beliebig erweitert und neue Ressourcen hinzugezogen werden. Gleichzeitig sind fast alle Leistungen flexibel zur nächsten vollen Stunde kündbar. In der Praxis werden neue Ressourcen meistens zum Abfangen von Lastspitzen (etwa durch eine Werbekampagne) temporär hinzugebucht. Entwickler können zudem kurzfristig benötigte Instanzen per Knopfdruck erzeugen und nach Abschluss des Entwicklungsschrittes wieder stoppen.

Durch die Optimierung und Anpassung der eigenen Software lässt sich ein Teil der Abhängigkeit vom jeweiligen Public-Cloud-Anbieter (Lockin-Effekt genannt) reduzieren, da die Anwendung nicht mehr von speziellen Komponenten abhängig ist und idealerweise in einem Container liegt, der auf jeder Plattform betrieben werden kann. Wurde dies konsequent umgesetzt, lässt sich die eigene Umgebung leichter auf einen anderen Provider portieren.

Zu bedenken ist, dass die Leistungen der Anbieter nicht zu einhundert Prozent identisch sind. Die detaillierten Konfigurationsmöglichkeiten von Load-Balancern, Speichermedien, Datenbanken und anderen Komponenten sowie die APIs (API gleich Application Programming Interface) zur Verwaltung unterscheiden sich an einigen Stellen. Zudem sind die Größen und Leistungsdaten der VMs nicht standardisiert. Es sollte daher genau geprüft werden, welcher Aufwand einem Plattformwechsel gegenübersteht. Aktuelle Studien zeigen, dass der Aufwand häufig unterschätzt wird und ein Lockin-Effekt aufgrund der proprietären Lösungen der Anbieter und fehlender Standards weiterhin besteht.

Die Anbieter streben jeweils eine Spezialisierung in eine bestimmte Richtung an: Google ist den beiden Konkurrenten im Bereich Big-Data-Analyse weit voraus, Amazon bietet das Portfolio mit den meisten Zusatzleistungen und Microsoft spezialisiert sich im Bereich Windows-Server und Windows-Anwendungen out of the box. Bei sehr spezifischen Leistungen kann es also gut sein, dass diese zumindest nicht im gewohnten Umfang bei der Konkurrenz angeboten werden. Ein Vergleich lohnt sich immer.

Mehr Sicherheit als gedacht

Gemäß diverser Studien stellt die Datensicherheit für Unternehmen eines der größten Argumente gegen die Public-Cloud-Nutzung dar. Als Hauptgründe werden die Ungewissheit über Sicherheitslücken, die möglichen Zugriffe Dritter sowie die Angst vor Datenverlusten genannt. Auch in der Wissenschaft ist Cloud-Sicherheit ein heiß diskutiertes Thema. Um hier Vertrauen zu bilden, investieren die Cloud-Anbieter viel Geld in die Entwicklung von Sicherheitsmechanismen. Bereits heute ist davon auszugehen, dass das Sicherheitsniveau der Clouds von Amazon, Google und Microsoft sehr hoch ist.

Ein viel größeres Risiko stellt eine Fehlkonfiguration durch den Nutzer oder Administrator dar. So gab es allein in diesem Jahr mehrere Vorfälle wie zum Beispiel der, über den Forbes berichtete, bei denen Kundendaten auf unerwünschte Weise zugänglich wurden. Administratoren müssen daher ein gutes Verständnis für die von den Cloud-Anbietern bereitgestellten Sicherheitsvorkehrungen haben, um einen angemessenen Schutz für die gespeicherten Daten zu etablieren.

Clouds sind mit EU-Datenschutz-Grundverordnung kompatibel

Der Aufbau einer Infrastruktur, die der neuen EU-Datenschutz-Grundverordnung (EU-DSGVO) genügt, ist möglich, wobei es einige Aspekte zu beachten gilt und auch dort die Verantwortung für die korrekte Nutzung der Cloud beim Kunden liegt.

Fazit

Cloud bedeutet ein Umdenken in der IT und bietet – je nach Projekt – diverse Vorzüge. Public-Cloud-Lösungen von AWS, Azure und Microsoft können den Zugang zu neuen Technologien erleichtern und Kosteneinsparungen ermöglichen. Voraussetzung ist eine vorausschauend geplante Architektur und ein fundiertes Management der Umgebung. Die Services der Anbieter stellen eine solide, sichere Basis für den Betrieb der eigenen Infrastruktur dar. Es bedarf – analog zu jeder anderen Hosting-Form – ebenfalls Administratoren mit dem notwendigen Know-how, um die Umgebung einzurichten und zu verwalten. Niedrige Infrastrukturkosten gehen mit dem Transfer der Verantwortung vom Anbieter zum Kunden einher, der die Redundanz und Datensicherheit fast vollständig selbst verantworten muss. Ein genauer Vergleich der Services von AWS, Microsoft und Google, individuell ausgehandelte SLAs sowie ein fundiertes Migrations-, Sicherheits- und Backup-Konzept sollten daher zwingender Teil jeder Cloud-Strategie sein.

Bitte beachte unsere Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Schreib den ersten Kommentar!

Melde dich mit deinem t3n Account an oder fülle die unteren Felder aus.