Du hast deinen AdBlocker an?

Es wäre ein Traum, wenn du ihn für t3n.de deaktivierst. Wir zeigen dir gerne, wie das geht. Und natürlich erklären wir dir auch, warum uns das so wichtig ist. Digitales High-five, deine t3n-Redaktion

t3n 47

Was Unternehmen beim produktiven Einsatz beachten müssen: Live gehen mit Containern

    Was Unternehmen beim produktiven Einsatz beachten müssen: Live gehen mit Containern

(Grafik: flaticon / freepik)

Container-Technologien gelten als IT-Infrastruktur der Zukunft. Allerdings schrecken viele Unternehmen bislang davor zurück, Container in der Produktion zu betreiben. So klappt’s.

In Zeiten, in denen sich die Digitalisierung beschleunigt und die Datenmengen immer größer werden, entwickeln sich Schnelligkeit, Flexibilität und Skalierbarkeit der eigenen IT-Infrastruktur zu einem Wettbewerbsfaktor. Deswegen setzen Vorreiterunternehmen wie Google, Amazon und Twitter schon seit einigen Jahren auf Container-Technologien und Cloud-Native-Anwendungen.

Nachdem sich Container anfangs vor allem innerhalb der Entwickler-Community großer Beliebtheit erfreuten, ist der Hype inzwischen auch in den Unternehmen angekommen. Laut einer Studie von O’Reilly setzten 2015 bereits 65 Prozent der befragten Organisationen Container ein, 80 Prozent aller anderen wollen sie in Zukunft nutzen. Dabei sammeln die Unternehmen derzeit vor allem Erfahrung in der Entwicklung und im Testing, vor dem Einsatz in der Produktion scheut sich jedoch der Großteil. Lediglich jedes dritte Unternehmen gibt an, Container auch live zu verwenden.

Das ist schade – denn damit bleibt das größte Potenzial dieser Technologie bislang weitgehend ungenutzt. Container entfalten nur dann ihre Kraft, wenn sie entlang des gesamten Anwendungs-Prozesses zum Einsatz kommen. Erst wenn Anwendungen auf Microservices heruntergebrochen werden und diese sich wiederum in viele Container auf verschiedenen Hosts unterteilen, entsteht eine völlig neuartige Infrastruktur, die der traditionellen Architektur in vielerlei Hinsicht überlegen ist.

Container brechen mit traditioneller IT-Infrastruktur

Eine zentrale Herausforderung in vielen Unternehmen beim Live-Einsatz ist: zu verstehen und zu verinnerlichen, dass der Einsatz von Containern entlang des gesamten Anwendungs-Prozesses mit dem traditionellen Verständnis bricht, wie IT-Infrastrukturen aufgebaut sind und funktionieren. Anwendungen und Microservices rücken in den Mittelpunkt, der einzelne Server verliert an Bedeutung und es wird de facto ein dezentrales und höchstgranulares Multi-Host-System geschaffen.

Auf der einen Seite ist dieses System flexibel, schnell und höchstskalierbar und eröffnet damit unzählige neue Möglichkeiten. Auf der anderen Seite bringt es aber auch eine nie dagewesene Komplexität und viele neue Herausforderungen mit sich. Deswegen lässt sich die Umstellung auf eine containerisierte Architektur in keinster Weise mit der Einführung eines neuen Entwicklungstools vergleichen, sondern muss in den Unternehmen auf allen Ebenen als tiefgreifender Transformationsprozess begriffen werden. Das erfordert einen umfasssenden Paradigmen-Wechsel und kulturellen Wandel. In diesem Bewusstsein gilt es, die einzelnen Herausforderungen schrittweise und individuell anzugehen.

Der ursprünglich von Google entwickelte Container-Cluster-Manager Kubernetes fasst Container zu logischen Einheiten zusammen, um die Verwaltung und Übersicht zu vereinfachen. (Screenshot: Kubernetes)
Kopfzerbrechen bereiten Unternehmen beim Live-Betrieb von Containern vor allem das Monitoring, die Orchestrierung und Automatisierung sowie die Wahl des richtigen Toolings. All diese Bedenken sind berechtigt und erfordern in der Tat Lösungen und Ansätze, die nicht trivial sind. Was Unternehmen beachten sollten:

Monitoring: Nur nicht den Überblick verlieren

Lange Zeit beschränkte sich Monitoring vor allem darauf, die Ausfallszeiten von Servern zu minimieren, die CPU-Auslastung und die zugeordneten Speicher zu überwachen sowie Engstellen im Netzwerk und bei den I/O-Operationen im Auge zu behalten. In einer containerisierten Multi-Host-Architektur greift diese Herangehensweise nicht länger. Die Anzahl der zu überwachenden Elemente steigt drastisch an, wenn Anwendungen auf Hunderte von Microservices und Container verteilt werden. Klassische Ansätze sind zudem aufgrund der enormen Menge an Daten und Messpunkten zum Scheitern verurteilt. Um dennoch verlässliche Aussagen über die Performance von Anwendungen zu treffen, müssen Unternehmen neue Methoden und Prozesse entwickeln. Zentral sind dabei folgende Aspekte:

1. Die temporäre Eigenschaft von Containern

Traditionell sind Anwendungen stabile Instanzen, die auf einem bestimmten Host laufen und bei Updates und Fehlermeldungen neu gestartet werden. Das ist weder besonders flexibel noch effizient, dafür aber übersichtlich und einfach zu überwachen. Container hingegen sind darauf ausgelegt, sich automatisch auf einem anderen Host zu replizieren, sobald sich Konfigurationen ändern oder Fehler auftreten. Diese temporäre Eigenschaft trägt maßgeblich zur Flexibilität und Geschwindigkeit von Containern bei, erschwert allerdings das Monitoring erheblich.

Sebastian Scheele
Sebastian Scheele

ist Mitgründer und CTO des Hamburger Startups Loodse. Loodse hat Kubermatic, eine Software zur Orchestrierung von Multi-Kubernetes-Clustern, entwickelt und berät Kunden beim Einsatz von Containern und Cloud-Native-Applikationen. Zuvor war Scheele sieben Jahre beim Software-Hersteller SAP tätig.

Finde einen Job, den du liebst

Schreib den ersten Kommentar!

Du musst angemeldet sein, um einen Kommentar schreiben zu können.

Jetzt anmelden