Ein sicherer Hybrid-Cloud-Betrieb braucht Netzwerk-Observability Überwachung und NetOps hybrider Cloud-Umgebungen

Von Thomas Schuller 5 min Lesedauer

Anbieter zum Thema

Die Überwachung von Hybrid-Cloud-Umgebungen ist ein Mammutprojekt. Oft sind NetOps-Teams gerade wegen der dynamischen Natur komplexer Netzwerk- und Cloud-Infrastrukturen nicht in der Lage, diese lückenlos zu überwachen. Die Folge: Sicherheitslücken und Downtimes. Das muss nicht sein.

„Unternehmen sollten darauf achten, dass sie auch bei der Wahl ihrer NetOps-Lösung einen Vendor Lock-in verhindern und auf eine holistische Lösung setzen, die bereits Out-of-the-Box eine möglichst ganzheitliche Funktionsvielfalt und ein hohes Maß an Automatisierung bietet sowie KI gewinnbringend einsetzt“, sagt Thomas Schuller von Progress.(Bild:  Progress)
„Unternehmen sollten darauf achten, dass sie auch bei der Wahl ihrer NetOps-Lösung einen Vendor Lock-in verhindern und auf eine holistische Lösung setzen, die bereits Out-of-the-Box eine möglichst ganzheitliche Funktionsvielfalt und ein hohes Maß an Automatisierung bietet sowie KI gewinnbringend einsetzt“, sagt Thomas Schuller von Progress.
(Bild: Progress)

350.000.000.000 US-Dollar. So viel Geld steckt weltweit im Cloud-Markt, Tendenz steigend. Diese gewaltige Summe verwundert nicht, bedenkt man, dass heute praktisch jedes Unternehmen die Cloud nutzt – rund 86 Prozent von ihnen nutzen sogar zwei oder mehr Public-Clouds. So ganz auf ihre lokalen IT-Infrastrukturen wollen Unternehmen allerdings auch nicht verzichten, und stellen private Clouds bereit und betreiben ihre On-Premises-Server weiter. Das führt zur Bildung so genannter Hybrid-Umgebungen, die Elemente aus Public und Private Clouds sowie On-Premises-Umgebungen kombinieren.

Solche Konstrukte sind eine gute Sache, denn sie erlauben es Unternehmen, sowohl die Leistungsstärke ihrer Anwendungen zu maximieren als auch die Datensicherheit zu gewährleisten. Auch die Nutzung mehrerer Public-Cloud-Services ist mittlerweile die Norm. Der Multicloud-Ansatz verhindert einen Vendor-Lock-in und versetzt Unternehmen in die Lage, die Resilienz ihrer Anwendungslandschaft zu steigern sowie die besten Tools für die jeweilige Aufgabe zu nutzen, frei nach dem Best-of-Breed-Prinzip.

So vorteilhaft dieser Ansatz im Hinblick auf das potenzielle Ergebnis und die Performance der Anwendung auch sein mag, es gibt (leider) einen Haken: denn der Kompromiss, den Unternehmen zwangsläufig für die Benefits eingehen müssen, ist der enorme Verwaltungsaufwand. Denn um alle Services und Endpunkte sinnvoll am Laufen zu halten, bedarf es allem voran stabiler Netzwerke. Daher stehen besonders NetOps-Teams (Network Operations) vor einer Reihe von Herausforderungen, die die Verwaltung und der Betrieb der zugrundeliegenden Netzwerkinfrastruktur für Hybrid-Cloud-Umgebungen mit sich bringen.

Multicloud = Multi-Herausforderungen

Eine der größten Herausforderungen ist sicher die Komplexität der Netzwerke. Während Netzwerke früher einfacher gestrickt waren, sind es im Kontext von Hybrid-Cloud-Umgebungen heute hochkomplexe Gebilde – und nicht nur das: sie sind nicht mehr statisch.

Moderne Netzwerkinfrastrukturen skalieren kontinuierlich und bilden teils sekündlich neue Verzweigungen, sowohl horizontal als auch vertikal. Probleme entstehen auch durch die unterschiedlichen grundlegenden Architekturansätze, Tool-Stacks und Terminologien zwischen den verschiedenen Cloud-Providern.

Die Komplexität zieht die zweite große Herausforderung nach sich: die Visibilität. Zwar bieten viele Anbieter von Cloud-Services auch Monitoring- und Logging-Funktionen für ihre abgeschlossene Umgebung an. Aber diese proprietären und Closed-Source-Tools sind natürlich nur auf das Angebot des jeweiligen Providers abgestimmt – das Logging-Tool von Amazon loggt eher keinen Netzwerk-Traffic der Google Cloud und umgekehrt. Die Gefahr ist, dass die Überwachung der gesamten Infrastruktur nicht nur schwieriger wird, sie wird zudem auch inkonsistent.

Die gleiche Unstetigkeit entsteht übrigens auch im Hinblick auf Security Policies und die Compliance: Es ist ungleich schwieriger, sämtliche Cloud-Umgebungen ständig unabhängig voneinander darauf zu prüfen, ob sie den Anforderungen an Datenschutz und Sicherheits-Normen entsprechen sowie im Zweifel bei deren Konfiguration nachzujustieren.

Und selbst wenn alle Einstellungen einwandfrei sind und eine holistische Visibilität über etliche Umwege hergestellt ist, beginnt an dieser Stelle ja erst die Arbeit des NetOps-Teams. In hochkomplexen Hybrid- und Multi-Cloud-Umgebungen ist das Troubleshooting, also das Identifizieren, Priorisieren und Lösen von Problemen ungleich schwieriger als in einem einzigen lokalen Netzwerk. Die verteilte Natur dieser Umgebungen macht die Root-Cause-Analyse zu einem extrem aufwendigen Task, denn die Ursache für Probleme kann durch die vielen Querverbindungen praktisch überall begründet liegen. Zudem entstehen Probleme oft erst durch das nicht reibungslose Zusammenspiel etlicher Komponenten und je größer die gesamte IT-Infrastruktur ist, desto mehr Stellen müssen NetOps-Teams auch zur Behebung aufkommender Fehler anfassen.

Ein holistischer Überblick

Um diese Herausforderungen in den Griff zu bekommen, benötigen Unternehmen zunächst eine funktionierende Ende-zu-Ende-Netzwerkvisibilität. Dazu gehört erst einmal, überhaupt alle Assets zu überblicken, sie brauchen also eine funktionale Network Discovery. Allgemein bedeutet das, alle mit dem Netzwerk verbundenen Geräte, vom Enduser-PC über Router und Switches bis hin zu Druckern, Kameras oder Servern, auf denen die Private-Clouds angesiedelt sind, zu erfassen und die sie verbindenden Netzwerkverbindungen zu mappen. Im Cloud-Kontext bezieht sich der Begriff auch auf die Erkennung von Cloud-Ressourcen, die Überwachung von Sicherheits- sowie Compliance-Richtlinien, die Visualisierung von Cloud-Netzwerk-Topologien, das Monitoring von Interaktionen zwischen einzelnen Cloud-Diensten und die Orchestrierung dieser komplexen Infrastrukturen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Da Downtimes und Netzwerkausfälle unbedingt zu vermeiden sind, ist proaktives Monitoring der Netzwerk-Performance und bestimmter Sicherheitsmetriken ebenfalls ein essenzieller Baustein für den NetOps-Bereich. Regelmäßige Updates der Security-Bemühungen und die konsequente Durchführung von Compliance-Checks gehören ebenfalls zum kleinen Einmaleins für den Netzwerkbetrieb. Unabdingbar ist allerdings nicht nur, die Geräte und Dienste zu überwachen, sondern auch den Traffic innerhalb der Netzwerke sowie den externen Netzwerk-Traffic. Gerade Anwendungen, die nutzerseitig über Public-Clouds angesprochen werden, sind potenzielle Einfallstore für Hacker und Cyberkriminelle.

Automatisierung – dein Freund und Helfer

Es versteht sich von selbst, dass Netzwerke und umfangreiche Cloud-Infrastrukturen heute viel zu komplex sind, um sie manuell zu mappen, zu betreiben und zu überwachen. Hinzu kommt, dass es in modernen IT-Umgebungen nicht nur „gut“, sondern eben auch „schnell“ gehen muss. Natürlich könnte ein Netzwerkadministrator sämtliche Log-Daten von sämtlichen Netzwerkgeräten auswerten, sie in Korrelation zueinander stellen und analysieren, was letztlich zum Netzwerkausfall geführt hat. Bis diese Root-Cause-Analyse durchgeführt ist, vergehen allerdings Stunden, Tage oder sogar Wochen.

Tauchen Probleme auf, reicht es eben nicht nur, sie zu sehen. Ohne die richtigen Tools können NetOps-Teams nicht zeitnah zur Wurzel des Problems vordringen und es schnell und effektiv – sowie permanent – lösen. In Zeiten des Fachkräftemangels ist es außerdem nötig, möglichst viele redundante und Routine-Aufgaben zu automatisieren, da das Personal sonst schnell über der Kapazitätsgrenze agiert. Die richtigen Tools können insbesondere im Bereich der Network Discovery viel Last von den Schultern der NetOps-Teams nehmen und automatisch Visibilität herstellen. Auch beim Monitoring der Performance und des Traffics, der über Netzwerke läuft, spielen die richtigen Tools ihre Stärke aus und versorgen Administratoren gezielt mit wichtigem Kontext – etwa in Form von Visualisierungen – bei Problemen.

Noch besser als reine Automatisierungs-Tools sind elaborierte und KI-basierte Lösungen, die nicht nur sehr schnell die Ursachen von Problemen herausfinden, sondern auch gleich Gegenmaßnahmen einleiten oder zumindest Empfehlungen automatisiert generieren. Durch das proaktive Monitoring von kritischen Anwendungen lassen sich gerade im Cloud-Kontext Probleme erkennen, bevor diese eskalieren und Downtimes hervorrufen. Auch im Hinblick auf die Cybersecurity sind KI-basierte Tools sprichwörtlich Gold wert, denn sie erkennen sofort Gefahren und Anomalien im Netzwerk-Traffic und können im Zweifel die kompromittierte Verbindung oder den User sperren und isolieren.

Unternehmen sollten zudem darauf achten, dass sie nicht nur im Hinblick auf die Cloud einen Vendor Lock-in verhindern, sondern auch bei der Wahl ihrer NetOps-Lösung. Es lohnt sich daher, auf eine holistische Lösung zu setzen, die bereits Out-of-the-Box eine möglichst ganzheitliche Funktionsvielfalt und ein hohes Maß an Automatisierung bietet sowie KI gewinnbringend einsetzt. Die Lösung der Wahl sollte aber auch über offene APIs erweiterbar sein, um gezielt eigene oder Drittanbieter-Tools einzubinden. Auf diese Weise haben Unternehmen die Freiheit, sämtliche Software einzusetzen, die für ihren Netzwerkbetrieb nötig ist, haben aber gleichzeitig eine zentrale Stelle, an der alle Informationen zusammenlaufen. Das Ergebnis ist eine umfassende Observability ihres Netzwerks, die über reines Monitoring hinausgeht und prädiktive sowie präventive Maßnahmen zur Sicherung und den Betrieb erlaubt – vom lokalen On-Premises-Server bis hin zur Private und Public Cloud.

* Der Autor Thomas Schuller ist Regional Director DACH bei Progress.

(ID:50441086)