Ganzheitliche Planung Moderne Cloud-Infrastruktur und ihre Anforderungen

Ein Gastbeitrag von Kerim Satirli* 6 min Lesedauer

Anbieter zum Thema

In einer Welt, die von digitaler Innovation geprägt ist, hat sich die Cloud-Infrastruktur als unverzichtbare Grundlage für Unternehmen jeder Größe etabliert. Von kleinen Start-ups bis hin zu globalen Konzernen hat die Cloud ihre Flexibilität, Skalierbarkeit und Effizienz bewiesen. Doch während die Cloud-Landschaft reift, verändern sich auch die Ansprüche und Herausforderungen, denen Unternehmen gegenüberstehen.

Infrastrukturmanagement in Zeiten anwachsender Hybrid- und Multicloud-Nutzung und dadurch komplexer werdender Netzwerkumgebungen steht vor neuen Herausforderungen.(Bild:  ShpilbergStudios - stock.adobe.com)
Infrastrukturmanagement in Zeiten anwachsender Hybrid- und Multicloud-Nutzung und dadurch komplexer werdender Netzwerkumgebungen steht vor neuen Herausforderungen.
(Bild: ShpilbergStudios - stock.adobe.com)

Unternehmen müssen ihre IT-Infrastruktur transformieren, um den Anforderungen der digitalen Wirtschaft gerecht zu werden. Dabei gilt es, die folgenden fünf Faktoren zu berücksichtigen.

1. Edge: Hin zu Standardisierung und Automatisierung

Die genaue Definition des Begriffs „Edge Computing“ ist eine Herausforderung: Es gibt eine Vielzahl von Ansichten darüber, was damit gemeint ist. Unbestritten ist jedoch, dass Edge-Computing immer mehr Verbreitung und Bedeutung findet. Ein Beispiel: Selbstfahrende Autos benötigen eine komplexe Kombination aus Software und Hardware, um Entscheidungen in Millisekunden zu treffen, ohne vom Internet abhängig zu sein. Der Einsatz von Edge Computing verändert die Art und Weise von Grund auf, wie Teams die Orchestrierung der Infrastruktur angehen müssen.

Mit der Ausbreitung von Edge-Infrastrukturen und ihren Auswirkungen auf die Fragmentierung der IT-Landschaft steigt der Bedarf an pragmatischen Lösungen, die die Verwaltung mehrerer Software- und Hardwareplattformen erheblich vereinfachen. In der Zwischenzeit wachsen Hyperscaler wie AWS, Microsoft Azure und Google Cloud weiter. Das gleiche gilt für spezialisierte Anbieter, die auf bestimmte Branchen, Datenhoheit oder „Near-Cloud“-Infrastrukturanbieter wie Fastly und CloudFlare abzielen. Diese können erweiterte Dienste und Services für Anwendungen mit geringer Latenz bereitstellen. Diese große Auswahl an Anbietern ermöglicht es Unternehmen, die für sie jeweils am besten geeigneten Plattformen auszuwählen, Anwendungen auf verschiedene Anbieter zu verteilen und gleichzeitig einen stabilen Betrieb zu gewährleisten.

Aber es gibt auch Hindernisse. Es bestehen Bedenken, wie die Verwaltung der verschiedenen Plattformanbieter korrekt zusammengeführt werden kann. Gleichzeitig wird die Fragmentierung der Infrastruktur durch eine wachsende Zahl von Vorschriften zur Datenhoheit und durch strengere Datenschutzgesetze weiter vorangetrieben.

Um Multicloud- und Edge-Umgebungen effektiv nutzen zu können, benötigen Unternehmen leistungsstarke, konsistente und hochkomplexe Tools, die den Overhead reduzieren. Sie müssen in der Lage sein, verschiedene Ökosysteme zu verbinden und zu verwalten, um einen ganzheitlichen Ansatz für ihre Infrastruktur zu erhalten. Manuelle Prozesse waren bereits eine große Herausforderung, als es nur eine Handvoll Rechenzentren gab. Mit der explosionsartigen Verbreitung von Public Cloud und Edge Computing gehört die manuelle Verwaltung nun der Vergangenheit an. Unternehmen brauchen jetzt Standardisierung und Automatisierung.

2. Zero Trust rückt an die erste Stelle

Da die Zahl der Endpunkte, Geräte und Anwendungen zunimmt, funktionieren die traditionellen Sicherheitsmodelle, die auf einem „Perimeterschutz“ basieren, nicht mehr, was eine identitätszentrierte Herangehensweise erforderlich macht.

Die Angreifer werden immer raffinierter in ihren Vorgehensweisen. Gleichzeitig gibt es immer mehr Angriffsmöglichkeiten, da die Angriffsfläche zunehmend größer wird. Hinzu kommt, dass wichtige Daten über verschiedene Speicherplattformen verteilt sind.

Dies führt dazu, dass Unternehmen zu einem identitätsbasierten Ansatz übergehen, bei dem jeder Benutzer, jede Arbeitslast und jedes Gerät kontinuierlich authentifiziert wird, um einen sicheren Zugang zu gewährleisten – die sogenannte Zero-Trust-Architektur. Passwörter, API-Schlüssel und ähnliche Daten müssen sorgfältig verwaltet werden, um sicherzustellen, dass sie vertraulich und gut geschützt bleiben und nur den Mitarbeitern zugänglich sind, die sie wirklich benötigen. Die Umsetzung dieses Konzepts nimmt mehrere Jahre in Anspruch und hat tiefgreifende Auswirkungen auf Menschen, Prozesse und Tools.

3. Vernetzung – Strategien für zunehmende Komplexität

Die Umstellung auf Multicloud- und hybride Infrastrukturen vergrößert das Ausmaß und die Komplexität des Netzwerks. Dies erschwert Betreibern und Sicherheitsteams die Fehlerbehebung und den sicheren Zugriff.

Was den Netzwerkansatz betrifft, so hat Software die Verwendung physischer Hardware für Routing und Middleware-Schichten wie Anwendungs-Firewalls, Load Balancers und API-Gateways ersetzt. Oft müssen Sicherheitsteams herausfinden, wie sie verteilte Netzwerke verwalten können, in denen der Datenverkehr viel komplexer ist als in der Vergangenheit. Tools wie Software-definierte Netzwerke, Netzwerk-Overlays und Service-Meshes werden eingesetzt, um den Zugang zu verwalten und das Risiko zu mindern. Diese Ansätze sind jedoch nicht einheitlich – es gibt keine Musterlösung, die in allen Situationen gleich gut funktioniert. Unternehmen verwenden oft mehr als eine dieser neuen Methoden – neben traditionellen Ansätzen wie Firewalls und Vermittlungsschichten.

In der Branche besteht kein Konsens darüber, wie diese Probleme gelöst werden können. In der Zwischenzeit gehen Anwendungs- und Plattform-Teams diese Herausforderungen isoliert an, was die bereits zersplitterte Umgebung weiter fragmentiert und die Arbeit der Betreiber und Sicherheitsteams erschwert, die mit der Fehlerbehebung von Anwendungen und der Sicherung von Endpunkten betraut sind.

Die Alternative ist oft ein Ad-hoc-Mix aus Technologien und manuellen Prozessen, der die Geschwindigkeit und Sicherheit der Infrastruktur beeinträchtigt. Wie bei vielen anderen Herausforderungen ist auch hier ein standardisierter Ansatz die Lösung. Die Automatisierung der Netzwerkverwaltung reduziert die Komplexität und vereinfacht den Prozess der Netzwerksicherheit.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

4. Interne Entwicklerplattformen für Best Practice

Angesichts der Anforderungen an die Entwicklerproduktivität richten immer mehr Unternehmen interne Entwicklerplattformen ein, um die Komplexität der Infrastruktur zu reduzieren. Diese internen Plattform-Teams definieren Templates, die Best Practices bereitstellen, um sicherzustellen, dass Unternehmen die geltenden Sicherheits- und Compliance-Kontrollen einhalten. Auf diese Weise wird die Entwicklung beschleunigt, ohne dass ein Plattform-Team die Kontrolle über die zugrunde liegenden Prozesse abgeben muss.

Mit dem Aufkommen dieser Self-Service-Portale entstehen jedoch neue Herausforderungen. Moderne Anwendungen bestehen nämlich immer aus einer Mischung verschiedener, miteinander verbundener Cloud-Dienste. Das bedeutet, dass die meisten Systeme nicht in einer geschlossenen Umgebung erstellt oder geändert werden können.

Stattdessen müssen Unternehmen in der Lage sein, die Entwicklung durch isolierte Cloud-Umgebungen für kurzfristige Tests zu ergänzen. Darüber hinaus brauchen Unternehmen eine Möglichkeit, all diese Komponenten nahtlos zu verwalten, um die Fehlersuche zu erleichtern.

5. Nächster Halt: Infrastrukturmanagement und generative KI

Um diese Komplexität zu bewältigen und die Produktivität von Entwicklern und Betreibern zu steigern, ist eine Automatisierung erforderlich. Generative KI hilft beim erfolgreichen Infrastrukturmanagement.

Angesichts all dieser Herausforderungen haben Unternehmen Schwierigkeiten, die richtigen Fachkräfte zu finden, die sie bei der Verwaltung unterstützen. Gleichzeitig versuchen sie, KI-Anwendungen der nächsten Generation schneller denn je zu implementieren. Dies ist einer der Gründe, warum Infrastructure-as-Code (IaC) so schnell an Bedeutung gewinnt. IaC sorgt für konsistente Arbeitsabläufe bei der Bereitstellung und Verwaltung der Infrastruktur, so dass die Betriebs-Teams wissen, was sie zu erwarten haben, und leichter erkennen können, wenn etwas schiefläuft. Auch die zunehmende Nutzung von Self-Service-Portalen wird die technischen Teams entlasten.

Die enorme Zunahme des Codevolumens wird durch KI und den Einsatz natürlicher Sprache in Zukunft von Menschen bewältigt, die keine Experten mehr sind. Dies erhöht jedoch den Druck auf Sicherheit und Compliance. Verstärkt wird dies durch neue KI-Tools, die es den Nutzern ermöglichen, ihre Infrastruktur automatisch zu erstellen.

Unternehmen benötigen einen zentralisierten Ansatz für ihre Infrastruktur, damit Sicherheitsteams Schwachstellen leichter überwachen und lokalisieren und Governance-Teams Richtlinien sowie Kontrollen durchsetzen können. KI kann Entwickler und Betriebs-Teams dabei unterstützen, z.B. automatisch Probleme zu erkennen, die dann von Mitarbeitern mit spezifischem Fachwissen gelöst werden können. So lassen sich Probleme schneller und sicherer lösen, so dass die Teams mehr Zeit für die Entwicklung von Anwendungen haben, die die Kunden zufriedenstellen und das Unternehmen voranbringen.

Das Ganze ist die Summe aller Teile

Für Unternehmen jeder Größe ist der Ausbau der Cloud-Infrastruktur ein langfristiges Projekt. Dabei gilt es, von Edge über Zero Trust, über die Vernetzung und interne Entwicklerplattformen bis hin zu generativer KI und Infrastrukturmanagement alle relevanten Aspekte im Blick zu behalten, damit die Transformation der Cloud-Infrastruktur den Herausforderungen der digitalisierten Geschäftswelt Rechnung trägt.


* Der Autor Kerim Satirli ist Senior Developer Advocat bei HashiCorp. In dieser Rolle coacht er Betreiber und Entwickler im Bereich nachhaltige Infrastruktur und Orchestrierungs-Workflows. Vor seiner Tätigkeit für HashiCorp arbeitete Satirli für das industrielle IoT am Amsterdamer Flughafen und unterstützte Museen dabei, einen größeren Teil ihrer Sammlungen online zu präsentieren.

Bildquelle: HashiCorp

(ID:50103273)