Mit der Hybrid Cloud zum digitalen Unternehmen Cloud Computing als Schlüsseltechnologie der Digitalisierung

Ein Gastbeitrag von Heiko Kaden* 5 min Lesedauer

Anbieter zum Thema

Eine Hybrid-Cloud ist für Unternehmen und Organisationen ein probates Mittel, um die Digitalisierung voranzutreiben. Doch damit der Aufbau einer hybriden IT-Umgebung klappt, müssen Anwender mehrere Faktoren berücksichtigen: vom Datenmanagement bis zur Portierung von Workloads und die Auslagerung des Betriebs an einen Dienstleister.

Vor allem mittelständische und größere Unternehmen sehen in Cloud Computing ein Mittel, die Digitalisierung voranzutreiben und ihre Agilität zu erhöhen. (Bild:  Василь Чейпеш - stock.adobe.com)
Vor allem mittelständische und größere Unternehmen sehen in Cloud Computing ein Mittel, die Digitalisierung voranzutreiben und ihre Agilität zu erhöhen.
(Bild: Василь Чейпеш - stock.adobe.com)

Bereits 84 Prozent der Unternehmen in Deutschland nutzen Cloud-Services. Weitere 13 Prozent sind in der Planungs- und Diskussionsphase. Das ist ein Ergebnis der Studie „Cloud-Monitor 2022“ des Beratungsunternehmens KPMG. Vor allem der Mittelstand und größere Unternehmen sehen in Cloud-Diensten ein Mittel, um die Digitalisierung voranzutreiben, die Agilität zu erhöhen und die Zusammenarbeit mit Partnern und Kunden zu optimieren. Außerdem wollen sie mithilfe der Cloud Kosten sparen und die CO2-Emissionen verringern.

Wer eine Cloud-Strategie verfolgt, sollte jedoch berücksichtigen, dass das Resultat in der Regel keine homogene Cloud-Umgebung ist, sondern eine hybride IT-Infrastruktur mit mehreren Bereitstellungsplattformen: dem Unternehmensrechenzentrum (On-Premises), Public-Cloud-Ressourcen, Co-Location-Datacentern und Managed Services. Bedürfnisse von Unternehmen können hier sehr unterschiedlich sein.

Schritt für Schritt in die hybride Cloud

Bei der Planung, Implementierung und dem Betrieb einer solchen hybriden IT-Umgebung sind mehrere Punkte zu berücksichtigen. Dazu zählt eine übergreifende Datenstrategie. Im ersten Schritt gilt es zu prüfen, wo welche Daten gespeichert werden können, etwa in einer Public Cloud oder on-premises. Ein Kriterium ist, wie schnell die Daten verfügbar sein müssen.

Sollen beispielsweise im Rahmen eines Predictive-Maintenance-Dienstes Echtzeitdaten wie die Temperaturentwicklung bei Werkzeugmaschinen ausgewertet werden, kommt ein weit entferntes Cloud-Rechenzentrum nicht infrage. Die Analyse würde wegen der Zeitverzögerung beim Datentransport zu lange dauern. In diesem Fall können Edge-Systeme, etwa der Reihe Fujitsu Intelliedge, und Edge-Datacenter eine erste Auswertung der Informationen vornehmen.

Data Fabric für optimale Platzierung der Datenbestände

Ein zweiter Faktor ist die Einhaltung von Compliance- und Datenschutzregelungen wie der Datenschutz-Grundverordnung (DSGVO) oder EuGH/Schrems II. Bei sensiblen Geschäftsdaten und personenbezogenen Informationen kann es erforderlich sein, diese on-premises beziehungsweise in einer Private Cloud zu speichern. Eine Alternative sind Public-Cloud-Datacenter, die in einem EU-Mitgliedsstaat angesiedelt ist.

Die Kontrolle darüber, wo welche Daten abgelegt werden, ermöglicht eine plattformübergreifende Data Fabric, wie sie beispielsweise unser langjähriger Partner NetApp anbietet. Sie stellen ein erweitertes Storage- und Datenmanagement für Hybrid- und Public-Cloud-Umgebungen bereit. Nutzer haben dadurch die Möglichkeit, Daten dort zu speichern, wo es unter den Aspekten Performance, Kosten, Compliance und Datenschutz optimal ist.

Compliance von Cloud-Diensten prüfen

Ergänzend dazu sind Lösungen erforderlich, mit denen Unternehmen kontrollieren können, ob auch die Cloud-Services regulatorischen Vorgaben entsprechen. Zu diesen Regelungen zählen beispielsweise die Anforderungen, die das Bundesamt für Sicherheit in der Informationstechnik (BSI) in der Verordnung KRITIS-V für Betreiber kritischer Infrastrukturen festgelegt hat.

In Hybrid-Cloud-Umgebungen lässt sich das mit speziellen Tools umsetzen. Sie führen ein Monitoring durch, erkennen proaktiv, wo Performance-Engpässe drohen und unterstützen Anwender dabei, deren Ursachen zu beseitigen. Weiterhin dienen sie der Lokalisierung sensitiver Daten und deren Management. Zudem bieten solche Lösungen einen Schutz vor Cyber-Risiken auf mehreren Leveln. Dazu zählen Vorkehrungen und Handhabung von Angriffen mit Verschlüsselungs-Trojanern (Ransomware) – Maschine Learning basierte Identifizierung von Angriffen und Automatisierung von Maßnahmen bei Erkennung, sowie unterstütze Datenwiederherstellung nach einer Attacke ergänzen Backup Maßnahmen sinnvoll auf Hardware-Basis und zur Kontrolle von Benutzerverhalten.

Welche Workloads sich in die Cloud verlagern lassen

Zu den wichtigsten Fragen zählt, welche Workloads sich in eine Cloud verlagern lassen und wie das zu bewerkstelligen ist. Eine Option ist, Anwendungen mittels eines Re-Hostings („Lift and Shift“) in eine Public- oder Managed-Cloud zu portieren. Statt der Systeme im eigenen Rechenzentrum kommen dann Server, Netzwerk, Storage-Systeme oder Datenbanken in einer Cloud zum Zuge. Die Anwendungsarchitektur bleibt weitgehend unverändert. Letzteres ist auch beim Re-Platforming („Lift and Re-Shape“) der Fall. Dabei werden Teile einer Workload in Container gepackt und als Microservice ausgeführt. Auch diese Ansätze erfordern eine Data Fabric in Verbindung einer Datenmanagement-Software.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Die Einführung Cloud-nativer Anwendungen wiederum lässt sich beschleunigen, wenn ein Shared-File-Service für Container und Virtual Machines zum Einsatz kommt. Ein Beispiel ist NetApp Astra Data Store. Er kombiniert ein API-First-Modell, einen Fileservice und ein Datenmanagement mit dynamisch skalierbaren Storage-Ressourcen (Scale-out), welche in jeder der HyperScaler-Clouds und auch in einer On-Premises-Umgebung funktioniert. Zu den Vorteilen von Lösungen wie Astra Data Store zählt die Portabilität von Daten und Anwendungen über Cluster sowie Hybrid- und Multi-Cloud-Umgebungen hinweg.

Management und Kostenkontrolle

Weiterhin sollten Nutzer klären, welche Werkzeuge für die Kostenkontrolle und das Management einer Hybrid-IT-Umgebung infrage kommen. Essenziell sind zentrale Management- und Orchestrations-Lösungen, mit denen Nutzer alle Ressourcen in einer (Multi-)Hybrid-Cloud erfassen und verwalten können: Computer und Storage-Systeme. Das lässt sich beispielsweise mit Management-as-a-Service erreichen, welche die gesamte Hybrid-IT-Umgebung erfassen und optimieren.

Backup nicht vergessen!

Nicht zuletzt wegen der allgegenwärtigen Cyber-Risiken und Ransomware-Attacken dürfen hybride Data-Protection-Lösungen nicht übersehen werden, die On-Premises- und Cloud-Ressourcen gleichermaßen berücksichtigen. Mit NetApp Cloud Backup können zum Beispiels mittels extrem schneller und sehr platzsparender Snapshot- und Datenreduktions-Mechanismen Datenkopien erstellt und in einen Cloud-Speicher gesichert werden. Die Sicherung und Wiederherstellung geschieht auf Blocklevel-Basis direkt aus dem Speichersystem heraus, was geringste Datentransfers und kürzeste Sicherungszeiten erlaubt. Es lassen sich damit auch Sicherungen nach der 3-2-2-Regel mit einem Air-Gap durchführen. Wichtig ist, dass eine solche Lösung das granulare Sichern und Wiederherstellen von Daten und Virtual Machines ermöglicht, und zwar lokal und in der Cloud.

Für die allgemeine Verfügbarkeit bietet sich der Aufbau einer Desaster-Recovery-Lösung an; auch dazu eignen sich Cloud-Lösungen, um für den Fall der Fälle aktuelle Datenbestände an alternativen Plätzen zu halten und aus Kostengründen erst im Bedarfsfall zu aktiveren.

Unterstützung für Aufbau und Betrieb holen

Doch mit Lösungen wie einer Data Fabric und einem Cloud-Management ist es nicht getan. Ebenso wichtig ist, eine maßgeschneiderte Strategie für den Weg in die Hybrid-Cloud zu entwickeln und umzusetzen. Das erfordert ein spezielles Know-how und vor allem ein Zeitbudget, über das viele IT-Abteilungen nicht verfügen. Daher ist es eine Überlegung wert, auf die Expertise von IT-Dienstleistern zurückzugreifen. Sie erstellen zusammen mit dem Nutzer eine Cloud-Migrationsstrategie und sind in der Lage, mit Unterstützung ihrer Partner bestehende Workloads in eine Hybrid-Umgebung zu überführen. Auch dann, wenn sich ein Anwender für einen Cloud-First- oder Cloud-Only-Ansatz entscheiden sollte.

Damit der volle Nutzen einer Hybrid-Cloud zum Tragen kommt, übernehmen Dienstleister dabei zudem die Aufgabe, Anwendungen, Workloads und die IT-Infrastruktur anzupassen und zu modernisieren. So stellen wir ein reichhaltiges Portfolio von integrierten und hyperkonvergenten Infrastruktursystemen zur Verfügung. Damit lässt die vorhandene IT-Umgebung mit überschaubarem Aufwand auf eine neue, zukunftsorientierte Grundlage stellen.

Um den Wandel zu einem datenorientierten Unternehmen zu beschleunigen, kommt eine weitere Option in Betracht: der Betrieb einer Hybrid-Cloud durch einen externen Dienstleister im Rahmen eines Managed Service. Dies entlastet die Mitarbeiter im IT-Bereich und erlaubt es ihnen, sich auf ihre Kernaufgabe zu konzentrieren: Prozesse und Services zu digitalisieren und neue digitale Geschäftsmodelle mitzugestalten.


* Der Autor Heiko Kaden ist Business Development Manager, Category Management DataCenter, Central Europe Fujitsu.

Bildquelle: Fujitsu

(ID:48969471)