Unternehmensanwendungen in der Cloud

Unternehmensanwendungen mit Cloud-Diensten verknüpfen

| Autor / Redakteur: Thomas Hafen / Rainer Graefen

Collaboration mit der Cloud: Innerhalb des Unternehmens wandern die Daten zwischen den diversen Tiers oder alternativ migrieren sie in die Cloud
Collaboration mit der Cloud: Innerhalb des Unternehmens wandern die Daten zwischen den diversen Tiers oder alternativ migrieren sie in die Cloud ( Quantum)

Immer mehr Unternehmen verlängern ihre IT in die Cloud. Bei einer Umfrage des Marktforschungsunternehmens IDC aus dem Jahr 2014 hatten zwar nur 15 Prozent dieses hybride Cloud-Modell bereits im Einsatz, aber mehr als die Hälfte der Befragten planten in den kommenden 12 bis 24 Monaten den Aufbau hybrider Cloud-Umgebungen.

Dass der Einstieg nicht ganz einfach wird, ist den Befragten klar. Die Komplexität der hybriden IT-Umgebung (35 Prozent) und die Integration der eigenen IT mit den Cloud-Modellen (32 Prozent) wurden als größte Herausforderungen genannt.

Einsatzszenarien für Cloud-Dienste: Backup, Archivierung und DR

Am einfachsten lassen sich Cloud-Services bei Disaster Recovery (DR), Backup und Archivierung einsetzen. Bei DR sind auch im traditionellen Betrieb mehrere Rechenzentren beteiligt, oft über große Entfernungen hinweg, bei Backup und Archivierung spielen Latenzen und I/O-Performance keine, der Durchsatz eine untergeordnete Rolle.

Spannender ist die Frage, wie es mit dem Datenschutz aussieht, sofern Cloud-Dienste amerikanischer Anbieter wie Amazon Web Services (AWS), die Google Cloud Platform oder Microsoft Azure zum Einsatz kommen. Nach dem Urteil des Europäischen Gerichtshofes zu Safe Harbor ist die rechtliche Lage unklar und dürfte es selbst dann bleiben, wenn die Details zum Safe-Harbor-Nachfolger „Privacy Shield“ ausgehandelt sind. Wer personenbezogene Daten in die genannten Dienste auslagert, sollte deshalb tunlichst verschlüsseln und das möglichst schon Client-seitig vor der Übertragung.

Anbieter im Cloud-Dschungel

Ein Backup- und DR-Service, der Ressourcen aus der Public Cloud nutzt, ist Quantums „Q-Cloud Protect“ aus dem AWS Marketplace. Der Dienst setzt auf einer – physischen oder virtuellen – lokalen Quantum DXi-Backup-Appliance mit Deduplizierung auf. Diese verschlüsselt die Daten mit 256 Bit AES, bevor sie diese in die Cloud repliziert. Durch die Deduplizierung sollen sich die erforderliche Kapazität und der Bandbreitenbedarf gegenüber nicht reduzierten Daten um bis 90 Prozent verringern lassen.

Ebenfalls auf AWS setzt Zerto mit seiner „Zerto Virtual Replication for Amazon AWS“. Das Unternehmen verspricht für VMware- und Hyper-V-Umgebungen Continuous Data Protection mit RPOs im Sekundenbereich. Anders als bei Quantum kann man die Replikation allerdings nicht aus dem Marketplace starten, sondern muss zunächst auf einem Amazon Machine Image (AMI) einen Windows Server 2012 R konfigurieren, auf dem die Zerto Cloud Appliance (ZCA) installiert wird. Zerto definiert automatisch einen S3-Bucket zur Speicherung der replizierten Daten. Für die Replikation ist nur eine EC2-Instanz notwendig, auf der die ZCA läuft. Bei Failover-Tests, einem tatsächlichen Failover oder wenn die VMs in die Cloud migriert werden sollen, importiert Zerto die S3-Objekte automatisch in EC2 und konvertiert sie zu Virtuellen Maschinen.

Big Data in der Cloud

Ein weiterer Einsatzzweck, für den sich Cloud-Dienste besonders gut eignen, sind Big-Data-Analysen. Das gilt vor allem dann, wenn die zu analysierenden Informationen ohnehin schon online sind, etwa Social Media Feeds, E-Commerce-Daten, öffentliche Daten wie Wettervorhersagen und Verkehrsinformationen oder auch die Online-Datenbanken der Security-Anbieter über aktuelle Bedrohungen.

AWS, die Google Cloud Platform und Microsoft Azure, aber auch viele andere Cloud Provider bieten zudem die Möglichkeit, Hadoop-Cluster schnell auf- und wieder abzubauen. Das hat immer dann Vorteile, wenn bestimmte Analysen zeitlich begrenzt oder nur zu bestimmten Stichtagen gefahren werden, also in Forschung und Entwicklung oder im Controlling bei Quartals- und Jahresabschlüssen.

Kontinuierliche Auswertungen in der Cloud laufen dagegen ins Geld. Hier kann sich der Aufbau eines eigenen Hadoop-Clusters schnell lohnen. Das ist auch immer dann angeraten, wenn die Daten das Unternehmen nicht verlassen oder dort in Echtzeit verarbeitet werden sollen. Zwar gibt es prinzipiell Möglichkeiten, Daten verschlüsselt zu übertragen und dennoch in einer Cloud-Datenbank bearbeiten zu können, etwa das quelloffene Eperi Gateway. Latenzen und Performance-Einbußen machen aber zumindest eine Echtzeitverarbeitung unmöglich.

Wo Hybrid Cloud nicht funktioniert

Agile Softwareentwicklung, der Trend zu SOA und Micro Services und die „Appification“ der Programme erleichtert deren Einsatz in hybriden Umgebungen enorm. Latenzen oder kurzfristig nicht zur Verfügung stehende Ressourcen sind für diese Lösungen kein Problem. Selbst wenn ein Microservice abstürzt oder der Datenfluss stockt, gefährdet das nicht die gesamte Applikation. Vorsicht ist eigentlich nur noch bei sehr alten Systemen und exotischen Eigenentwicklungen geboten.

Selbst die klassischerweise leistungshungrigen, latenzempfindlichen und komplexen ERP-Lösungen sind mittlerweile cloud-fähig geworden. SAP beispielsweise stellt Lösungen wie Business One oder Business Objects, ja sogar HANA über AWS zur Verfügung.

Dennoch können Latenzen problematisch werden, etwa in Finanztransaktionssystemen. Eine Möglichkeit ist es dann, den Enterprise Storage in die Nähe des Cloud-Rechenzentrums zu bringen, wie dies Netapp mit „Private Storage für Amazon Web Services“ tut. Der Anbieter stellt dazu eine FAS beziehungsweise ein Flexarray in ein externes Rechenzentrum, beispielsweise von Equinix, das direkt mit der AWS-Cloud verbunden ist. Die zwangsläufig sich addierenden Latenzen sollen selbst für Enterprise Workloads wie Oracle Database oder Microsoft SQL Server unproblematisch sein.

Das Management hybrider Umgebungen

Die sinnvolle Nutzung ergänzender Public-Cloud-Services steht und fällt mit einer geeigneten Infrastruktur im eigenen Rechenzentrum. Wer auf Silos physikalischer Server baut, dürfte Cloud-Services kaum sinnvoll integrieren können. Lösungen wie die erwähnte CDP/DR-Lösung von Zerto setzen zwingend eine mit Hyper-V oder vSphere virtualisierte Umgebung voraus. Virtualisierung macht aus einem Rechenzentrum noch keine (Private) Cloud, hilft aber enorm bei der Integration von Cloud-Services.

VMware kann virtuelle Maschinen sogar im Live-Betrieb in die Cloud verschieben. Derzeit klappt das allerdings nur mit der hauseigenen „vCloud Air“. Wer sich auf den Vendor Lock-in einlässt, hat noch mehr Vorteile. Er kann nämlich seine komplette virtuelle Infrastruktur über vCenter managen, egal ob die Maschinen im eigenen Rechenzentrum oder in der Cloud werkeln. Wer dagegen andere Anbieter oder gar Services verschiedener Public Clouds nutzen möchte, kommt um eine zusätzliche Managementschicht nicht herum.

Mittlerweile hat sich ein eigener Markt an sogenannten Hybrid Cloud Management Solutions ausgebildet (HCMS). Auf ihm tummeln sich bekannte Namen wie Dell mit dem Cloud Manager, aber auch ganz neue Player wie RightScale, CliQr oder Scalr.

Fazit

Ist das eigene Rechenzentrum ein Auslaufmodell und die Cloud das Allheilmittel der Wahl? Die Antwort ist ein klares „Jein“. Für die allermeisten Unternehmen mit weniger als 500 Mitarbeitern dürfte sich ein eigenes Rechenzentrum über kurz oder lang nicht mehr lohnen. Es ist einfach zu unflexibel, bindet zu viele Ressourcen und stellt außerdem ein erhebliches Sicherheitsrisiko dar.

Bei aller Diskussion um den Datenschutz in der Cloud darf man nämlich nicht vergessen, dass es die meisten KMU in Sachen Security-Expertise kaum mit den großen Anbietern aufnehmen können. Große Konzerne und Unternehmen mit sehr speziellen Anforderungen werden auch weiter eine eigene Infrastruktur betreiben und diese wo nötig um Public-Cloud-Services erweitern. Das gilt auch für Branchen wie die Finanzdienstleister, in denen hohe Compliance-Hürden einer Komplett-Cloudifizierung entgegenstehen.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44075114 / Virtualisierung)