Im Fokus: Cloud Storage 5 Tipps für cloud-basiertes Backup
Anbieter zum Thema
„Cloud Storage“ hat die unterschiedlichsten Facetten. In dieser Artikelreihe bieten wir einen mosaikartigen Überblick und gehen nicht zuletzt der Frage nach: Welche Cloud-Speicherstrategie eignet sich am besten für mein Unternehmen? Der vorliegende Gastbeitrag beschäftigt sich mit dem Thema „Cloud-basiertes Backup“.

Laut Gartner wird der weltweite Markt für öffentliche Cloud-Dienste im Jahr 2022 auf 331,2 Milliarden US-Dollar wachsen. Bis 2021 werden 90 Prozent der Unternehmen Cloud-basierte Dienste einsetzen. Viele Unternehmen verwenden die Cloud für Basisdienste wie Speicher und E-Mail. Aber auch die Nutzung der Cloud als Infrastructure-as-a-Service (IaaS) und Platform-as-a-Service (PaaS) nimmt zu. Bei der Omnipräsenz der Cloud wird aber oft vergessen, dass auch sie von Hardware abhängt und diese Hardware ausfallen kann. Es gibt keine absolute Gewissheit, dass die gespeicherten Daten sicher sind, und Unternehmen sind gut beraten, geeignete Vorsichtsmaßnahmen zu treffen, beispielsweise mit einem cloud-basierten Backup.
Generell muss beim cloud-basierten Backup zwischen zwei Kategorien unterschieden werden: einerseits dem Replizieren von Onsite-Backups in die Cloud und andererseits der Sicherstellung der Redundanz für Daten, die in der Cloud gespeichert oder sogar erstellt wurden – also die Sicherung einer Cloud in eine andere. Folgende fünf Methoden für cloud-basierte Backups und Wiederherstellung haben sich dabei bewährt:
Primäres Ziel ist die Einhaltung von RTO und RPO
Ohne Wiederherstellungsziele ist es schwierig, eine effektive Cloud-Backup-Strategie zu erstellen, denn sie bilden die Grundlage für jede Entscheidung über die Sicherung. Diese Ziele helfen auch dabei, zuvor festgelegte Maßnahmen zur Reduktion der Ausfallzeiten nach einem Fehlerereignis zu ergreifen. Im Vorfeld sollten sich Unternehmen deshalb über zwei Punkte im Klaren sein: Erstens, wie schnell nach einem Ausfall die Daten wiederhergestellt werden müssen (RTO, Recovery Time Objective), bevor Ausfallzeiten zu teuer werden. Die RTO bestimmt maßgeblich die Konfiguration und die benötigte Geschwindigkeit der gesamten Datensicherungsstruktur. Zweitens, wie viele Daten zwischen dem letzten Backup und dem Restore verloren gehen dürfen (RPO, Recovery Point Objective). Die Definition des RPO gibt Auskunft darüber, wie oft eine Datensicherung durchgeführt werden muss (zum Beispiel minütlich, stündlich, täglich, wöchentlich), um den Datenverlust zwischen der letzten Sicherung und einem Fehlerereignis zu minimieren.
Redundanz ist ein Muss
Backups sind absolut erforderlich, und je nachdem, wo und wie diese gespeichert sind, ist es ratsam, zusätzliche Kopien dieser Sicherungen zu erstellen. Wenn ein Server auf einem Speichersystem gesichert wird, das sich am selben Ort befindet, ist zwar auf den ersten Blick eine sehr schnelle Wiederherstellung möglich, allerdings sind beispielsweise bei einer Überschwemmung oder einem Brand beide Geräte höchstwahrscheinlich unbrauchbar.
Der Vorteil der Sicherung in der Cloud besteht darin, dass Daten geschützt außerhalb des Standorts gespeichert werden können und damit vom lokalen, physischen Speicher unabhängig sind. Daher gilt: Backups sollten lokal gespeichert und aus Redundanzgründen an einen entfernten Standort repliziert werden.
Darüber hinaus gilt es zu entscheiden, ob die Backup-Kopien, die in der Cloud gespeichert sind, zusätzlich auf eine andere Site repliziert werden sollten. Cloud-Anbieter garantieren zwar redundante Systeme, aber sie sind nicht unfehlbar. Deshalb sollte man bei sensiblen und geschäftskritischen Backup-Daten kein Risiko eingehen. Um die höchstmögliche Sicherheit zu gewährleisten, sollte man Backups lokal sichern, in die Cloud replizieren und wichtige Daten zusätzlich an einen weiteren Ort spiegeln.
Nicht akzeptabel: Datenverlust und lange Ausfallzeiten
Die Redundanz soll gewährleisten, dass Daten sicher sind, egal, was passiert. Für Unternehmen entsteht meistens dann ein Schaden, wenn ihre Systeme nicht mehr erreichbar sind. Daher ist es mindestens so wichtig, dass der Zugriff auf die Daten möglichst ohne Unterbrechung gewährleistet ist. Die Unternehmen müssen sich also vorher genau überlegen, wie sie wieder zur Business-Normalität zurückkehren können und von welchen Ereignissen sie sich möglicherweise „erholen“ müssen.
Nicht alle Systeme und Daten müssen gleich behandelt werden
Datenspeicher ist billiger als je zuvor, aber das ist kein Grund, Platz zu verschwenden. Eine effektive Cloud-Backup-Strategie umfasst häufig unterschiedliche Ansätze für verschiedene Arten von Daten und Systemen. Zur Entscheidungsfindung für den einen oder anderen Ansatz lohnt ein genauerer Blick auf die Daten und Systeme:
- Welche Daten sind am kritischsten? Möglicherweise sollen lebenswichtige Daten auf eine zweite Cloud-Site gespiegelt werden.
- Welche Daten sollen archiviert werden? Werden die Daten nicht oft benötigt, können sie auch in einem Archivspeicher abgelegt werden, der häufig kostengünstiger ist.
- Welche Systeme müssen unterbrechungsfrei laufen? Basierend auf den Geschäftsanforderungen, hat jedes System eine unterschiedliche Toleranz für Ausfallzeiten. Man sollte sich nicht nur überlegen, welche Daten zuerst wiederhergestellt werden müssen, sondern auch, welche Systeme während einer Wiederherstellung Vorrang haben, damit die Business Continuity auf jeden Fall gesichert ist.
Recovery Cloud auf dem Prüfstand
Viele Unternehmen setzen auf ein eigenes Rechenzentrum, andere nutzen ausschließlich Cloud-Dienste, oder sie nutzen beides. Wie auch immer die Infrastruktur gestaltet ist, es lohnt, darüber nachzudenken, ob die Cloud-Dienste, die man im Einsatz hat, den Ansprüchen genügen. Viele bieten zwar Basisfunktionen an, sind jedoch nicht für komplexe Recovery-Anforderungen ausgelegt. Deshalb sollten diese Dienste auf dem Prüfstand stehen und Antworten auf folgende Fragen liefern:
- Wie gut lässt sich die Lösung in die aktuell eingesetzte Backup-Lösung integrieren?
- Bietet der Cloud-Dienst Archivierungs-, Spiegelungs- und andere Premiumoptionen?
- Können Daten im Notfall direkt aus der Cloud wiederhergestellt werden?
- Ist die Lösung einfach zu verwalten – auch per Remote-Zugriff?
- Wie effizient werden Backups übertragen und synchronisiert? Können Seed-Laufwerke verwendet werden, um Daten schneller zu sichern?
- Gibt es eine Möglichkeit, Daten zu sichern und wiederherzustellen, die in Cloud-basierten Anwendungen wie G Suite oder Office 365 erstellt wurden?
- Gibt es eine Garantie des Anbieters, dass eine Wiederherstellung auf jeden Fall vorgenommen werden kann?
- Stehen Failover-Funktionen für ein System oder ein komplettes Netzwerk zur Verfügung, und ist das Failover auch ohne einen zusätzlich nötigen Eingriff des Anbieters möglich?
- Wie sieht die Verfügbarkeit des Anbieters aus?
- Verstehen die Mitarbeiter des Anbieters Backup und Recovery gut genug, um das Unternehmen sicher durch eine Krise zu bringen?
Spezialisten an Bord holen
Die meisten Unternehmen verwenden eine Mischung aus lokalem Speicher und Cloud. Es ist essenziell, dass Daten gesichert sind und jederzeit zur Verfügung stehen – unabhängig davon, wo Daten erzeugt und gespeichert werden. Dies ist für IT-Teams keine leichte Aufgabe, da sie sich gleichzeitig um viele weitere Aspekte im Rechenzentrum kümmern müssen. Um die Datensicherheit für Unternehmen in einem höchstmöglichen Maß zu garantieren, werden daher zunehmend externe Managed Service Provider (MSP) hinzugezogen. Mit ihrem umfangreichen Spezialwissen können sie die optimale Struktur für Backup und Wiederherstellung beziehungsweise das Disaster Recovery einrichten und betreiben – unter Einsatz von geeigneten Lösungen, wie beispielsweise den StorageCraft Cloud Services. Denn die individuell passende Kombination aus lokalen und Cloud-basierten Datensicherungslösungen verringert die Wahrscheinlichkeit, dass Daten im Ernstfall verloren gehen oder kostspielige Ausfallzeiten entstehen.
* Der Autor: Florian Malecki ist International Product Marketing Senior Director bei StorageCraft.
(ID:46994884)