Online-Umfrage zum CeBIT-Kompendium „Backup & Recovery“ von Storage-Insider.de, Teil 4 „Snapshots erzeugen einen massiven Hardware-Bedarf“

Autor / Redakteur: Stefan Utzinger / Rainer Graefen

In Kürze erscheint das Kompendium „Backup & Recovery“ von Storage-Insider.de. Die Redaktion hat im Vorfeld Backup-Spezialisten nach ihrer Einschätzung zu aktuellen Trends gefragt. Hier sind die Antworten von Stefan Utzinger, CEO von Novastor.

Firmen zum Thema

Stefan Utzinger, CEO von Novastor
Stefan Utzinger, CEO von Novastor
(Bild: Novastor)

Storage-Insider.de setzt die erfolgreiche Kompendien-Reihe fort. Die nächste Ausgabe widmet sich den Themen Backup, Disaster Recovery und Archivierung und wird zur CeBIT 2013 (5. bis 9. März, Hannover) in gedruckter Form erscheinen (hier geht es zum PDF-Archiv vorangegangener Ausgaben). Wir haben Novastors CEO Stefan Utzinger nach seinen Einschätzungen zum Thema Backup befragt.

Storage-Insider.de: Warum sind Backup-Konzepte wie GFS – Grandfather-Father-Son – oder Tower of Hanoi heutzutage nicht mehr sinnvoll anzuwenden?

Utzinger: Beide Konzepte sehen wir – ebenso wie das immer wieder für tot erklärte Tape-Backup – weiterhin im produktiven Einsatz.

Müssen Unternehmen jedoch rapide wachsende Datenmengen sichern, existiert in manchen Fällen kein Backup-Fenster mehr, das noch eine Vollsicherung erlauben würde. Vor diesem Hintergrund geht der Trend in Richtung synthetischer Vollsicherungen oder „Incremental-forever“-Sicherungen. Diese bieten den Vorteil, dass eine vollständige Sicherung nur einmal stattfindet. Alle weiteren Sicherungen erfassen nur noch neue oder geänderte Dateien.

Kontinuierliche Snapshots oder differenzielle Images scheinen das Backup-Konzept für moderne IT-Umgebungen zu sein. Stimmt das oder zeichnen sich Alternativen ab?

Utzinger: Die Wahl des Backup-Konzepts definiert sich prinzipiell durch Anforderungen an Backup-Fenster, sparsamen Umgang mit Speichermedien und das zu Verfügung stehende Zeitfenster für den Restore – die Recovery Time Objective oder RTO. Kontinuierliche Snapshots und differenzielle Images sind zwar der größte Konkurrent des traditionellen Backups, ersetzten das Backup jedoch nicht. Denn um den Snapshot als Absicherung zu nutzen, muss dieser auf einem oder mehreren anderen Systemen gespeichert werden. Das Konzept erzeugt also massiven Hardware-Bedarf. Backup ist da deutlich ökonomischer. Der Anwender behält die freie Wahl der eingesetzten Hardware und kann Kosten sparen.

Spricht eigentlich die Datentransferrate des Internets beim Online-Backup gegen das Backup in der Cloud? Wie würden Sie Einsatzszenarien definieren?

Utzinger: Der Vorteil der Online-Datensicherung liegt primär in der Verfügbarkeit des Backups, auch wenn lokale Datenträger zerstört oder nicht mehr lesbar sind und an anderen Standorten, zum Beispiel unterwegs oder in Niederlassungen, und als Möglichkeit, das Medien-Management zu umgehen – Stichwort: unleserliche Speichermedien.

Die Cloud kann dabei ein anonymes Rechenzentrum wie Amazon S3 oder ein lokaler Dienstleister – Public Cloud– aber auch das firmeneigene Rechenzentrum – Private Cloud – sein.

Das Backup in die Cloud zählt heute bereits zu den Standards, ohne jedoch lokale Sicherungen zu ersetzen. Das erste Initial-Backup beziehungsweise ein Backup sehr großer Datenmengen kann auf ein lokales Medium erfolgen, das dann beim Provider eingespielt wird. Müssen sehr große Datenmengen rekonstruiert werden, kann dies ebenfalls über ein Transfermedium erfolgen. So können Kunden Beschränkungen der Datentransferrate umgehen und trotzdem Daten zu einem Online-Backup-Anbieter auslagern.

Das typische Szenario des Online-Backup betrifft kleinere Datenmengen. Sicher kann eine individuelle Internetverbindung unter Umständen Probleme beim Datentransfer erzeugen, doch professionelle Online-Backup-Plattformen reduzieren die Menge der Daten, die nach dem Initial-Backup übertragen werden, so sehr, dass Backup-Fenster auch bei niedriger Bandbreite kurz gehalten werden. Übertragen werden nur die geänderten Daten. Wird eine Datei geändert, überträgt die Software nicht die ganze Datei, sondern nur die Änderungen an dieser Datei – und zehn oder 30 MBegabyte geänderte Daten zu sichern, ist keine Herausforderung, die stark von Datentransferraten beeinträchtigt werden dürfte.

Glaubt man dem Marketing, dann ist das Disaster Recovery in wenigen Minuten erledigt. Bitte erläutern Sie, welche Vorgaben dafür erfüllt sein müssen und ob diese Aussage auch beim Austausch des Host-Rechners gilt.

Utzinger: Ein Boot-fähiges Medium einzulegen und damit entweder den bisherigen oder einen neuen Rechner zu starten, erfordert nur wenige Minuten.

Der Zeitaufwand für die Rekonstruktion der Daten lässt sich dagegen nicht vorhersagen. Wie lange ein komplettes Desaster Recovery dauert, hängt unter anderem von den eingesetzten Backup-Methoden, der Menge der wiederherzustellenden Daten und weiteren Rahmenbedingungen ab. Die Frage können wir daher nicht universalgültig beantworten.

Was spricht dagegen, Langzeit-Backup und Archivierung gleichermaßen per Backup-Software zu verwalten?

Utzinger: Mehrstufige Sicherungskonzepte sind durchaus geeignet, die Langzeitarchivierung zu unterstützen. Doch Langzeitarchivierung erfordert ein ausgefeilteres Medien-Management als das üblicher Backup-Anwendungen. Die Herausforderung liegt unter anderem in der beschränkten Haltbarkeit von Speichermedien. Bildet das Medien-Management einer Backup-Lösung Standort- und Speichermanagement ab, lassen sich Backup und Archivierung durchaus mit einem System verwalten.

Warum wird LTFS, das Linear TapeFile System, die Backup-Welt nicht verändern?

Utzinger: LTFS erweitert die Einsatzmöglichkeiten von Magnetbändern. Zum Sichern von Daten stehen mit Hardware-neutraler Backup-Software ohnehin zahlreiche Sicherungsmedien zur Verfügung. Daher sehen wir keinen weltverändernden Einfluss von LTFS.

Wieso brauchen wir nun auch noch die objektorientierte Speicherung von Daten? Hat das Auswirkungen auf Backup- und/oder Archivierung-Konzepte?

Utzinger: Wir sind keine Spezialisten für Objekt-orientierte Speicherung. Objekt-orientierte Datenspeicherung hilft, wenn Sie es mit Millionen oder sogar Milliarden von Dateien oder Archiven zu tun haben. Bei dem aktuellen Datenwachstum könnte diese Art der Datenspeicherung für das schnelle Aufrufen und Speichern zur Norm werden. Auswirkungen auf Backup-Konzepte sehen wir nicht.

Big Data ist in aller Munde. Zukünftige ERP-Datenbanken werden vielleicht vollständig auf PCIe-Speicherkarten laufen. Welchen Einfluss hat diese neue, mit kurzen Latenzzeiten agierende Speicherarchitektur auf die Backup-Software und Backup-Infrastruktur?

Utzinger: Der größte Einfluss von PCIe-basierten Speichern und Flash-basierten SANs auf Backup-Software und die Backup-Infrastruktur liegt in der Möglichkeit, mehrere IOPS zu verarbeiten, und dem Potenzial für einen höheren Datendurchsatz. Dies bedeutet, dass die Backup-Software in der Lage sein muss, für diese neuen und höheren Durchsätze zu skalieren und dem Anwender die Engpässe der Backup-Infrastruktur aufzuzeigen.

(ID:38198400)