Online-Umfrage zum CeBIT-Kompendium „Backup & Recovery“ von Storage-Insider.de, Teil 4

„Snapshots erzeugen einen massiven Hardware-Bedarf“

Seite: 2/2

Firmen zum Thema

Spricht eigentlich die Datentransferrate des Internets beim Online-Backup gegen das Backup in der Cloud? Wie würden Sie Einsatzszenarien definieren?

Utzinger: Der Vorteil der Online-Datensicherung liegt primär in der Verfügbarkeit des Backups, auch wenn lokale Datenträger zerstört oder nicht mehr lesbar sind und an anderen Standorten, zum Beispiel unterwegs oder in Niederlassungen, und als Möglichkeit, das Medien-Management zu umgehen – Stichwort: unleserliche Speichermedien.

Die Cloud kann dabei ein anonymes Rechenzentrum wie Amazon S3 oder ein lokaler Dienstleister – Public Cloud– aber auch das firmeneigene Rechenzentrum – Private Cloud – sein.

Das Backup in die Cloud zählt heute bereits zu den Standards, ohne jedoch lokale Sicherungen zu ersetzen. Das erste Initial-Backup beziehungsweise ein Backup sehr großer Datenmengen kann auf ein lokales Medium erfolgen, das dann beim Provider eingespielt wird. Müssen sehr große Datenmengen rekonstruiert werden, kann dies ebenfalls über ein Transfermedium erfolgen. So können Kunden Beschränkungen der Datentransferrate umgehen und trotzdem Daten zu einem Online-Backup-Anbieter auslagern.

Das typische Szenario des Online-Backup betrifft kleinere Datenmengen. Sicher kann eine individuelle Internetverbindung unter Umständen Probleme beim Datentransfer erzeugen, doch professionelle Online-Backup-Plattformen reduzieren die Menge der Daten, die nach dem Initial-Backup übertragen werden, so sehr, dass Backup-Fenster auch bei niedriger Bandbreite kurz gehalten werden. Übertragen werden nur die geänderten Daten. Wird eine Datei geändert, überträgt die Software nicht die ganze Datei, sondern nur die Änderungen an dieser Datei – und zehn oder 30 MBegabyte geänderte Daten zu sichern, ist keine Herausforderung, die stark von Datentransferraten beeinträchtigt werden dürfte.

Glaubt man dem Marketing, dann ist das Disaster Recovery in wenigen Minuten erledigt. Bitte erläutern Sie, welche Vorgaben dafür erfüllt sein müssen und ob diese Aussage auch beim Austausch des Host-Rechners gilt.

Utzinger: Ein Boot-fähiges Medium einzulegen und damit entweder den bisherigen oder einen neuen Rechner zu starten, erfordert nur wenige Minuten.

Der Zeitaufwand für die Rekonstruktion der Daten lässt sich dagegen nicht vorhersagen. Wie lange ein komplettes Desaster Recovery dauert, hängt unter anderem von den eingesetzten Backup-Methoden, der Menge der wiederherzustellenden Daten und weiteren Rahmenbedingungen ab. Die Frage können wir daher nicht universalgültig beantworten.

Was spricht dagegen, Langzeit-Backup und Archivierung gleichermaßen per Backup-Software zu verwalten?

Utzinger: Mehrstufige Sicherungskonzepte sind durchaus geeignet, die Langzeitarchivierung zu unterstützen. Doch Langzeitarchivierung erfordert ein ausgefeilteres Medien-Management als das üblicher Backup-Anwendungen. Die Herausforderung liegt unter anderem in der beschränkten Haltbarkeit von Speichermedien. Bildet das Medien-Management einer Backup-Lösung Standort- und Speichermanagement ab, lassen sich Backup und Archivierung durchaus mit einem System verwalten.

Warum wird LTFS, das Linear TapeFile System, die Backup-Welt nicht verändern?

Utzinger: LTFS erweitert die Einsatzmöglichkeiten von Magnetbändern. Zum Sichern von Daten stehen mit Hardware-neutraler Backup-Software ohnehin zahlreiche Sicherungsmedien zur Verfügung. Daher sehen wir keinen weltverändernden Einfluss von LTFS.

Wieso brauchen wir nun auch noch die objektorientierte Speicherung von Daten? Hat das Auswirkungen auf Backup- und/oder Archivierung-Konzepte?

Utzinger: Wir sind keine Spezialisten für Objekt-orientierte Speicherung. Objekt-orientierte Datenspeicherung hilft, wenn Sie es mit Millionen oder sogar Milliarden von Dateien oder Archiven zu tun haben. Bei dem aktuellen Datenwachstum könnte diese Art der Datenspeicherung für das schnelle Aufrufen und Speichern zur Norm werden. Auswirkungen auf Backup-Konzepte sehen wir nicht.

Big Data ist in aller Munde. Zukünftige ERP-Datenbanken werden vielleicht vollständig auf PCIe-Speicherkarten laufen. Welchen Einfluss hat diese neue, mit kurzen Latenzzeiten agierende Speicherarchitektur auf die Backup-Software und Backup-Infrastruktur?

Utzinger: Der größte Einfluss von PCIe-basierten Speichern und Flash-basierten SANs auf Backup-Software und die Backup-Infrastruktur liegt in der Möglichkeit, mehrere IOPS zu verarbeiten, und dem Potenzial für einen höheren Datendurchsatz. Dies bedeutet, dass die Backup-Software in der Lage sein muss, für diese neuen und höheren Durchsätze zu skalieren und dem Anwender die Engpässe der Backup-Infrastruktur aufzuzeigen.

(ID:38198400)