Online-Umfrage zum CeBIT-Kompendium „Backup & Recovery“ von SearchStorage.de, Teil 3

Das Prinzip Hoffnung stellt keine Backup-Strategie dar

Seite: 3/4

Firma zum Thema

Was spricht dagegen, Langzeit-Backup und Archivierung gleichermaßen per Backup-Software zu verwalten?

Dany: Das liegt schlichtweg daran, dass Backup und Archivierung zwei Paar verschiedene Schuhe sind. Die Backup-Software verwendet eine Kopie der Daten, um diese nach einer Störung wiederherzustellen, aber diese Datenkopie ist immer noch in der Produktionsumgebung vorhanden. Backups sind temporär, nur kurze Zeit vorhanden und werden in regelmäßigen Intervallen überschrieben.

Die Archivierungssoftware erfasst den primären Datenbestand und speichert ihn in einem manipulationssicheren Archiv. Dieses Archiv enthält dann die einzige Version der Daten, sobald diese einmal aus der Produktionsumgebung entfernt worden sind. Archivierte Daten werden erst gelöscht, wenn die Aufbewahrungsfrist abgelaufen ist.

Daher unterscheiden sich die Interaktionen zwischen Benutzern und Backup-Daten einerseits und archivierten Daten andererseits. Ein archivierter Datenbestand ist wegen der gesetzlichen Offenlegungspflichten und vom Standpunkt der Produktivität von Endbenutzern, die bestimmte Daten in dem Archiv suchen und abrufen wollen, sinnvoll.

Mittels Metadaten und Hashing-Algorithmen kann nachgewiesen werden, dass die Daten in einem Archiv seit dem Zeitpunkt, an dem sie von dem Produktionssystem übernommen wurden, nicht geändert worden sind. Sieht man einmal von Notebooks und PCs ab, so werden nahezu alle in einem Backup gesicherten Daten von einem Administrator bei Bedarf wiederhergestellt und stehen den Endbenutzern nicht für Such- und Abrufvorgänge zur Verfügung.

Warum wird LTFS, das Linear Tape File System, die Backup-Welt nicht verändern?

Dany: Die Antwort darauf ist ähnlich wie die Antwort zur ersten Frage: Der Grund dafür liegt darin, dass die meisten Unternehmen sich von Bandspeicherlösungen verabschieden und dedizierte Speichersysteme bevorzugen. Bandspeicher im LTFS-Format und die zugehörige Software bieten gewisse Vorteile, weil die Dateien über das Dateisystem leichter zugänglich sind. Allerdings lösen sie nicht die mit Bandspeichern verbundene Gesamtproblematik.

LTFS kann hilfreich sein, wenn riesige Mengen von Daten gespeichert werden müssen, funktioniert aber nicht gut in Verbindung mit der Deduplizierung der Daten. Dies bedeutet, dass der gesamte Datenbestand bei jedem Backup übertragen werden muss und unterschiedliche Backup-Pläne wie GFS sowie komplexe mathematische Gleichungen für die Bandrotation erforderlich werden. Die Deduplizierung, das heißt, die Identifizierung und Eliminierung redundanter Daten vor der Speicherung, schlägt in der Backup-World zweifellos viel größere Wellen, sodass es nur ein geringes Interesse für eine auf Bändern basierende Technologie wie LTFS gibt.

Wieso brauchen wir nun auch noch die objektorientierte Speicherung von Daten? Hat das Auswirkungen auf Backup- und / oder Archivierungs-Konzepte?

Dany: Die Datenbestände werden nie alle in dem gleichen Format vorhanden sein. Zwar lassen sich die meisten Daten problemlos abspeichern, komprimieren und deduplizieren, doch eignen sich einige Datentypen nicht für diese Form der Speicherung und Komprimierung. Daher gibt es einen Bedarf an alternativen Speicherungsformen. Überdies wird die Speicherung der Daten zunehmend mehr in die Ursprungsanwendung, welche diese Daten überhaupt erzeugte, integriert. Derzeit werden Datenbanken entwickelt, die zum Beispiel am besten funktionieren, wenn sie auf einer Speicherplattform aufsetzen, die wiederum auf der Grundlage einer objektbasierten Speicherung beruht.

Zu den weiteren Vorteilen einer objektorientierten Speicherung für Backup und Archivierung gehören unter anderem:

Skalierbarkeit: Das Speicherungsmodell für die objektorientierte Speicherung ist so beschaffen, dass man damit viel größere Datenmengen abspeichern kann, weil es bei ihm die Belastung durch die Datei- und Containerhierarchie der traditionellen NAS- oder SAN-Blockspeicherung nicht gibt. Eine Organisation kann damit mehr Daten online zur Verfügung stellen.

Erweiterte Metadaten: Es ist sehr einfach, die mit dem Objekt verbundenen Metadaten zu erweitern. Allerdings stellt das einen vor viel größere Herausforderungen. Allerdings wird das von den Anwendungen unterstützt, welche die Dateien bei der herkömmlichen Speicherung erzeugen. Die Erweiterung der Metadaten ist ein Bestandteil des Protokolls für die objektorientierte Speicherung. Daten, die sich in einem Archiv oder einem Backup befinden, lassen sich so viel leichter klassifizieren.

Eingebaute Redundanz: Die objektorientierte Speicherung erfüllt die Ziele einer „hohen Verfügbarkeit“ und „Redundanz“, indem sie – auf der Grundlage entsprechender Richtlinien – mehrere Kopien auf mehreren Knoten anlegt. Der Bedarf an einer Replikation schrumpft damit, und die Komplexität der IT-Infrastrukturen wird ebenfalls geringer.

Cloud: Die Entscheidung zugunsten der Cloud erfolgt wegen der Art und Weise, wie die Daten gespeichert werden, sowie der eingebauten hohen Verfügbarkeit. Die Datenbestände residieren, zerlegt in Stücke, überall, und es ist möglich, von jedem Standort aus auf sie zuzugreifen – selbst außerhalb der Firewall. Die objektorientierte Speicherung nutzt die RESTful API; Aufrufe erfolgen über HTTP (anstelle TCP/IP), sodass sie in der Regel niemals gegenüber der externen Welt preisgegeben werden. Diese Art von globalem Zugriff ist für die Archivierung besonders verlockend: Es genügt eine einzige Implementierung der Archivierungslösung, aber es ist möglich, von jedem Punkt der Welt auf diese zuzugreifen.

(ID:38146990)