Datentransfer zwischen Clouds

Data Movement: In Clouds kommt mehr Bewegung

| Autor / Redakteur: Oliver Schonschek / Florian Karlstetter

1. Cloud als Backup für große, lokale Datenmengen

Wenn Big-Data-Umgebungen in eine Cloud übertragen und dort regelmäßig gesichert werden sollen, kann eine Lösung wie Attunity CloudBeam File-Cloud Replication hilfreich sein. Diese Lösung wird als SaaS (Software as a Service) angeboten und erlaubt automatisierte, gesicherte Uploads und Downloads zwischen lokalen IT-Strukturen und AWS S3-Umgebungen. Durch die Unterstützung beider Transferrichtungen und durch die Automatisierung kann gewährleistet werden, dass Vor-Ort-Daten und Cloud-Daten fortlaufend synchronisiert werden. Für die Geschwindigkeit der Transfers ist entscheidend, dass nur Änderungen an den Daten übertragen werden (Comparative Snapshot Technology, CST). Dabei wird die Sicherheit der Datentransfers durch Verschlüsselung und der Forderung nach Authentifizierung gewährleistet.

Eine weitere Möglichkeit, lokale Daten schnell und automatisiert in eine AWS-Umgebung oder Daten von einer AWS-Umgebung in interne IT-Strukturen zu übertragen, bietet Aspera On Demand for Amazon Web Services, für Windows Azure-Umgebungen als Quelle oder Ziel der Datenübertragung gibt es Aspera On Demand for Microsoft Windows Azure. Datentransfers zu und von beliebigen Cloud-Umgebungen können mit Aspera Shares bewerkstelligt werden.

Die AWS Data Pipeline von Amazon Web Services kann zeitgesteuert und automatisiert Daten aus lokalen IT-Strukturen hin zu AWS-Diensten wie Amazon S3, Amazon RDS, Amazon DynamoDB und Amazon Elastic MapReduce (EMR) übertragen, aber auch zwischen verschiedenen AWS-Cloud-Umgebungen.

2. Automatisierung von Analysen und anderen Datenprozessen

Bei AWS Data Pipeline können komplette Datenprozesse definiert und automatisiert werden, von unterschiedlichen Datenquellen, die nach vorgegebenen Regeln zu bestimmten Zeitpunkten verarbeitet und deren Ergebnisse an einen definierten Ort übertragen werden.

Ein Anwendungsbeispiel sind Big-Data-Analysen aus verschiedenen Datenquellen, deren Resultate automatisch an die Entscheider im Unternehmen geschickt werden. Die AWS Data Pipeline ermöglicht es zudem, vor einem definierten Verarbeitungsschritt jeweils die notwendigen Voraussetzungen zu prüfen, wie zum Beispiel das Vorliegen bestimmter, aktueller Daten. Das Fehlen bestimmter Voraussetzungen kann ebenso wie bestimmte Verarbeitungsfehler zu einer automatischen Benachrichtigung führen. Die Konfiguration der AWS Data Pipeline erfolgt zum Beispiel über die AWS Management Console. Verschiedene Datenprozesse sind dort bereits als Vorlagen definiert, die für die eigene Data Pipeline genutzt werden können, zum Beispiel die stündliche Analyse von Log-Dateien.

Inhalt des Artikels:

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 37740640 / Backup & Restore)