Suchen

Ein Füllhorn von AWS-Neuheiten Neue Funktionen für Storage und Filesysteme

Autor / Redakteur: Michael Matzer / Dr. Jürgen Ehneß

Vor, während und nach der AWS re:Invent 2019 hat Amazon Web Services (AWS) zahlreiche Neuerungen bei seinen Storage-Diensten verlautbart. Die Neuerungen betreffen Security, Compliance, Effizienz und Backup. Jüngst profitieren auch die Amazon FSx für Windows und Lustre von zahlreichen Erweiterungen.

Firmen zum Thema

AWS trumpft mit zahlreichen Neuerungen fürs Cloud-Speichern.
AWS trumpft mit zahlreichen Neuerungen fürs Cloud-Speichern.
(Bild: © AndSus - stock.adobe.com)

Der Dienst „Amazon S3 Replication Time Control“ (S3 RTC) ist ein neues Feature von S3 Replication, das eine vorhersagbare Replikationsdauer gemäß einem Service-Level-Agreement (SLA) bietet. S3 RTC unterstützt Kunden dabei, Compliance- oder Geschäftsanforderungen für die Datenreplikation zu erfüllen, und ermöglicht mit neuen Amazon CloudWatch-Metriken einen transparenten Replikationsvorgang. „Das ist wichtig unter anderem für die Einhaltung von Recovery Point Objectives [RPO], wenn ein Failover auf eine andere Region erfolgen soll oder Daten wiederhergestellt werden müssen“, erläutert Michael Hanisch, Technologieexperte bei AWS Deutschland.

Laut AWS nutzen Kunden den Service S3 Replication, um Milliarden von Objekten aus Buckets in derselben oder einer anderen Region zu kopieren. „S3 Replication Time Control ist darauf ausgelegt, 99,9 Prozent der Objekte innerhalb von 15 Minuten nach dem Hochladen zu kopieren, wobei die Mehrheit der neuen Objekte innerhalb von Sekunden repliziert wird“, ergänzt Hanisch. S3 RTC bietet zudem S3-Replication-Metriken (über CloudWatch), mit denen Kunden die Dauer bis zum Abschluss der Replikation sowie die Gesamtzahl und Größe der noch zu replizierenden Objekte im Blick behalten können. „Wir haben übrigens auch die Preise für die Synchronisation mit AWS DataSync um 68 Prozent gesenkt“, so Hanisch. AWS DataSync könne auch für die Replikation von Daten zwischen On-Premises und AWS genutzt werden.

AWS Access Analyzer for S3“ ist eine neue Funktion, die Zugriffsrichtlinien überwacht und sicherstellt, dass nur die beabsichtigten Zugriffe auf die S3-Ressourcen möglich sind. Auf diese Weise lassen sich Buckets mit potenziell unbeabsichtigten Zugriffen erkennen und die Sicherheitsrichtlinien korrigieren.

Access Analyzer für S3 ist ohne Zusatzkosten in der S3-Managementkonsole verfügbar. „Der Analyzer ist wichtig für Security und Governance, für einen Audit-Trail und für Bucket Policies“, erläutert AWS-Experte Hanisch. „Er ergänzt den IAM Access Analyzer und AWS Macie.“

Kunden können „Amazon Macie“ zum Erkennen, Klassifizieren und Schützen von ihren in Amazon S3 gespeicherten vertraulichen Daten verwenden. Durch Anwendung des maschinellen Lernens erkennt Amazon Macie personenbezogene Informationen oder geistiges Eigentum und stellt Dashboards und Warnungen bereit, die sichtbar machen, wie auf diese Daten zugegriffen wird oder wie diese bewegt werden. Amazon Macie überwacht auch Datenzugriffsmuster auf Anomalien und generiert Warnungen, wenn ein Risiko durch einen nicht autorisierten Zugriff oder unbeabsichtigte Datenlecks erkannt wird.

So funktioniert S3-Replication-Time-Control.
So funktioniert S3-Replication-Time-Control.
(Bild: AWS)

Zeitbasierte Aufbewahrungsrichtlinien für DLM

Nutzer können seit Ende November 2019 zeitbasierte Aufbewahrungsrichtlinien in „Data Lifecycle Manager“ (DLM) festlegen. Mit diesem Start können sie im DLM die Aufbewahrungsdauer für Snapshots in den folgenden Intervalleinheiten festlegen: Tage, Wochen, Monate und Jahre. Zeitbasierte Aufbewahrungsrichtlinien erleichtern die Einhaltung der Compliance-Bestimmungen, nach denen Nutzer Backups (EBS-Volume-Snapshots; siehe unten) für einen bestimmten Zeitraum aufbewahren müssen. „Dies ist im Hinblick auf die DSGVO und andere Vorschriften zur Datenhaltung von Bedeutung“, sagt Hanisch.

Elasticsearch Service wird „UltraWarm“

Für den Dienst „Amazon Elasticsearch Service“ bietet AWS nun ein hierarchisches Storage-Management an. Dieser Service ist kürzlich um die Speicherleistungsstufe „UltraWarm“ erweitert worden. „Mit UltraWarm können Nutzer ihre Daten mit Elasticsearch und Kibana speichern und interaktiv analysieren sowie gleichzeitig ihre Kosten pro GB um bis zu 90 Prozent gegenüber den vorhandenen ‚heißen‘ Speicherungsoptionen von Amazon Elasticsearch Service senken“, erläutert Hanisch. „Mit UltraWarm unterstützt Amazon Elasticsearch Service jetzt heiß-warme Domänenkonfigurationen.“ Hot Storage werde für die Indexierung und den schnellsten Zugriff auf Daten verwendet. UltraWarm ergänze Hot Storage mit einem kostengünstigeren, langlebigeren Speicher für ältere Daten, auf die Nutzer seltener zugreifen, und behalte dabei die gleiche interaktive Analyseerfahrung bei. Die Vorschau von UltraWarm ist derzeit auf Elasticsearch-Version 6.8 in drei US-Regionen verfügbar.

Amazon FSx für den Windows File Server & Lustre

Die Unterstützung von Amazon FSx (File Services) für den Windows File Server wurde beträchtlich erweitert. „FSx für Windows ist ein Managed Service, der über mehrere Availability Zones hinweg arbeitet“, erläutert Hanisch und ergänzt: „Nun erlaubt FSx auch die Deduplikation von Daten sowie die Windows-Dateikompression auf Kundenseite und darüber hinaus die Verschlüsselung durch AWS und Festlegung, welche Keys mit welchem Algorithmus [AES et cetera] verwendet werden.“ Doch der Reihe nach.

Durch die Deduplizierung sollen die Speicherkosten für allgemeine Dateifreigaben um beachtliche 50 bis 60 Prozent sinken. Der Vorteil: Speicheradministratoren können Speicherkosten bei Amazon-FSx-Dateisystemen sparen, indem sie die Datendeduplizierung mit einem einzigen Befehl aktivieren. Die Einsparungen betragen typischerweise 50 bis 60 Prozent bei allgemeinen Dateifreigaben, 30 bis 50 Prozent bei Benutzerdokumenten und 70 bis 80 Prozent bei Datensätzen in der Software-Entwicklung. Die Unterstützung für die Datendeduplizierung ist jetzt für alle neuen Dateisysteme in allen Regionen, in denen Amazon FSx angeboten wird, kostenlos verfügbar.

„Amazon FSx for Windows File Server“ unterstützt jetzt Nutzerspeicherkontingente, wodurch Administratoren den Speicherverbrauch von Nutzern in ihren Dateisystemen kontrollieren und beschränken können. Die Unterstützung für Nutzerspeicherkontingente ist jetzt für alle neuen Dateisysteme in allen Regionen, in denen Amazon FSx verfügbar ist, kostenlos erhältlich.

Derselbe Dienst ermöglicht es Speicheradministratoren seit kurzem, bei Übertragungen an Dateisysteme die Verschlüsselung der Daten zu erzwingen. Dabei handelt es sich um die Verschlüsselung von Daten während der Übertragung mit SMB Version 3. Der Dienst lässt unverschlüsselte Verbindungen von Compute-Instances zu, die keinen Support für SMB 3 bieten. Nutzer können jetzt erzwingen, dass Zugriffe nur über verschlüsselte Verbindungen zugelassen werden, wenn ihre Compliance-Anforderungen dies erfordern.

„Amazon FSx for Windows File Server“ unterstützt seit kurzem die Verwaltung von Dateifreigaben über PowerShell. Dadurch erhalten Speicheradministratoren die Möglichkeit, die Migration, die Synchronisierung und die kontinuierliche Verwaltung von Dateifreigaben in Amazon-FSx-Dateisystemen zu automatisieren. Amazon FSx bringt zahlreiche Erweiterungen für die AWS-Managementkonsole, unter anderem die Fähigkeit zur Anzeige von Amazon-FSx-CloudWatch-Metriken und die Möglichkeit, Tags direkt innerhalb der Amazon FSx Console hinzuzufügen und zu aktualisieren.

Amazon FSx gibt es nicht nur für Windows, sondern auch für Lustre, ein leistungsfähiges Dateisystem für anspruchsvolle Workloads wie etwa im High-Performance Computing (HPC) und Machine Learning. Amazon FSx for Lustre hat Funktionen erhalten, die es erleichtern sollen, Dateidaten und Dateiberechtigungen zwischen Amazon FSx und Amazon S3 zu synchronisieren. Darüber hinaus hat Amazon FSx die Geschwindigkeit beim Starten von FSx-Dateisystemen, die mit S3-Buckets verknüpft sind, laut eigener Angabe vervierfacht. Um auch den Containerdienst Elastic Kubernetes Service (EKS) besser zu unterstützen, hat Amazon kürzlich eine Beta-Version seines FSx für den Lustre-CSI-Treiber angekündigt. FSx for Lustre soll zudem ein AWS-Repository für Lustre-Clients erhalten.

Elastic File System (EFS)

„Amazon Elastic File System (Amazon EFS) Access Points“ ist eine neue EFS-Funktion, die es Nutzern erleichtern soll, Anwendungen den Zugriff auf gemeinsam genutzte Datensätze in einem EFS-Dateisystem zu ermöglichen. Amazon EFS ist ein einfach zu benutzendes, skalierbares, vollständig verwaltetes, elastisches NFS-Dateisystem. EFS Access Points arbeiten mit AWS IAM zusammen und erzwingen einen Betriebssystembenutzer und eine Betriebssystemgruppe sowie ein Verzeichnis für jede Dateisystemanforderung, die über den Zugriffspunkt gesendet wird. EFS Access Points ist ab sofort in allen Regionen verfügbar, in denen Amazon EFS erhältlich ist, ohne zusätzliche Kosten.

AWS Backup bietet jetzt eine optimierte Funktionalität für die Wiederherstellung auf Elementebene im Amazon EFS. Damit sollen Nutzer nun einzelne Dateien oder Ordner von Amazon-EFS-Sicherungen mithilfe einer zentralen Konsole granular wiederherstellen können, um eine vereinfachte und schnelle Wiederherstellung zu ermöglichen und die strengeren Anforderungen an das Recovery Time Objective (RTO) zu erfüllen.

Elastic Block Storage (EBS)

Für den Blockspeicherdienst Elastic Block Storage (EBS) bietet AWS nun APIs, die direkte Lesezugriffe auf die einzelnen Blöcke innerhalb von EBS-Snapshots ermöglichen. Damit können Anbieter von Backup-Software oder -Diensten schnellere Sicherungen von EBS-Datenträgern bei geringeren Kosten durchführen. Backup-Anbieter sollen nun auf einfache Weise schrittweise Änderungen an EBS-Volumen über EBS-Snapshots nachverfolgen und ihre Arbeitsabläufe optimieren können, um die Backup-Zeiten um bis zu 70 Prozent zu reduzieren. Dies soll es ihnen ermöglichen, AWS-Kunden detailliertere Recovery Point Objectives (RPOs) zu niedrigeren Kosten anzubieten.

Einen Leistungsschub sollen EBS-optimierte Instanzen durch die Verwendung von Amazon-EC2-Nitro-System-basierten Instanzen erhalten. Das AWS-Nitro-System ist die Basisplattform für die neueste Generation von EC2-Instances, die es AWS ermöglicht, Innovationen schneller voranzutreiben, die Kosten für die Kunden weiter zu senken und zusätzliche Vorteile wie erhöhte Sicherheit und neue Instance-Typen zu bieten.

Mit den neuesten Verbesserungen am Nitro-System unterstützen alle neuen C5/C5d/C5n-, M5/M5d/M5n/M5dn/M5dn-, R5/R5d/R5n/R5dn- und P3dn-Instanzen nun eine 36 Prozent höhere EBS-optimierte Instanzbandbreite von bis zu 19 Gbps, die ausschließlich für den Zugriff auf EBS-Laufwerke bereitgestellt wird. Auch 6-, 9- und 12-TB-Amazon-EC2-High-Memory-Instanzen können nun 19 Gbps von EBS-optimierter Instanzbandbreite unterstützen – eine Steigerung um 36 Prozent gegenüber den vorherigen 14 Gbps.

Der Vorteil: „Diese Leistungssteigerung ermöglicht es Nutzern, Teile ihrer Workflows in Abhängigkeit von der EBS-optimierten Instanzleistung zu beschleunigen. Für Workloads mit vielen gleichzeitigen Laufwerkszugriffen haben sie die Möglichkeit, kleinere Instanzgrößen zu verwenden und dennoch höhere Bandbreiten für die Zugriffe auf EBS-Laufwerke zu nutzen und so Kosten zu sparen“, erläutert Hanisch. Mit dieser Leistungssteigerung seien Nutzer in der Lage, ungeplante Spitzen beim Durchsatz von Zugriffen auf EBS-Laufwerke zu bewältigen, ohne die Instanzgrößen für ihre Anwendung zu vergrößern.

(ID:46399034)

Über den Autor