Nachbericht AWS re:Invent in Las Vegas AWS wird hybrid

Autor / Redakteur: lic.rer.publ. Ariane Rüdiger / Florian Karlstetter |

Die AWS-Fangemeinde versammelte sich Ende November zur weltweiten Kunden- und Partnertagung re:Invent in Las Vegas. Das Unternehmen hatte einen ganzen Sack voll Neuerungen im Gepäck.

Anbieter zum Thema

Auf der Kunden- und Partnerkonferenz re:Invent in Las Vegas hatte AWS jede Menge Neuerungen bis hin zu himmelstürmenden Visionen im Gepäck - ein Nachbericht.
Auf der Kunden- und Partnerkonferenz re:Invent in Las Vegas hatte AWS jede Menge Neuerungen bis hin zu himmelstürmenden Visionen im Gepäck - ein Nachbericht.
(Bild: Amazon Web Services)

Nach Neuigkeiten brauchten die rund 50.000 Besucher der diesjährigen weltweiten AWS-Konferenz re:Invent wahrlich nicht zu suchen, sie prasselten förmlich auf sie nieder und sind unmöglich alle in einem Bericht unterzubringen. Hier soll es deshalb vor allem um Kern-Cloud-Services gehen und AWS‘ Versuch, sich in einer Welt hybrider Unternehmens-Clouds einen möglichst prominenten Platz zu sichern.

AWS ist unumstritten der derzeitige Cloud-Weltmeister – nach von CEO Andy Jassy präsentierten Zahlen ist der Hyperscaler im dritten Quartal im Jahresvergleich um 46 Prozent gewachsen und hält gut 57 Prozent des Cloud-Marktes. „46 Prozent Wachstum entsprechen bei uns mehr als zwei Milliarden Dollar Umsatz“, sagte Jassy und relativierte damit auf MS Azures aktuellen Wachstumsbericht, der 76 Prozent Plus auswies.

Vom Monopolistentum sei der Cloud-Markt dennoch weit entfernt, meint zumindest Maximilian Hille, Senior Analyst bei Crisp Research: „Es gibt im Moment mindestens zwei, eher noch vier ernsthafte Konkurrenten mit einem relativ großen Angebot, nämlich Google, Microsoft Azure, Alibaba und IBM, wobei man bei IBM recht erfolgreich konsequent auf ein Hybrid-Modell setzt.“

Bemerkenswert ist, dass sich AWS nun dem Verlangen vieler seiner Kunden beugt, hybride Modelle besser zu unterstützen. Jassy: „Viele Kunden haben uns gesagt, dass sie aus unterschiedlichen Gründen diverse Workloads niemals in die Public Cloud verlagern werden, obwohl sie eigentlich alles auf AWS migrieren möchten.“ Denen wolle man nun entgegenkommen. Dafür wird die Zusammenarbeit mit VMware weiter vertieft - VMware-CEO Pat Gelsinger präsentierte sich während der Keynote in Las Vegas einträchtig neben Jassy.

AWS Outposts – Managed Service aus der Box

Der sehr erfolgreiche Service VMware Cloud on AWS hat wohl den Boden für eine aktuelle Neuerung bereitet: Mit AWS Outposts bringt der Provider eine Box auf den Markt, die aus proprietärer Amazon-Hardware einschließlich Nitro-Virtualisierung besteht und als Managed Service betrieben wird. Sie kann direkt beim Kunden oder bei einem Kollokateur stehen. Auf der Box laufen je nach Kundenwunsch entweder Original-AWS-Services, auf denen dann die Kunden diejenigen Workloads unterbringen können, die sie auf keinen Fall in die Public Cloud verlagern wollen, oder aber VMware Cloud samt aller dazugehörigen Softwarekomponenten. „Damit lässt sich das Software-definierte Datenzentrum on-premises realisieren“, sagt Jassy. Je nachdem, welche Dienste und welche Infrastruktur (AWS oder VMware Cloud) auf der Box laufen, reicht der Service. Jassy: „Da es sich um einen Managed Service handelt, sind nach wie vor im selben Umfang zuständig wie bei Inhouse-Diensten, ansonsten wie üblich die Endkunden respektive VMware.“

Möglicherweise hat es als zusätzliche Inspiration für Outposts gewirkt, dass etwa MS Azure bereits in On-Premises-Varianten, etwa auf HPE-Hardware, angeboten wird. Dave Brown, Vice President Elastic Compute Cloud bestreitet das: „Wir tun etwas ganz anderes als Microsoft, denn bei uns erhalten die Kunden, weil es sich um einen Managed Service handelt, automatisch alle neuen Versionen, bei Microsofts Lösung bekommen sie den gerade gültigen Stack und müssen sich selbst um den Rest kümmern.“

„AWS und VMware sollten für Outpost ein Servicemodell entwickeln, bei dem Kunden nur einen Ansprechpartner haben“, Maximilian Hille, Senior Analyst, Crisp Research.
„AWS und VMware sollten für Outpost ein Servicemodell entwickeln, bei dem Kunden nur einen Ansprechpartner haben“, Maximilian Hille, Senior Analyst, Crisp Research.
(Bild: Rüdiger)

Ob dieses Modell die Kunden überzeugen kann, bleibt abzuwarten: Sie haben bekanntermaßen für Unklarheiten bezüglich der Support-Zuständigkeit wenig Sympathien. Analyst Hille rät diesbezüglich: „Kunden sollten sich darauf verlassen können, dass es bei Problemen nur einen zuständigen Ansprechpartner für Outposts gibt. AWS und VMware sollten ein entsprechendes Modell entwickeln.“ Bislang will AWS den Outposts selbst bei den Kunden einbauen und ihn liefern. „Wir haben viele technisch versierte Mitarbeiter auf der ganzen Welt und durchaus Vorstellungen davon, wie wir das realisieren“, versicherte Jassy, während sich Gelsinger auf Nachfrage beeilte hinzuzufügen, es sei geplant, auch Partner für die Implementierung der Kisten auszubilden.

Im Übrigen würden nach derzeitiger Planung nicht alle AWS-Services auf dem Outposts bereitgestellt, durchaus aber die wichtigsten, wobei es sich hier um die Infrastrukturdienste wie S3, EFS, EBS, verschiedene Servertypen aus dem EC-Angebot und Ähnliches handeln dürfte. Genaues steht aber diesbezüglich noch nicht fest. Zudem sollen die Outposts je nach gewünschtem Serviceportfolio auch hardwareseitig unterschiedlich gestaltet werden.

Ergänzend sei noch erwähnt, dass Gelsinger bereits auf der Jahrestagung von VMware, die kürzlich stattgefunden hat, angekündigt hatte, VMware Cloud Foundation werde zukünftig auf EC2-Instanzen laufen. Damit können Anwender dort Applikationen wie NSX, Cloud Management oder Cloud Automation betrieben werden – was bei Vorhandensein dieses Service auf Outposts auch ermöglichen sollte, die Dienste dort zu betreiben. VMware und AWS verschachteln also ihre Angebote immer stärker ineinander.

Fünf neue Regionen

Weiter baut AWS seine geografische Reichweite aus: Zu den bereits vorhandenen 19 sind fünf neue Regionen fest geplant und werden demnächst umgesetzt. Stockholm, Mailand, Kapstadt, Hongkong und Bahrein. Zudem investiert AWS massiv in neue Netzverbindungen, unter anderem steckt das Unternehmen Geld in eine für 2020 angekündigte neue Kabelverbindung zwischen Japan und den USA (Jupiter) und ein weiteres Kabel zwischen Hongkong, Singapur und den USA. Als erster Anwender hat AWS auf eigenen Strecken nun einen neuen, 6912 Adern fassenden Glasfaserkabeltyp verlegen lassen, der die physischen Kapazitäten verdoppelt.

Dazu kommen Verbesserungen in der Vernetzung zwischen den AWS-Rechenzentren: Der neue Service AWS Global Accelerator ermöglicht Kunden, ihre Applikationen auf AWS oder in hybriden Infrastrukturen zu beschleunigen, indem sie die AWS‘ externe Netzwerkinfrastruktur nutzen. Die AWS-Netzverbindungen besitzen beispielsweise eine integrierte Fehlerisolation, und Anwender können ihre eigenen Netzwerkregeln auf von ihnen genutzte Bandbreite anwenden. Ähnliche Ziele verfolgt auch ein zweiter neuer Netzwerkservice, AWS Transit Gateway. Er verbindet auf AWS aufgebaute Virtual Private Circuits (VPC), also kundenspezifische logische Netzwerkverbindungen, untereinander über das AWS-Netzwerk zu kundenspezifischen, regelgesteuerten Infrastrukturen in der Hybrid Cloud.

Neue Serverinstanzen, teils aus Eigenbau

Bei den EC2-Instanzen gab es eine Fülle von Neuerungen. Deren gravierendste ist sicher, dass der Aufkauf des Prozessorbauers Annapurna Labs im Jahr 2015 nun Früchte trägt: Erstens im Prozessor Gravity für Scale-Out-Anwendungen, der unter dem Kürzel A1 angeboten wird – in Europa ist er bereits in Dublin verfügbar. Der Prozessor hat einen ARM-Kern mit 16 Kernen und kostet 45 Prozent weniger als die rechenstärkste Instanz, C5. Darauf laufen diverse Linux-Varianten und die Amazon-Containerdienste. Zweitens wird im kommenden Jahr ein zweiter proprietärer Prozessor, AWS Inferentia, die Grundlage von Services speziell für Inferenzaufgaben bilden. Er soll mit den wichtigsten Maschinenlern (ML)-Plattformen und dem gemanagten ML-Service Sagemaker zusammenarbeiten. Das, so betonte Brown, sei aber erst der Anfang. „Wir haben Anapurna gekauft, weil dieses Team großartige Ideen hat.“ Und de Santis machte klar, dass die Entwicklung dank der großen Volumina, die Hyperscaler benötigen, hin zu immer mehr spezialisierten Prozessoren gehe. Eine direkte Konkurrenz zu den Großen der Prozessorbranche ist aber nicht geplant: Bislang, so Brown, habe AWS jedoch nicht vor, seine Prozessoren irgendwann auszulizenzieren oder extern zu verkaufen.

Weitere EC2-Neuerungen: Die GPU-Instanzen, eingeführt Ende 2017, erhalten mit P3dn eine besonders leistungsstarke Variante, die einen Durchsatz von 100 Gbit/s schafft. Sie enthält neben einem aktuellen Intel-Prozessor für bis zu 96 vCPUs und 768 GByte Memory eine Tesla V100-Volta-GPU von Nvidia mit 32 GByte Arbeitsspeicher.

Ebenfalls auf 100 Gbit/s Durchsatz wird die Instanz C5n, eine besonders leistungsstarke Variante, beschleunigt, das ist viermal so viel wie bisher bei C5. Die High-Memory-EC2-Varianten sind im nächsten Jahr nicht nur mit 6, 8 und 12 TByte Speicher erhältlich, sondern auch mit 18 und 24 TByte. Zudem sollen viele Instanzen mit integrierter NVMe-SSD erhältlich werden. Aktuell gilt das bereits für I3 und D2. Das Gleiche gilt für Bare Metal, ein Verdienst von Nitro, das die Virtualisierungs- und andere Betriebsaufgaben auf spezielle Boards in den Amazon-Servern verschiebt, so dass die Instanzen voll für Verarbeitungslasten verfügbar sind.

Mit einer weiteren Neuerung möchte AWS seinen Footprint im Bereich der kostenintensiven Hochleistungs (HPC)-Anwendungen erweitern: Der Elastic Fabric Adapter (EFA) verbessert die Kommunikation zwischen einzelnen Instanzen. Da HPC in der Regel auf Multiknoten-Systemen mit Parallelverarbeitung beruht, ist dies besonders wichtig für die Abarbeitung entsprechender Rechenaufgaben. Das Protokoll ist mit dem Message Passing Interface (MPI), sozusagen der Nachrichtenleitstelle der HPC-Infrastrukur, integriert und verringert dadurch die Latenz. Umgebungen mit Tausenden von Instanzen sind damit möglich. EFA wird zusammen mit P3n und C5n-Instanzen bereitgestellt. Damit ergänzt EFA vorhandene HPC-freundliche Eigenschaften von AWS, beispielsweise das in der aktuellen Nitro-Version hinzugekommene Protokoll Scalable Reliable Datagram (SRD), das die Latenz minimiert und die Lieferung der Daten garantiert.

Neues für Microservice-Umgebungen

Weil immer mehr Unternehmen auf DevOps, kontinuierliche Delivery neuer Versionen und Microservices umstellen, kündigte de Santis in seiner Keynote mit Firecracker einen Virtual Machine Manager (VMM) speziell dafür an. Auf dem Host läuft das in Rust geschriebene Firecracker auf KVM, wobei nur eine minimale Kernel-Verison geladen wird. Wegen der eingebauten Sicherheitsfunktionen sei das, so der Manager, „so sicher wie virtuelle Maschinen auf KVM“. Firecracker arbeitet mit sogenannten microVMs, in denen jeweils ein Microservice läuft. Von ihnen kann Firecracker pro Sekunde 150 aufbauen. Die MicroVMs verbrauchen pro Stück unter 5 MByte Speicher, sind also ein leichtgewichtiges Massenprodukt, wie es in DevOps-Umgebungen benötigt wird. Derzeit unterstützt der VMM Intel-Prozessoren, Versionen für ARM und AMD folgen 2019. Firecracker geht Open Source: Es wird unter die Apache-2.0-Lizenz gestellt.

Himmelstürmende Visionen

Passend zur aktuellen Landung der Mars-Sonde verkündete Andy Jassy in Las Vegas auch noch, dass AWS in das Geschäft mit Satellitendaten einsteigt: AWS Ground Station ist ein Service, bei dem der Provider zunächst 12 und dann weitere seiner Lokationen zu Satelliten-Bodenstationen ausbaut. Deren Antennen können Empfänger von Satellitendaten jeweils genau dann anmieten, wenn der Satellit, dessen Daten sie empfangen wollen, sie überfliegt und so eine Verbindung möglich ist. Die Daten fließen dann sofort in entsprechende EC2-Instanzen des jeweiligen Kunden und können ohne Verzögerung weiterverarbeitet werden. Weil die Antennen immer nur kurzfristig gemietet werden müssen, was über ein Selbstbedienungsportal geschieht, soll das die Kosten der Bodentechnik für Satellitenanwendungen um 80 Prozent verringern.

Zudem gab AWS eine Kooperation mit dem Luft- und Raumfahrtunternehmen Lockheed Martin bekannt. Das Unternehmen will rund um die Welt nur schuhkartongroße, günstige Satellitenantennen unter der Markenbezeichnung Verge aufbauen. Sie empfangen jeweils Teildatenströme der sie überfliegenden Satelliten. Diese Teildatenströme werden in Amazon-Rechenzentren gesammelt und zu einem vollständigen Datenstrom zusammengefügt. „Damit brauchen wir nicht mehr unbedingt teure Parabolantennen. Das verbilligt Satellitentechnik und macht neue Anwendungen in Wissenschaft, Umweltschutz sowie auf vielen anderen Gebieten möglich“, sagte in Las Vegas Rick Ambrose, Executive Vice President von Lockheed Martin. Jassy scheint den Spruch „The Sky is the Limit“ wörtlich zu nehmen.

(ID:45631006)