Definition: massiv skalierbare Serverarchitekturen und virtuelle Netzwerke Was sind Hyperscaler?
Hyperscaler sind Computing-Netzwerke zur Erzielung massiver Skalierungen im Bereich Cloud Computing und Big Data. Dabei ist die Infrastruktur von Hyperscalern so konzipiert, dass eine horizontale Skalierbarkeit möglich ist. Entsprechend sorgen Hyperscaler für ein sehr hohes Maß an Leistung und Durchsatz sowie Redundanz.
Anbieter zum Thema

De facto handelt es sich bei Hyperscalern um Systeme, welche im Rahmen des Cloud Computing oder auch im Bereich big Data entstehen. Hierzu werden mehrere Tausend bzw. Millionen Server miteinander verbunden, so dass ein Netzwerk entsteht, welche zudem erweitert werden kann. Es handelt sich also um ein Big Data Netzwerk, dass neben hohen Zugriffen zugleich auch eine schwankende Nutzung kompensieren kann.
Grundsätzlich dienen Hyperscaler dazu, eine massive Skalierung zu erzielen, denn sowohl für das Cloud Computing als auch für Big Data ist diese notwendig. Dabei besteht das Ziel von Hyperscalern in einer horizontalen Skalierbarkeit bei gleichzeitiger Herstellung maximaler Leistung sowie einem Maximum an Durchsatz und Redundanz. Zudem können durch Hyperscaler eine Hochverfügbarkeit sowie Fehlertoleranzen gewährleistet werden.
Hyperscale-Server können grundsätzlich als das Gegenteil von klassischen Virtualisierungen beschrieben werden, denn bei ihnen handelt es sich um einfache, sehr kleine Systeme, die für einen spezifischen Zweck konzipiert wurden. Bei Virtualisierungen handelt es sich dagegen um große physische Server, die die Basis für zahlreiche differente virtuelle Maschinen bilden und so ein recht großes Spektrum an Anwendungen abgedeckt werden kann.
Hyperscaler punkten mit einfachen Server-Strukturen
Für die Hyperscale-Domäne sollte die Struktur der Server im Optimalfall so einfach wie möglich gestaltet sein. Hierdurch wird sichergestellt, dass eine Skalierung der Server im Bedarfsfall schnell durchgeführt werden kann. Hinzu kommt, dass eine einfache softwarebasierte Verwaltung inklusiver zügiger Updates von Relevanz ist. Hierfür ist auch eine hohe Server-Dichte notwendig, welche allerdings mit einer optimalen Kühlung, einem geringen Platzbedarf sowie einem niedrigen Energieverbrauch einhergeht.
Ziel ist zudem eine Vermeidung preisintensiver Managementtools, überflüssiger Hardwarestrukturen, überholter Vorgängersysteme sowie Enterprise-Technologien zum Speichern. Eine Optimierung der Komponenten Networking, Storage und Servern an die spezifischen Anforderungen wie beispielsweise Web-Serving oder Datenanalyse sollte erfolgen.
Die großen Hyperscaler im Überblick
Neben dem Cloud-Anbieter IBM gehören auch Google, Microsoft und Amazon Web Serices zu den großen Hyperscalern. De facto nehmen die Produkte von Google Cloud Platform, Microsoft Azure und Amazon Web Services circa 75 Prozent des gesamten Marktes in Bezug auf die Public-Cloud-Angebote ein. Allerdings ist anzumerken, dass große Unternehmen und Institution in der Regel mit mehreren Public-Cloud-Anbietern parallel arbeiten.
Amazon Web Services
Amazon Web Services gehört zweifelsohne zu den großen Wegbereitern der Hyperscaler: Bereits im Jahr 2006 wurde AWS von Amazon als Tochterunternehmen gegründet. Ziel von Amazon war es, eine bessere Auslastung der rund um den Globus verteilten, eigenen Rechenzentren zu erreichen und hieraus zudem ein Geschäft zu machen. Dabei offeriert AWS mehr als 125 differente Dienste (Stand September 2018), welche in den Bereichen Big Data, Internet of Things (IoT), Datenspeicherung, Künstliche Intelligenz (KI), Datenverarbeitung und Virtual Desktop Infrastructure (VDI) angesiedelt sind. Insgesamt weist die AWS-Cloud mehr als 18 Regionen und 55 Verfügbarkeitszonen auf (stand: September 2018), wobei ein weiteres Wachstum angestrebt wird. De facto ist AWS der internationale Marktführer und verfügt über einen Marktanteil von circa 40 Prozent.
:quality(80)/images.vogel.de/vogelonline/bdb/1175700/1175799/original.jpg)
Public Cloud Services aus der Amazon Cloud
Amazon Web Services im Überblick
Microsoft Azure
Die Cloud-Plattform Azure wurde von Microsoft im Jahr 2010 gegründet, wobei Microsoft mit seinem Angebot in 36 Regionen weltweit verfügbar und in Bezug auf den Marktanteil der stärkste Verfolger von AWS ist. Analog zu AWS offeriert Microsoft Azure in unterschiedlichen Bereichen eine Vielzahl differenter Dienste.
Vor allem auf dem deutschen Markt konnte Microsoft Azure sich gut positionieren: Zahlreiche Unternehmen des Mittelstands sowie des Enterprise-Sektors gehören zu den Kunden der Cloud-Plattform. Dabei fungiert Office 365 gewissermaßen als Schnittstelle für weitere Angebote in der Cloud. Seit dem Jahr 2016 verfügt Microsoft Azure auch über Rechenzentren in Deutschland, deren Verwaltung durch ein Tochterunternehmen der Telekom, nämlich T-Systems erfolgt.
:quality(80)/images.vogel.de/vogelonline/bdb/1316500/1316526/original.jpg)
Definition: IaaS, PaaS und SaaS aus der Microsoft-Cloud
Was ist Microsoft Azure?
Google Cloud Services
Ein weiteres Unternehmen, das seit dem Jahr 2010 besteht, ist Google Cloud Services. Ebenso wie Amazon und Microsoft offeriert auch Google unterschiedliche Angebote: Neben Cloud Storage und Platform as a Service zählt zum Portfolio auch Infrastructure as a Service. Im letzten Jahr wurde von Google für die Länder Deutschland, Österreich und Schweiz eine eigene Zone etabliert, deren Steuerung von Frankfurt am Main aus erfolgt. Bis dato zählen vor allem Start-ups und kleinere Unternehmen zu den Kunden von Google Cloud Services.
:quality(80)/images.vogel.de/vogelonline/bdb/1229500/1229590/original.jpg)
Definition: Google Cloud Platform - Konkurrenz für Microsoft und Amazon
Was ist Google Cloud Platform?
Vorteile von Hyperscale-Lösungen
Hyperscale-Computing geht für Unternehmen, Institutionen und Organisationen mit differenten Vorteilen einher. Darüber hinaus stellen Hyperscaler häufig die einzige und zugleich auch beste Option dar, definierte Ziele wie beispielsweise die Offerte von Services in der Cloud zu erreichen.
Häufig sind Hyperscaler zudem eine kosteneffizienteste Lösung zur Verwirklichung komplexer Aufgaben. So kann sich für ein Big-Data-basiertes Analyseprojekt eine Hyperscale-Lösung aufgrund der Computing-Dichte sowie der guten Skalierbarkeit vom finanziellen Gesichtspunkt aus am besten eignen.
Dabei werden den Nutzern zu einem abschätzbaren Preis enorm anpassungsfähige und damit äußerst flexible Infrastrukturen geboten. Diese Infrastrukturen können bedingt durch ihren dezentralen Aufbau in Bezug auf Kapazität und spezifische Workloads problemlos erweitert werden.
Durch die Nutzung mehrerer Hyperscaler können Anwender zudem eine Abhängigkeit (Vendor Lock-In) vermeiden und zugleich eine noch höhere Skalierbarkeit erlangen. Darüber hinaus sind Anwender hierdurch flexibel in Bezug auf die Wahl des jeweils am besten passenden Cloud-Services. Entsprechend bleibt der Anwender flexibel und kann auf Veränderungen des Marktes stets schnell und kostengünstig reagieren.
Die Vorteile von Hyperscalern im Überblick:
- kosteneffizient
- Flexibilität durch die Nutzung mehrerer Anbieter
- schnelle und kostengünstige Marktanpassung möglich
- Vermeidung von Abhängigkeiten durch die zeitgleiche Nutzung mehrerer Anbieter
- optimale Möglichkeit zur Realisierung von Unternehmenszielen
- klar kalkulierbare Kosten
Hyperscale bezieht sich also auf die vollständige Kombination von Hardware und Einrichtungen, mit denen sich eine verteilte Computing-Umgebung auf bis zu Tausende von Servern erweitern lässt. Beim Hyperscale-Computing kommen meistens massiv skalierbare Serverarchitekturen und virtuelle Netzwerke zum Einsatz.
:quality(80)/images.vogel.de/vogelonline/bdb/1408100/1408154/original.jpg)
Definition: von Verfügbarkeitszone zur Region
Was sind Regionen und Availability Zones?

Zum Special: Definitionen rund um Cloud Computing
(ID:45425462)