Schneller, höher, weiter 2023 wird das Jahr der KI-getriebenen Cloud
Anbieter zum Thema
Wann immer über die breitere Wirtschaft dunkle Wolken herziehen, scheint die Cloud umso stärker zu wachsen und zu innovieren. Führende Cloud-Anbieter wollen vor allem die Konnektivität beschleunigen und KI/ML-Arbeitslasten auf die Sprünge helfen. Das kommende Jahr 2023 verspricht daher, sehr interessant zu werden.

Immer mehr Unternehmen wollen mit ihrer IT in die Cloud umziehen, um ihre Kosten zu senken und mit neuer Agilität bei den Kunden zu punkten. „Die Cloud-Migration ist nicht aufzuhalten“, beobachtet Sid Nag, Vice President Analyst bei Gartner. Er und seine Kollegen befassen sich mit aktuellen Trends rund um das Cloud Computing und kamen neulich zu dem Schluss, dass die Unternehmen nicht mehr zögern wollen. Die Würfel sind gefallen.
Die Pandemie hat den Umzug vieler Organisationen in die Cloud deutlich vorverschoben; wer auf den Geschmack des flexiblen Bereitstellungsmodells erst einmal gekommen ist, möchte offenbar bald noch mehr davon. Im Jahre 2022 haben Unternehmen rund 490 Milliarden US-Dollar für die Cloud ausgegeben, schätzt Gartner. Diese stolze Summe ist rund 18,8 Prozent höher als 2021. Im kommenden Jahr (2023) soll sich das Wachstum sogar noch beschleunigen.
Im Laufe des Jahres 2023 wollen Unternehmen knapp über 100 Milliarden US-Dollar über den bisherigen Rekordwert hinaus für ihre Cloud-Dienste ausgeben. Damit beschleunigt sich das Wachstum auf beachtliche 20,7 Prozent gegenüber dem laufenden Jahr (2022). Das schnellste Wachstum erwarten die Analysten im Segment IaaS (Infrastructure-as-a-Service): Im kommenden Jahr 2023 dürfte dieses Segment um astronomische 29,8 Prozent zulegen.
Gartner führt dieses robuste Wachstum vorrangig nicht auf die Anziehungskraft oder technische Überlegenheit der Cloud zurück, sondern vielmehr auf die Konjunktur. „Der aktuelle Inflationsdruck und die makroökonomischen Bedingungen haben einen Push- und Pull-Effekt auf die Cloud-Ausgaben“ der Endbenutzer, erklärt Nag von Gartner. Doch Cloud-Ausgaben könnten auch fallen, sollte die übrige Wirtschaft einen GAU erleben, warnen die Analysten zwischen den Zeilen.
Wer gewinnt, wer verliert?
Das Cloud-Wachstum kommt im Übrigen nicht allen Cloud-Plattformen gleichermaßen zugute. AWS zieht anscheinend gerade den Kürzeren. Azure und Google Cloud sägen nach und nach an der Dominanz von AWS, nicht ohne beachtlichen Erfolg. AWS brachte es im vergangenen Jahr (2021) auf einen globalen Marktanteil von gerade einmal 38,9 Prozent, weit unter dem Durchschnitt der vergangenen Jahre. Microsoft konnte mit 21,1 Prozent die Position von Azure massiv ausbauen. Google Cloud ist nur noch das Schlusslicht der Top-Vier: mit 7,1 Prozent hinter Alibaba mit 9,5 Prozent.
Der Trend ist jedoch eindeutig: weg von anderen Bereitstellungsmodellen, hin in die Cloud. Laut Gartner dürften bis zum Jahre 2025 mehr als acht von zehn aller Organisationen (85 %, um genau zu sein) als „Cloud-first“ bezeichnet werden können. Die Cloud dürfte zu diesem Zeitpunkt rund die Hälfte der jährlichen Ausgaben von Großunternehmen verschlingen. Dank ihrer „Flexibilität, Elastizität und Skalierbarkeit“ werde die Cloud auch in Zukunft „ein Stützpfeiler der Sicherheit und Innovation“ sein und auch „in unsicheren Zeiten“ Wachstum fördern.
Immer mehr KI und ML
Die digitaltransformierte Wirtschaft wird immer stärker durch KI/ML angetrieben. Kognitive Arbeitslasten wachsen dementsprechend ins Uferlose. Immer mehr Unternehmen nutzen KI/ML für ihr operatives Geschäft. Die Cloud-Hyperscaler gingen da schon vor Jahren mit gutem Beispiel voran. Ob es darum geht, ihre Serverräume intelligent zu kühlen, intelligente Cyber-Abwehr für die Daten ihrer Kunden zu gewährleisten oder die Kapazitätsauslastung vorherzusagen: Maschinelles Lernen hat es in sich.
Doch KI/ML ist leistungshungrig und dadurch potenziell langsam und ganz sicher nicht billig. Das verstärkte Aufkommen kognitiver Arbeitslasten braucht nicht nur eine ausreichende Menge an Trainingsdaten, sondern auch entsprechend viel „Puste“. Künstliche Intelligenz und Maschinelles Lernen brauchen auch in der Cloud leistungsstarke Hardwarebeschleuniger: GPUs, FPGAs und demnächst vielleicht sogar Quantenchips.
Wohl oder übel mussten sich die führenden Cloud-Anbieter etwas einfallen lassen, um die Anwendungsleistung anspruchsvoller kognitiver Arbeitslasten zu beschleunigen.
Die Ära Cloud-nativer KI-Beschleuniger hat begonnen
Das verstärkte Aufkommen von KI und ML bedeutet in der Praxis einen explodierenden Bedarf an erschwinglicher Rechenleistung für anspruchsvolle Workloads. Google hat es vorgemacht. Der Cloud-Riese hat mehrere anwendungsspezifische Chips entwickelt, um kognitive Arbeitslasten in der Cloud zu beschleunigen. Das Portfolio umfasst inzwischen die VCU (Video Coding Unit) Argos für das Encoding von Videos auf YouTube, die TUP (Tensor Processing Unit), einen GPC-eigenen ASIC für KI-Arbeitslasten und den Sicherheitschip Titan.
Kürzlich hat sich Google mit Intel zusammengeschlossen, um gemeinsam einen Netzwerk-Chip zu entwickeln, der hochperformante und sichere Hyper-Konnektivität ermöglichen soll. Der E2000, Codename Mount Evans, soll sich als Netzwerkbeschleuniger für latenzkritische Bare-Metal-Instanzen in der Google-Cloud einbringen und dadurch Intels Xeon-Prozessoren der vierten Generation (Sapphire Rapids) um einen Teil ihrer Aufgaben entlasten.
Googles Chip wird Datenpakete für die Übertragung via Netzwerk aufbereiten. Diese Aufgabe müssten sonst eben sündhaft teure CPUs bewältigen, was dann zu Lasten der verfügbaren Leistung für die primären Berechnungen fällt. Cloud Computing steht und fällt bekannterweise mit leistungsstarker Konnektivität. Der E2000 verbessert sowohl die Leistung als auch die Sicherheit von „cloudifizierten“ Arbeitslasten. Er bietet nämlich eine Isolation des Netzwerkverkehrs auf Systemen mit gemeinsam genutzten Rechenressourcen. Der E2000 soll zuerst in einer C3 VM Einzug halten.
Intel hat in den vergangenen paar Jahren viel Boden verloren und will ihn jetzt in der Cloud zurückerobern. Der Chip-Riese hat hierzu gerade noch im August 2022 seinen ersten GPU-Beschleuniger vorgestellt, die Data Center GPU Flex Series, für Medienverarbeitung und -bereitstellung, visuelle KI-Inferenz, Cloud-Gaming und Desktop-Virtualisierung. All diese Innovationen kommen im Endeffekt Cloud-Nutzern zugute.
Noch „tiefer“ lernen in einer „denkenden“ Cloud
Der Einzug von Hardwarebeschleunigern in die Public Cloud spiegelt sich in dem verstärkten Aufkommen von Cloud-Diensten, die sich auf kognitive Anwendungen spezialisieren. Lambda, ein Startup aus dem kalifornischen San Francisco (nicht zu verwechseln mit dem gleichnamigen AWS-Dienst), bietet eine GPU-Cloud namens Lambda Labs.
Der Softwarestack umfasst gängige KI/ML-Frameworks wie TensorFlow und PyTorch und bietet eine Anbindung an Jupyter. Unternehmen und Datenwissenschaftler können hier ihre KI/ML-Anwendungen um bis zu 73 Prozent günstiger ausführen als auf AWS, Azure oder GPC.
Mehr Compute-Leistung für weniger Cloud-Geld
Die führenden Public-Cloud-Anbieter haben es auch schon verstanden: Cloud-Nutzer wollen mehr Compute-Leistung für weniger Geld. Sie suchen nach erschwinglichen Alternativen zu Intel Xeon und AMD Epyc. Beide CPU-Familien vertreten die energiehungrige x86er CISC-Architektur. Die besten Aussichten für eine cloud-optimierte Alternative bietet die RISC-basierte ARM-Architektur.
Amazons Sparte Annapurna Labs hat für AWS die Graviton-Familie von Server-Chips auf der Basis von ARM entwickelt. Das günstige Preisleistungsverhältnis dieser „spartanischen“ Chips hat Amazon ermöglicht, die Preise für eine Vielzahl der Managed-Services von AWS zu senken – an sich eine gute Sache.
Microsoft blieb den Azure-Nutzern nicht lange schuldig und hat im Jahre 2022 ARM-basierte VMs mit der CPU Ampere Altra von Ampere Computing vorgestellt. Auch diese Chips basieren auf der ARM-Architektur. Sie adressieren arbeitsspeicherintensive Workloads und sollen eine um 50 Prozent verbesserte Leistung im Vergleich zu Intels x86-Architektur ermöglichen.
Ob die Cloud-Hyperscaler diese Einsparungen tatsächlich an die Cloud-Nutzer weitergeben? Mal hoffen.
Big Memory: Compute-Instanzen mit persistentem Arbeitsspeicher
Ein breites Spektrum moderner, datenlastiger Workloads überfordert herkömmliche Systemarchitekturen völlig. Benötigt wird eine neuartige Speichertechnologie mit einem Leistungsprofil, welches DRAM und persistentes SCM (Storage Class Memory) um Längen schlägt. In Anlehnung an Big Data ist hierbei von „Big Memory“ die Rede.
MemVerge, ein Anbieter von In-Memory-Computing, will mit seiner Big Memory Machine eine eben solche Lösung für Intels persistenten Arbeitsspeicher Optane geschaffen haben. Das Unternehmen schickt sich jetzt an, die Technologie als eine Cloud-Bereitstellung anzubieten. Bei der Big Memory Machine handelt es sich im Grunde genommen um eine Softwareschicht, die auf mehreren Servern einen gemeinsamen Speicherpool einrichtet. Sie schafft eine Abstraktionsebene nach dem Vorbild der Art und Weise, wie VMware die Rechenleistung, die Konnektivität und den Datenspeicher virtualisiert.
Big Memory Machine bringt zwei entscheidende Vorteile mit sich. Erstens schafft sie die nötigen Voraussetzungen für zustandsbehaftetes Cloud-Bursting. Zweitens erlaubt sie die Ausführung von temporären Server-Instanzen (zum Beispiel AWS Spot-Instanzen) mit persistentem Arbeitsspeicher. Im Falle von Dienstunterbrechungen haben Cloud-Nutzer erstmals keinen Datenverlust mehr zu befürchten.
Big Memory von MemVerge macht sich intern die sogenannten AppCapsules zu Nutze, eine Art der Anwendungscontainerisierung mit Kubernetes und ZeroIO-Snapshots. AppCapsules können so die Portabilität von On-Premises-Arbeitslasten in die Cloud und zwischen verschiedenen Cloud-Umgebungen ohne Datenverluste gewährleisten. Das Beste daran: Big Memory Cloud ist interoperabel mit den großen öffentlichen Clouds AWS, Microsoft Azure und Google Cloud. Die innovative Cloud-Lösung setzt auf der jeweiligen Cloud-Plattform auf und bedarf nicht einmal einer gesonderten Integration.
Fazit der Autoren
Das kommende Jahr 2023 stellt den Cloud-Nutzern den einen oder anderen wahren Durchbruch in Aussicht. In der Cloud keimen disruptive Innovationen schnell und gerne auf. In diesem Sinne dürfte das Cloud-Computing im kommenden Jahr zum wichtigsten Taktgeber der digitalen Transformation werden.
* Das Autorenduo Anna Kobylinska und Filipe Pereira Martins arbeitet für McKinley Denali Inc. (USA).
(ID:48799687)