Reaktionsschnelle Apps und kürzere Latenzen Microservices in der Distributed Cloud

Autor / Redakteur: Oliver Henrich* / Elke Witmer-Goßner

Bei der Entwicklung von Cloud-Applikationen hat sich in den letzten Jahren ein klarer Trend vom Monolithen zu Microservices abgezeichnet. Diese funktionieren nach dem Baukastenprinzip: Größere Applikationen werden bereits im Entwicklungsprozess in kleine, flexible Module unterteilt, die über Schnittstellen (APIs) untereinander Daten austauschen.

Firmen zum Thema

Insellösungen stoßen an Grenzen, da immer mehr Applikationen in kleine, flexibel zu buchende Module unterteilt werden, die untereinander Daten austauschen.
Insellösungen stoßen an Grenzen, da immer mehr Applikationen in kleine, flexibel zu buchende Module unterteilt werden, die untereinander Daten austauschen.
(Bild: gemeinfrei© Free-Photos / Pixabay )

Voraussetzung dafür ist eine entsprechende Infrastruktur, über die die Microservices bereitgestellt werden. Hier geht der Trend klar in Richtung Distributed Cloud, die mit vernetzten und verteilten Servern arbeitet. Der Vorteil dabei: Entsprechende Architekturen stellen sicher, dass die darüber laufenden Systeme und Apps ebenso hoch performant wie reaktionsschnell sind.

Das Modell der Distributed Cloud verringert die Distanz zwischen System und Anwender. Das Ergebnis: Die Latenz wird verkürzt und die Reaktionszeit der Applikation verbessert. Kein Anwender möchte nach seiner Dateneingabe oder Interaktion lange auf die Rückmeldung vom System warten. Schon kleine Verzögerungen, zum Beispiel beim Bestellen in einem Online-Shop oder dem Ausfüllen von Formularen, führen zu Frust oder Zweifel, ob der Shop überhaupt störungsfrei arbeitet.

Höhere Performance und Ausfallsicherheit

Mit der Distributed Cloud gibt es kein zentrales Rechenzentrum mehr, sondern eine Architektur, die die Rechnerlast auf kleine regionale Clouds aufteilt. Zwischen den dezentralisierten Rechenzentren können dann in einer Art Cloud-Netzwerk die Informationen ausgetauscht werden.

Ein weiterer Vorteil ist neben der geringeren Latenz und besseren Performance eine höhere Ausfallsicherheit, da die einzelnen Regional-Clouds unabhängig voneinander arbeiten können. Das bedeutet: Sollte ein Cloud-Server ausfallen, zieht dies nicht den Ausfall des gesamten Systems nach sich. Werden die Microservices zusätzlich noch georedundant, also gespiegelt in mehreren Rechenzentren gleichzeitig betrieben, erhöht dies die Ausfallsicherheit zusätzlich.

Optimale Basis für Edge Computing

Die Infrastruktur einer Distributed Cloud bietet darüber hinaus die ideale Grundlage für ein Konzept, das ebenfalls zum Trend geworden ist: Edge Computing. Ziel ist es dabei, Server und Applikationen näher an den Ort zu bringen, wo die Daten entstehen, und so deren Verarbeitungszeit spürbar zu verkürzen beziehungsweise im Idealfall Data Processing in Echtzeit zu ermöglichen.

Wer zum Beispiel Onlinebanking auf dem Smartphone nutzt, generiert dabei Daten – und erwartet, dass Vorgänge wie Überweisungen praktisch live und unmittelbar nachverfolgbar abgewickelt werden. Wenn bei solchen Standards etwa eine Wartezeit von 30 Sekunden entstünde, würde das die Geduld des Nutzers nicht nur über Gebühr in Anspruch nehmen, sondern auch das Vertrauen in die Technologie sowie in deren Sicherheit und Zuverlässigkeit zerstören. Entsprechend wenige Anwender würden eine solche Banking-App überhaupt verwenden.

Auch IoT-Anwendungen profitieren

Die Nachfrage nach Distributed Cloud und Edge Computing wird vor allem durch datenintensive Anwendungen wie dem Internet der Dinge (Internet of Things - IoT) vorangetrieben. Zum Beispiel nehmen vernetzte Überwachungskameras permanent Videomaterial in hoher Auflösung auf. Es entstehen also große Datenmengen. Sie permanent an ein zentrales Rechenzentrum zu schicken wäre nicht praktikabel, weil es viel zu lange dauern und die Bandbreite belasten würde. Als Lösung werden diese Daten oft lokal oder auf dezentralen Servern in räumlicher Nähe zum System selbst, etwa im gleichen Land, verarbeitet.

Einen ähnlichen Ansatz verfolgt Google. So nutzt das Unternehmen etwa zur Beantwortung von Suchanfragen nicht einen zentralen Rechner in den USA, sondern ein Netzwerk von vielen, die über den gesamten Globus verteilt sind. Mit dieser Infrastruktur wird es möglich, Nutzern binnen Sekundenbruchteilen zu antworten.

Leichtere Einhaltung von Datenschutzvorgaben

Regional verteilte und nutzbare Rechenzentren helfen Anwendern auch in Sachen Datenschutz, wenn es um die Verarbeitung personenbezogener Daten geht – etwa um das Speichern von Namen, Wohnort und Geburtsdatum beim Ausfüllen eines Registrierungsformulars. Dieser Prozess muss entsprechend der Vorgaben der DSGVO erfolgen. Hostet ein Service-Provider seine Systeme in einer zentralen Cloud auf Servern in Ländern außerhalb des Geltungsbereichs der DSGVO, kann die Verarbeitung personenbezogener Daten, die aus einem Land stammen, das sich im Geltungsbereich der DSGVO befindet, mit zahlreichen Herausforderungen verbunden sein.

Hier sind Service-Provider, die aus Ländern außerhalb des Geltungsbereichs der DSGVO stammen, im Vorteil, wenn sie auf eine Distributed Cloud setzen und in diesem Zusammenhang auch Rechenzentrum in Ländern innerhalb des Geltungsbereichs der DSGVO betreiben. Microsoft zum Beispiel nutzt mit seiner globalen Azure-Infrastruktur genau die Vorteile, die eine Distributed Cloud in dieser Hinsicht bietet.

Hohe Anforderungen an die Sicherheit

Gleichzeitig ist die Distributed Cloud auch eine Herausforderung: In heterogenen Systemen kommt es naturgemäß zu mehr Datenverkehr und es gibt mehr Schnittstellen. Das heißt die Anforderungen an die Wartung der Cloud-Infrastruktur steigen. Gleichzeitig gewinnt bei dezentralen Systemarchitekturen und der dezentralen Verarbeitung von Daten die Frage nach deren Sicherheit an Bedeutung. Hier sind die Service-Provider in der Pflicht, ihren Anwendern eine entsprechend sichere Umgebung für deren Daten zur Verfügung zu stellen. Die Auswahl der Rechenzentren, insbesondere auch unter dem Gesichtspunkt der dort implementierten Sicherheitsmechanismen, ist in diesem Zusammenhang ein entscheidender Faktor.

Oliver Henrich, Sage.
Oliver Henrich, Sage.
(Bild: Sage)

Trotz der genannten Herausforderungen werden die Themen Distributed Cloud und Edge Computing an Bedeutung gewinnen, da der Bedarf nach flexibel anpassbarer und per Cloud überall verfügbarer Software steigt. Es zeichnet sich vor diesem Hintergrund ein Trend ab, dass auch in Sachen Cloud-Infrastruktur kein monolithisches System mehr gefragt ist, sondern ein kollektives Zusammenspiel vieler kleiner Lokallösungen.

* Der Autor Oliver Henrich ist Vice President Product Engineering bei Sage.

(ID:47506920)