Anwendungsszenarien für zentralisierte und verteilte Umgebungen Edge Computing nimmt der Datenflut den Schrecken

Autor / Redakteur: Mike Bushong* / Florian Karlstetter |

Nahezu unbegrenzte Computing-Ressourcen, die sich fast beliebig skalieren lassen und um die sich die eigene IT nicht kümmern muss, da sie von einem Anbieter zentralisiert und verwaltet werden – dies ist eine der treibenden Kräfte hinter Cloud Computing und erklärt das Interesse an der Technologie.

Anbieter zum Thema

Edge Computing vs. Cloud Computing: Anwendungsszenarien für zentralisierte und verteilte IT-Umgebungen.
Edge Computing vs. Cloud Computing: Anwendungsszenarien für zentralisierte und verteilte IT-Umgebungen.
(Bild: © jamesteohart - stock.adobe.com)

Doch was, wenn dies nur der erste Schritt in einem deutlich größeren Wandel und einer entsprechend transformativen Technologie ist? Wie sollten Unternehmen für eine Entwicklung planen, die sich als evolutionärer Weg erweisen wird?

Anwendungen regieren die Welt ...

Ein wichtiger Wandel innerhalb der IT ist die Vorstellung, dass Architekturen eigentlich den Anwendungen und nicht der Infrastruktur untergeordnet sind. Das Konzept selbst ist nicht neu, allerdings hat sich die Idee der Anwendungszentrierung im letzten Jahrzehnt nicht so weiterverbreitet, wie die unterstützende Infrastruktur geplant, implementiert und gepflegt wurde.

In einer Welt, die auf Applikationen fokussiert ist, muss die Infrastruktur mehr sein als die statistisch konfigurierte Basis, die durch schiere Kraftarbeit hoch- und runtergefahren wird. Im Gegenteil: Die Infrastruktur sollte sich veränderten Anforderungen hinsichtlich der Leistung flexibel anpassen – und damit die Anforderungen der Applikationen unterstützen. Die realen Vorteile der Cloud sind operativ. Die wichtigsten Cloud-Eigenschaften verwalten die Infrastruktur auf ganz neue Art und Weise. Sie bietet das benötigte Maß an Dynamik, mit dem sich eine anwendungsorientierte Vision in die Realität umsetzen lässt.

… doch ist das wirklich so?

Die Idee, dass Anwendungen im Zentrum des IT-Universums sind, ist fehlerhaft – und vielleicht ist dies ein grundlegender Irrtum. In fast jeder sinnvollen Unternehmensapplikation stehen die Daten und nicht die Anwendungen selbst im Vordergrund. In vielerlei Hinsicht besteht die Infrastruktur, um die Verwendung der innerhalb der Unternehmens-IT bestehenden Daten zu erleichtern. Egal, ob es sich dabei um die Speicherung, das Hin- und Herschieben der Daten oder darüberliegende Dienste wie Disaster Recovery handelt: Der Großteil der IT ist auf Daten ausgerichtet. Dies hat enorme Implikationen hinsichtlich der Cloud-Umgebung.

Daten dorthin migrieren, wo die Anwendungen abgelegt sind

Die zentralisierte Ansicht der Cloud erfordert, dass die Daten entweder gespeichert oder zu den Anwendungen verschoben werden. Dadurch entsteht ein enormes Hub-and-Spoke-IT-Modell mit der Cloud als Hub. Die Anwender und Endpunkte müssen ihre Daten an einen zentralen Ressourcen-Pool verschieben. Dieses Modell kann äußerst effektiv sein, wenn die Anwender oder Geräte relativ nahe an den Ressourcen angesiedelt oder die Applikationen nicht besonders latenzsensitiv, die Datenanforderungen recht gering oder die Kosten im Vordergrund stehen. Auch als erster architektonischer Ansatz für die Cloud macht es Sinn.

Sind Anwender und Daten allerdings verteilt – wie es bei dezentralen Unternehmen oder dem Internet der Dinge (IoT) der Fall ist, beschränkt eine zentralisierte Sicht auf die Cloud unnötig. Ist die Latenzzeit wichtig oder die Daten zu groß, wird das Verschieben des gesamten Datenverkehrs über eine zentrale Ressource zu einem teuren Unterfangen.

Applikationen zu den Daten migrieren

In Zukunft werden zentralisierte und verteilte Umgebungen nebeneinander existieren. Wirtschaftlichkeit und Physik sind die Kriterien auf deren Basis fallweise entschieden wird, welches Szenario passt. Die Anwendungsfälle für eine zentralisierte Cloud sind einfach zu verstehen, da sie den Großteil der frühen Cloud-Anwendungen ausmachen. Software-as-a-Service nutzt bereits die Public Cloud, Unternehmen wie Salesforce übernehmen die Verantwortung. Einzelne Unternehmen, die einen Lift-and-Shift durchgeführt haben, um Anwendungen in eine Public Cloud zu migrieren, arbeiten ebenfalls auf diese Weise. Aber nicht jedes Anwendungsszenario lässt sich in eine zentralisierte Cloud überführen.

Initiativen wie Smart Cities und vernetzte Fahrzeuge, die weitgehend auf dem IoT aufgebaut sind, erzeugen einfach zu viele Daten. Sie benötigen zu schnelle Reaktionszeiten und machen damit eine zentrale Berechnung nicht möglich. Die Nähe ist wichtig, und sie treibt eine ganze Welle von Innovationen rund um das Edge Computing an. Anstatt Infrastrukturen zu entwerfen und die Daten in die Anwendungen zu bringen, bauen Unternehmen ihre Computing-Umgebungen auf, um die Anwendungen in die Daten zu bringen.

Damit ist das Transportproblem gelöst. Die knapp vier Terabyte an Daten, die während einer Acht-Stunden-Fahrt generiert werden, müssen beispielsweise nicht das Auto verlassen – zumindest nicht, wenn die Anwendungen, die diese Daten verwenden, innerhalb des Autos laufen können. Die Sensorendaten an Remote-Standorten beispielsweise im Bergbau und in der Produktion müssen dann keinen Satellitenlink verwenden, um Zugriff auf die Cloud zu erhalten – die Cloud läuft dann auf den Edge-Geräten selbst.

Edge Computing Auswirkungen

Die Cloud ist in erster Linie eine Betriebsbedingung, um Dinge dynamischer zu gestalten. Sie ist außerdem ein Mix aus zentralisierten und verteilten Ressourcen. Dies hat erhebliche Auswirkungen darauf, wie Unternehmen ihre Cloud-Architekturen planen und implementieren. Eine Vielzahl von Umgebungen – teilweise kostenoptimiert und teilweise für die Nähe – erfordert eine sorgfältige Planung. Wie werden die Teams mit einer Mischung aus Bare-Metal-Servern, virtuellen Maschinen, Containern und Serverless arbeiten? Wie können Unternehmen ihre Security-Richtlinien über unterschiedliche Umgebungen hinweg vereinheitlichen, die jede ihre eigene Semantik und Durchsetzung hat? Wie lassen sich Workflows automatisieren, wenn die Analytik je nach Domäne oder Standort variiert? Wie gehen Unternehmen mit den unterschiedlichen Umgebungen um, ohne redundante Teams aufbauen zu müssen, eines für jede Variante?

Fazit: Edge Computing ist mehr als nur eine Cloud zu implementieren

Mike Bushong, Vice President, Enterprise and Cloud Marketing, Juniper Networks
Mike Bushong, Vice President, Enterprise and Cloud Marketing, Juniper Networks
(Bild: Michael Hawk © 2017 / Juniper Networks)

Das Pendel wird weiterhin zwischen zentralisierter und verteilter IT hin und her schwingen. Dieses Mal wird es eine Welle von Edge Computing Anwendungen mitbringen. Natürlich ist es verlockend, sich auf die darunter liegende Infrastruktur zu konzentrieren, also die Geräte, Speicher und Switches. Aber Unternehmen sollten die Cloud im Betriebszustand berücksichtigen. Das bedeutet, dass IT-Teams genauso viel Zeit in die Frage, wie sie die Cloud verwalten, investieren wie in die Entwicklung.

Einheitliche Workload- und Workflow-Management-Systeme, die über Multiclouds (vor allem Public und On-Premises) hinweg arbeiten, werden enorm wichtig. Unternehmen, die sich auf den Betrieb in einem zentralisierten Modell konzentrieren, werden schnell sehen, dass sie sich in einer weiteren Transformation befinden – diese beginnt aber noch bevor sie die vorherige abgeschlossen haben.

Der Autor: Mike Bushong, Vice President, Enterprise and Cloud Marketing, Juniper Networks.

(ID:45669288)