Suchen

Nach der Cloud greifen Einblicke in die Cloud-Infrastruktur von Google

Autor / Redakteur: Annette Maier* / Florian Karlstetter

Datenzentren, Datensicherheit, Unterseekabel – Begriffe, die oft abstrakt wirken. Wie lassen sich Daten sicher von unterschiedlichen Unternehmensstandorten aus zentral verwalten und welche Infrastruktur stellt Google dafür zur Verfügung? Welche Ansprüche müssen Datenzentren und Kabel erfüllen, welche Redundanzen und Verfügbarkeiten dürfen Kunden erwarten?

Firmen zum Thema

Welche Ansprüche man an Datenzentren, Kabel, Redundanzen und Verfügbarkeiten stellen muss, um eine zuverlässige Cloud-Infrastruktur zur Verfügung zu stellen - erklärt Annette Maier, Managing Director Google Cloud DACH in einem Gastbeitrag.
Welche Ansprüche man an Datenzentren, Kabel, Redundanzen und Verfügbarkeiten stellen muss, um eine zuverlässige Cloud-Infrastruktur zur Verfügung zu stellen - erklärt Annette Maier, Managing Director Google Cloud DACH in einem Gastbeitrag.
(Bild: cloud.google.com)

Computer und mobile Geräte stellen heute gewaltige Rechenleistung zur Verfügung – obwohl die in vielen Situationen gar nicht benötigt wird: Wenn wir Videos streamen, Apps öffnen oder in Google Maps Routen planen, rufen die Endgeräte meist nur eine Leistung ab, die ganz woanders erbracht wird – das ist das Prinzip von Cloud Computing. Ein Begriff, der für viele noch immer schwer zu fassen ist. Denn in der Regel nimmt der Anwender die Technologie, die all das ermöglicht, gar nicht wahr. Schon bei kurzer Reflektion wird allerdings klar, dass die ständige Verfügbarkeit von gewaltiger Rechenleistung nur mit Hilfe von hochwertiger Hard- und Software sowie einer entsprechenden Infrastruktur möglich ist.

Von der Cloud profitieren nicht nur Endanwender Tag für Tag (und meist unbemerkt) – etwa beim Streamen von Musik oder wenn Mails über den Internet-Browser bearbeitet werden. Auch für Unternehmen wird die ständig und überall verfügbare Rechenleistung immer wichtiger.

Im IT-Bereich stehen bei vielen Unternehmen aktuell die Modernisierung von Infrastrukturen und der Zugang zur Cloud ganz oben auf der Prioritätenliste. Doch nicht nur für die Endanwender - auch auf manche Entscheider wirkt die Cloud noch immer wie ein schwer greifbares Konstrukt. Während man Server und Hardware im Unternehmen selbst anfassen und konfigurieren kann, fehlt eine klare Vorstellung vom physischen Teil des Cloud-Netzwerks: Wie werden die Daten über weltweite Verbindungen von A nach B bewegt, wo werden sie in der Cloud gespeichert? Welche Ansprüche muss man an Datenzentren, Kabel, Redundanzen und Verfügbarkeiten stellen?

Datenzentren

Herkömmlich wurden wichtige Daten auf Servern im Unternehmen gespeichert. Mit dem Weg in die Cloud wandern Daten und Anwendungen nach und nach in die Datenzentren entsprechender Anbieter. Heute sind diese in der Regel als softwaredefinierte Datenzentren ausgelegt – der englische Begriff lautet „Software Defined Data Center”, abgekürzt SDDC. Hier werden alle Abläufe durch Software definiert und automatisiert. Ändern sich die Ansprüche an eine Anwendung, lassen sich neue Funktionen auf allen Infrastrukturebenen mit nur wenigen Befehlen veranlassen und umsetzen. Der Automatisierungsgrad wird dabei – basierend auf definierten Regeln, die jeweils den Aufgaben angepasst sind – immer weiter gesteigert.

Zunehmende Integration der Hardware und Automatisierung durch Software ermöglichen in modernen SDDCs einen ereignisgesteuerten Betrieb des Rechenzentrums. Microservices, wie zum Beispiel Messaging-Dienste, können – je nach Bedarf – gezielt aufgerufen und auch wieder abgestellt werden. Google investiert sehr stark in diese Infrastruktur.

Sicherheit

Natürlich sind die Datenzentren namhafter Anbieter hervorragend gegen Hackerangriffe abgesichert. Zum einen muss gewährleistet sein, dass Kunden ihre Daten jederzeit genauso zuverlässig abrufen können, als wären sie im eigenen Netzwerk gespeichert. Zum anderen müssen unbefugte Zugriffe auf die Daten ausgeschlossen werden. Nur wenn die Kunden darauf absolut vertrauen können, werden sie die vielen Vorteile des Cloud Computing in vollem Umfang nutzen.

Datenverlust und Datendiebstahl müssen aber auch hardwareseitig mit allen erdenklichen Mitteln verhindert werden. Server und Speichermedien dürfen niemals – im eigentlichen Wortsinn – in falsche Hände geraten. Die Anbieter moderner Clouds sorgen deshalb in allen relevanten Bereichen für eine äußerst sichere physische Infrastruktur – sowohl in den Rechenzentren als auch bei der Hardware. Das beginnt bei der Absicherung des Zugangs: In Cloud-Rechenzentren kommen mehrschichtige Sicherheitssysteme zum Einsatz. Fälschungssichere und mehrfach überprüfte elektronische Zugangskarten, abgesicherte Umzäunungen, biometrische Verfahren der Mitarbeiterverifizierung, Laserstrahlen gegen nicht autorisierte Eindringversuche – und natürlich eine engmaschige Videoüberwachung.

Ergänzendes zum Thema
Google Cloud

Google Cloud betreibt viele Datencenter in verschiedenen Cloud-Regionen – zum Teil auf verschiedenen Kontinenten und durch Meere getrennt. Der Einsatz von Unterseekabeln erlaubt es den Kunden von Google, den gesamten Verbund besonders effizient zu nutzen.

Die Entwicklung eigener, innovativer Systeme führt zu Lösungen, die jeweils genau auf die Bedürfnisse unterschiedlicher Kunden zugeschnitten sind. So stellt Google seinen Kunden das größte und am besten verbundene Netzwerk der Welt zur Verfügung – mit höchster Zugriffsgeschwindigkeit.

Um höchste Sicherheitsstandards zu gewährleisten, und auch gegen neu entwickelte Bedrohungen und Gefahren gewappnet zu sein, arbeiten viele Cloud-Anbieter eng und kontinuierlich mit renommierten Sicherheitsforschern zusammen. Diese können Entwicklungs- und Implementierungsprobleme frühzeitig identifizieren und melden, falls sie ein Risiko für Kundendaten darstellen könnten. Mögliche Schwachstellen werden so erkannt und beseitigt, noch bevor sie zur Gefahr werden. Angebote und Services können auf dem neuesten Stand gehalten werden, ohne dass bei Updates Risiken entstehen.

Setzt ein Anbieter, wie Google das tut, bei Cloud-Servern auf eigene Hard- und Software, sorgt das für zusätzliche Sicherheit gegenüber Angriffen. Im Gegensatz zu kommerziell erhältlichen Komponenten kommen hier keine unnötigen Zusätze zum Einsatz, die Sicherheitslücken mitbringen könnten. Speziell entwickelte, proprietäre Betriebssysteme und Server sind ausschließlich auf die hauseigene Software ausgelegt und Serverressourcen lassen sich dynamisch zuteilen. So kann auf jede Auffälligkeit effizient und schnell reagiert werden.

Sichere Hardware erlaubt es, die virtuelle Sicherheit der Cloud zu maximieren. Die Anbieter kennzeichnen die eingesetzten Geräte und verfolgen sie detailliert über den gesamten Lebenszyklus. Am Ende der Nutzungsdauer werden alle Daten zunächst mit einem sicheren Verfahren gelöscht. Danach werden die Geräte in einem mehrstufigen Prozess physisch zerstört – so viel Datensicherheit können nur wenige IT-Abteilungen von Unternehmen leisten.

Kabel

Der Vorteil moderner und hochsicherer Clouds ist eine weltweit hohe Verfügbarkeit bei niedriger Latenz des IP-Datennetzwerks. Diese wird durch einen Mix aus eigenen und öffentlichen Glasfaserkabeln sowie Unterseekabeln garantiert. Das sorgt für mehr Sicherheit, denn bei gängigen Cloud-Technologien legen Kundendaten während der Übertragung im öffentlichen Internet mehrere Etappen – sogenannte Hops – zwischen den Geräten zurück. Die Anzahl der Hops hängt dabei unter anderem von der Entfernung zwischen dem Internet Service Provider (ISP) und dem Kunden ab. Jeder einzelne Hop birgt dabei das Risiko, dass Daten abgegriffen oder verändert werden. Um das zu verhindern, werden beim Cloud Computing gleich mehrere Technologien eingesetzt. So sorgen etwa mehrschichtige Sicherheitsebenen für einen erweiterten Schutz.

Auf dem Weg über das Internet werden die Daten selbstverständlich verschlüsselt übertragen. Mehrere Schutzebenen verhindern dabei Distributed-Denial-of-Service-Angriffe. Auch die Speicherung im Datacenter erfolgt – bei Inaktivität – verschlüsselt. Identitäten, Nutzer und Dienste werden beim Zugriff über starke Authentifizierung mit mehreren Faktoren überprüft. Sensible Daten werden zudem durch fortschrittliche Tools wie Phishing-resistente Sicherheitsschlüssel geschützt.

Selbst bei großräumigen Stromausfällen sorgen redundante Energieversorgungssysteme und Komponenten zur Notstromversorgung für eine reibungslose Funktionalität – und dafür, dass die Kunden jederzeit auf ihre Daten zugreifen können. Immer mehr Menschen greifen auf das Internet zu – und sie nutzen dabei immer öfter sogenannten „Rich Content”: Spiele, Musik, Videos und Fotos. Dadurch wächst die Menge an übertragenen Daten gewaltig. Damit das keine Störungen zur Folge hat, werden ständig fortschrittlichere Technologien benötigt.

Annette Maier , Managing Director Google Cloud DACH, schreibt über Unterseekabel, Datenzentren und die „physische Cloud“ und erläutert, was zu einer sicheren Infrastruktur auf Cloud Provider-Seite gehört.
Annette Maier , Managing Director Google Cloud DACH, schreibt über Unterseekabel, Datenzentren und die „physische Cloud“ und erläutert, was zu einer sicheren Infrastruktur auf Cloud Provider-Seite gehört.
(Bild: Fabian Vogl/Google Cloud)

Google reagiert auf diese Entwicklung unter anderem mit Investitionen in innovative Hardware. Als erster privater Investor finanziert das Unternehmen derzeit die Verlegung des transatlantischen Unterseekabels „Dunant“, das nach dem Gründer des Roten Kreuzes und ersten Friedensnobelpreisträger Henry Dunant benannt wurde. Wenn es 2020 in den Einsatz geht, wird es dank modernster Untersee-Kabeltechnologie dafür sorgen, dass noch mehr Nutzer noch schneller und von vielen Orten auf Online-Inhalte zugreifen können.

Dank Cloud Computing können Privatanwender wie Unternehmen jederzeit und bequem über das Datennetzwerk auf einen unermesslichen Pool von konfigurierbaren Computerressourcen – Netzwerke, Server, Speicher, Apps und Dienste – zugreifen. Diese Ressourcen werden mit minimalem Verwaltungsaufwand und ohne spürbare Interaktion mit den Dienstanbietern schnell bereitgestellt oder freigegeben.

* Die Autorin Annette Maier ist Managing Director Google Cloud DACH und schreibt an dieser Stelle exklusiv für CloudComputing-Insider.

Artikelfiles und Artikellinks

(ID:46339598)