Suchen

Multi-Cloud-Analyse und Confidential Computing Google Cloud Next OnAir mit Fokus auf Hybrid- und Multi-Cloud-Datenmanagement

| Autor: Elke Witmer-Goßner

Google Clouds jährliche, weltweite Kunden- und Partnerkonferenz fand in diesem Jahr ebenfalls pandemiebedingt – „on air“ – rein digital statt. Zum Start der virtuellen „Next 2020“ kündigte der Konzern neue Lösungen für intelligente Datenanalyse und sicheres Computing an.

Unternehmen suchen zunehmend nach Produkten, um mehrere Clouds weniger komplex und konsistent nutzen zu können, bei gleichzeitiger Nutzung der bestehenden Infrastruktur.
Unternehmen suchen zunehmend nach Produkten, um mehrere Clouds weniger komplex und konsistent nutzen zu können, bei gleichzeitiger Nutzung der bestehenden Infrastruktur.
(Bild: Google Cloud)

Seit 20 Jahren habe es sich Google zur Aufgabe gemacht, Unternehmen bei der Bewältigung ihrer Datenprobleme zu unterstützen, sagte Kirsten Kliphouse, President North America Google Cloud, bereits im Vorfeld der digitalen Veranstaltungsreihe. Die Mission Google Clouds, „transform through data“, solle Organisationen auf ihrem Weg der digitalen Transformation zu begleiten.

Multi-Cloud-Nutzung ist Standard

Die BigQuery-Architektur: Über die Anthos-Hybrid- und Multi-Cloud-Anwendungsplattform kann die BigQuery-Abfrage-Engine auf mehreren Clouds erstellt, bereitgestellt und verwaltet werden.
Die BigQuery-Architektur: Über die Anthos-Hybrid- und Multi-Cloud-Anwendungsplattform kann die BigQuery-Abfrage-Engine auf mehreren Clouds erstellt, bereitgestellt und verwaltet werden.
(Bild: Google Cloud)

Google Cloud gehe es insbesondere darum, Daten, die häufig separat lokal, auf proprietären Systemen oder in verschiedenen Clouds gespeichert sind, uneingeschränkt nutzbar zu machen. Daher liege der Produktschwerpunkt immer mehr auch auf Lösungen, die helfen, diese Silos aufzubrechen und Daten cloud-übergreifend verfügbar zu machen. Das Verschieben von Daten über verschiedene Clouds sei umständlich und auch teuer, da in der Regel Gebühren für die Übertragung von Daten von anderen Cloud-Anbietern in die Google Cloud anfielen, erklärte Debanjan Saha, General Manager und Vice President of Engineering, Google Cloud, bei Vorstellung der neuen Multi-Cloud-Analyselösung BigQuery Omni.

BigQuery Omni lässt sich verwenden, um beispielsweise Google Analytics 360 Ads-Daten abzufragen, die in Google Analytics 360 Ads gespeichert sind. Ebenso Abfrageprotokolldaten einer E-Commerce-Plattform oder von Anwendungen, die in AWS S3 gespeichert sind. Mit Looker lässt sich ein Dashboard erstellen, um das Kundenverhalten und -käufe mit den Werbeausgaben zu vergleichen und zu visualisieren.
BigQuery Omni lässt sich verwenden, um beispielsweise Google Analytics 360 Ads-Daten abzufragen, die in Google Analytics 360 Ads gespeichert sind. Ebenso Abfrageprotokolldaten einer E-Commerce-Plattform oder von Anwendungen, die in AWS S3 gespeichert sind. Mit Looker lässt sich ein Dashboard erstellen, um das Kundenverhalten und -käufe mit den Werbeausgaben zu vergleichen und zu visualisieren.
(Bild: Google Cloud)

BigQuery Omni soll die Datenanalyse über verschiedene Cloud-Plattformen hinweg ermöglichen. Das neue Produkt basiert auf der Anwendungsplattform Anthos, mit der Anwender ihre Daten direkt über Google Cloud, Amazon Web Services (AWS) und in Kürze auch Microsoft Azure zu Analysezwecken verbinden können, ohne Datensätze verschieben oder kopieren zu müssen. Über eine einzige Benutzeroberfläche können Kunden die Daten dort analysieren, wo sie abgelegt sind.

BigQuery Omni ist ab sofort in der Version Private Alpha für AWS S3 verfügbar, die Unterstützung für Azure soll bald folgen. BigQuery Omni unterstützt Avro, CSV, JSON, ORC und Parkett.

Neues Confidential-Computing-Portfolio

Ein weiteres großes Thema der „Next 2020“: Die Verschlüsselung von Daten. Hier kündigte Google Cloud zwei neue Sicherheitsangebote an. Unternehmen, aber auch Behörden, die ihre Workloads in die Cloud verlagern, stehen schließlich vor dem Problem, diese Daten vertraulich und privat halten zu müssen. Google Cloud verschlüsselt zwar die Daten während der Speicherung und Übertragung, allerdings müssen diese Kundendaten für die Verarbeitung wieder entschlüsselt werden.

Daher führt Google Cloud das neue Portfolio für Confidential Computing ein. Diese neue Technologie erlaubt es, Daten während der Verarbeitung zu verschlüsseln. In Confidential-Computing-Umgebungen sollen Daten in-memory und auch außerhalb der Zentraleinheit (CPU) verschlüsselt werden. Damit sei Google Cloud der erste große Cloud-Anbieter, der ein solches Maß an Sicherheit und Isolierung in einer Lösung biete, die weder eine Änderung des Codes in Apps noch Einbußen bei der Rechenleistung verlange.

Das erste Produkt, das Google Cloud hier auf den Markt bringt, ist Confidential VMs. Google Cloud verwendet zwar bereits verschiedene Isolations- und Sandboxing-Verfahren als Teil seiner Cloud-Infrastruktur, um die multi-mandantenfähige Architektur zu sichern. Confidential VMs – aktuell in der Beta-Phase – gehen noch einen Schritt weiter und bieten eine Arbeitsspeicher-Verschlüsselung. So können Kunden virtuelle Maschinen in der Cloud weitgehend isolieren. Confidential VMs sind auf AMD CPUs verfügbar und nutzen die Vorteile der sicheren verschlüsselten Virtualisierungstechnologie, die von AMD EPYC-CPUs der zweiten Generation unterstützt wird.

Mit „Assured Workloads for Government“ lassen sich neue Assured-Workloads-Umgebungen in Übereinstimmung mit den Compliance-Anforderungen konfigurieren.
Mit „Assured Workloads for Government“ lassen sich neue Assured-Workloads-Umgebungen in Übereinstimmung mit den Compliance-Anforderungen konfigurieren.
(Bild: Google Cloud)

Doch auch für Regierungsbehörden, die ihre IT mit Cloud-Technologien modernisieren möchten, ist die Gewährleistung der Sicherheit, des Datenschutzes und der Einhaltung gesetzlicher Vorschriften für ihre Arbeitslasten unerlässlich. Für die vertrauliche Datenverarbeitung in Behörden, kündigte Google Cloud „Assured Workloads for Government“ an, was allerdings zuerst auf dem US-amerikanischen Markt verfügbar sein wird. Viele Cloud-Anbieter hätten bisher separate Umgebungen („Regierungs-Clouds“) aufgebaut, um die strengen Compliance-Anforderungen für die Verarbeitung von bundes-, landes- und kommunalbehördlichen Daten zu erfüllen. Mit dem Manko allerdings, dass diese auf weniger funktionsreichen, abgesicherten Versionen kommerzieller Clouds laufen müssen.

Google Cloud hält die neue Lösung „Assured Workloads for Government“ für den besseren Weg, einfach und schnell kontrollierte Umgebungen zu erstellen, in denen Datenstandorts- und Personenzugriffskontrollen automatisch durchgesetzt werden können. Die globale Auslieferung der Lösung ist geplant.

Vollgas bei Industrie 4.0

Neben den neuen Produkten kündigte Google Cloud zu Beginn seiner digitalen Veranstaltungsreihe auch weitere Partnerschaften an. Aus europäischer Sicht besonders interessant ist die bereits im Vorfeld verkündete Zusammenarbeit mit der Deutschen Bank. Ein ähnliches Kaliber hat die neue Industrie- und Technologiepartnerschaft mit der französischen Groupe Renault, um die industriellen Systeme in Richtung Industrie 4.0 zu transformieren. Neben der Digitalisierung der Produktionsanlagen sollen neue Branchenlösungen entwickelt werden.

Groupe Renault hat 2006 mit der Entwicklung einer eigenen digitalen Plattform begonnen, um die Industriedaten aus weltweit 22 Konzernstandorten und über 2.500 Maschinen zu verbinden und für den Erkenntnisgewinn zu sammeln. Die neue Partnerschaft mit Google Cloud hat vor allem das Ziel, die unabhängig betriebene industrielle Datenmanagementplattform von Groupe Renault zu optimieren. Der Automobilkonzern will zudem mit den Lösungen und der Expertise von Google Cloud in den Bereichen intelligente Analytik, maschinelles Lernen (ML) und künstliche Intelligenz (AI) seine Lieferketten und die Fertigung effizienter machen, die Produktionsqualität erhöhen sowie durch Energieeinsparungen die Umweltbelastung verringern.

Es geht noch weiter

Über die kommenden neun Wochen finden im Rahmen der Google Cloud Next 2020 OnAir über 200 kostenlose Sessions statt, die neben den Keynotes vieler Branchenkoryphäen vor allem zahlreiche Weiterbildungsmöglichkeiten mit führenden Google-Entwicklern bieten.

Ergänzendes zum Thema
Erste Schritte in BigQuery Omni:
  • Über die Benutzeroberfläche des Cloud Data Warehouse BigQuery wählt der Anwender die öffentliche Cloud aus, in der sich seine Daten befinden. Für die Abfrage müssen die Daten nicht extra formatiert oder transformiert werden.
  • BigQuery Omni unterstützt Avro, CSV, JSON, ORC und Parkett. Die Rohdaten müssen daher auch nicht aus der anderen Public Cloud verschoben oder kopiert werden. Es müssen auch keine Cluster verwaltet oder zusätzliche Ressourcen bereitgestellt werden.
  • Der Analysevorgang erfolgt innerhalb des Multi-Tenant-Service von BigQuery, der auf der AWS-Region läuft, in der sich die Daten während der Berechnung befinden. Die Abfragemaschine von BigQuery läuft hinter den Kulissen auf den Anthos-Clustern innerhalb des von BigQuery verwalteten Dienstes.
  • BigQuery holt die Daten aus der Datenspeicherung in den Account des berechtigten Anwenders, der sich hierfür über die IAM-Rollen des anderen Public-Cloud-Dienstes autorisiert hat.
  • Um die Abfrage auszuführen, werden die Daten vorübergehend innerhalb AWS (demnächst auch Azure) vom Datenspeicher zu den BigQuery-Clustern, die auf Anthos laufen, verschoben.
  • Der Anwender kann nun auswählen, ob die Abfrageergebnisse an die Google Cloud zurückgegeben werden sollen, um sie in der BigQuery-Benutzeroberfläche anzuzeigen. Die Ergebnisse können aber auch direkt zurück in den Datenspeicher exportiert werden, ohne die Ergebnisse oder Daten cloud-übergreifend verschiebe zu müssen.

(ID:46714462)

Über den Autor

 Elke Witmer-Goßner

Elke Witmer-Goßner

Redakteurin, CloudComputing-Insider.de