„Pssst…vertraulich!“ Cloud Computing mit Laufzeit-Verschlüsselung

Von Filipe Pereira Martins und CTO und CISO Anna Kobylinska 8 min Lesedauer

Anbieter zum Thema

In mehrmandantenfähigen IT-Umgebungen geht das Gespenst von CPU-Datenlecks und das Risiko von Seitenkanalangriffen mit Privilegieneskalation schon länger um. Bald fließt die NIS-2-Richtlinie der Europäischen Union in deutsche Gesetzgebung hinein und hebt die Messlatte hinsichtlich der IT-Sicherheit noch weiter an. Cloud Computing mit Laufzeit-Verschlüsselung wäre da die Idee.

Confidential Computing zieht eine zusätzliche Sicherheitsebene ein und verschlüsselt Daten während der Laufzeit, indem Workloads in isolierten, hardwareverschlüsselten Umgebungen oder vertrauenswürdigen Umgebungen ausgeführt werden.(Bild:  Gefo - stock.adobe.com)
Confidential Computing zieht eine zusätzliche Sicherheitsebene ein und verschlüsselt Daten während der Laufzeit, indem Workloads in isolierten, hardwareverschlüsselten Umgebungen oder vertrauenswürdigen Umgebungen ausgeführt werden.
(Bild: Gefo - stock.adobe.com)

Vertrauenswürdig in der Cloud rechnen (Stichwort: Confidential Computing), das gibt es ja schon.— und nicht nur bei den Hyperscalern. Die Berliner Enclaive GmbH beispielsweise meistert den Drahtseilakt mit VMs und Containern sogar in der Multicloud.

NIS-2 kommt – bitte anschnallen!

Die NIS-2-Richtlinie der EU fordert verschärfte Cybersicherheitsmaßnahmen und erweitert gleichzeitig den Geltungsbereich der regulierten Organisationen — kritische Infrastrukturen und essenzielle Dienste — auf zusätzliche Sektoren. Betroffen sind erstmals auch zahlreiche mittelständische Versorgungsunternehmen. Das NIS-2-Umsetzungs- und Cybersicherheitsstärkungsgesetz (NIS2UmsuCG) könnte bereits im März 2025 in Kraft treten.

Die erweiterten Sicherheitsmaßnahmen haben zum Ziel, den Schutz von Daten und Arbeitslasten auch während der Verarbeitung zu stärken. Cloud-Nutzern stehen einige Anpassungen ihrer Sicherheitslage bevor.

Seit dem Bekanntwerden gravierender Verwundbarkeiten in marktüblichen Prozessoren von Anbietern wie Intel, AMD und ARM sind die Risiken im Cloud-Umfeld deutlich gestiegen. Aktive Bedrohungen von Cloud-Arbeitslasten umfassen neue Varianten von Spectre (Zugriffe auf beliebige Speicherbereiche), Meltdown auf älteren Prozessoren und Reptar (CVE-2023-23583). Diese Schwachstellen ermöglichen es potenziellen Angreifern, auf sensible Informationen zuzugreifen, selbst wenn sie verschlüsselt gespeichert und verschlüsselt übertragen werden, durch Seitenkanalangriffe mit Privilegieneskalation und Datenlecks.

Auf Treu und Glauben?

Das grundlegende Problem liegt darin, dass die Daten in traditionellen Cloud-Umgebungen während der Verarbeitung selbst auf mehrmandantenfähiger Hardware im Klartext gehandhabt werden. Bei mehrmandantenfähigen Systemen nutzen mehrere Kunden dieselbe physische Systemhardware. Gängige Verwundbarkeiten in Prozessorarchitekturen steigern das Risiko einer Datenverletzung oder eines unbefugten Zugriffs.

Seitenkanalangriffe via Spectre nutzen die sogenannten spekulativen Ausführungen der CPU, um unerlaubte Zugriffe auf den CPU-Speicher zu tätigen. Durch geschickte Manipulationen während der spekulativen Ausführung hinterlässt die CPU seitliche Spuren beispielsweise in den Cache-Speichern, die Timing-basierte Rückschlüsse auf die Daten zulassen. So können Angreifer sensible Daten wie Passwörter oder Verschlüsselungsschlüssel anderer Cloud-Nutzer aus dem Speicher der CPU extrahieren, wenn sie eigene VMs oder Docker-Container auf derselben Hardware ausführen.

Vollkommene Immunität gibt es nicht

Sechs Jahre nach der Entdeckung der Sicherheitslücken Spectre und Meltdown haben Forscher Johannes Wikner und Kaveh Razavi der ETH Zürich neue Schwachstellen in Prozessoren von Intel und AMD aufgedeckt. Die neue Variante von Spectre, getauft auf den Namen „Post-Barrier Spectre“, ermöglicht es Angreifern, hardwarebasierte Sicherheitsvorkehrungen (konkret die Indirect Branch Predictor Barrier) neuerer CPUs zu umgehen und sensible Informationen wie den Hash des Root-Passworts aus einem suid-Prozess zu extrahieren.

Während CPU-Anbieter wie Intel oder AMD und der Architekturdesigner ARM inzwischen hardwarebasierte und softwareseitige Schutzmaßnahmen bereitstellen, bleibt Spectre ein grundlegendes Designproblem moderner Prozessoren und ein gravierendes Sicherheitsrisiko für Cloud-Arbeitslasten.

Mit Meltdown (Intel, ARM und AMD) können Angreifer auf geschützte Speicherbereiche von Prozessoren zugreifen, die normalerweise unzugänglich sind, und Daten daraus extrahieren. Für die meisten Systeme, die regelmäßig aktualisiert werden, stellt diese kritische Verwundbarkeit nach dem heutigen Wissensstand kein aktives Risiko mehr dar — doch Cloud-Nutzern stehen keinerlei Möglichkeiten zur Verfügung, die nachweislich zu überprüfen oder Maßnahmen zu erwirken.

Trotz Schutzmaßnahmen wie Intel eIBRS oder AMD SEV-SNP, die solche Angriffe verhindern sollten, sind Cloud-Nutzer also nicht ganz immun, vor allem da sie auf die Wahl der CPU oder der eingespielten Firmware und die Software-Updates im Normalfall keinen Einfluss haben. Die Entdeckung von Spectre und Meltdown hat die Bedeutung von Confidential Computing und die Notwendigkeit von Trusted Execution Environments (TEEs) ins Bewusstsein vieler Cloud-Nutzer gebracht.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Cloud-Anbieter wie AWS, Microsoft Azure und Google Cloud haben umfangreiche Sicherheitsmaßnahmen implementiert, darunter zusätzliche Isolationsmaßnahmen in den Hypervisoren, um die Risiken durch Seitenkanalangriffe zu minimieren. Allerdings ist die direkte Überwachung solcher Angriffe sowie die Erkennung von Datenlecks kompliziert. Die rückblickende Analyse eines Vorfalls hat nach Verlust sensibler Daten nur fragwürdigen Nutzen. Privilegieneskalation und Datenlecks könnten in der Cloud an der Tagesordnung sein, da sie größtenteils unbemerkt stattfinden können.

Vertrauen ist gut, eine Enklave ist besser

Confidential Computing umfasst den Schutz von Daten im Transport, im Ruhezustand und während der Verarbeitung. Dieser bahnbrechende Ansatz stützt sich auf hardwarebasierte Sicherheitsfunktionen moderner Prozessoren, um den Umgang mit vertraulichen Informationen während der Verarbeitung kryptographisch abzusichern. Die sogenannten Trusted Execution Environments (TEEs) schaffen eine sichere Laufzeitumgebung für Cloud-native Arbeitslasten, die sowohl Cloud-Daten als auch den Anwendungscode vor unbefugtem Zugriff schützen.

In einer On-Premises-Umgebung oder auf dedizierten Cloud-Servern mit TEE-fähigen Prozessoren — Stichwort Bare-Metal-Server — können Unternehmen direkt auf die Funktionen der verwendeten Hardware zugreifen, also etwa AMD SEV (Secure Encrypted Virtualization), Intel SGX (Software Guard Extensions), Intel TDX (Trust Domain Extensions) oder ARM CCA (Confidential Compute Architecture). Die Entwicklungsteams benötigen hierzu Kenntnisse in der Speicherverwaltung auf Kernel-Ebene und Kryptografie, um Verschlüsselungstechniken wie AES, RSA, ECDSA oder PQC zu implementieren.

Confidential-Computing-Services der Hyperscaler

Cloud-Anbieter wie Microsoft Azure, AWS und Google Cloud Platform (GCP) haben Confidential-Computing-Dienste im Portfolio.

AWS bietet mit AWS Nitro Enclaves eine Technologie für vertrauenswürdiges Cloud Computing auf der Basis der AWS Nitro-Plattform. Nitro bildet die Vertrauensbasis (Root of Trust) für die gesamte AWS-Plattform. AWS Nitro Enclaves sind isolierte Umgebungen, die die Workloads von dem Betriebssystem der Hauptinstanz vollständig trennen, um sie vor potenziellen Angriffen durch Malware, Insider-Bedrohungen oder Schwachstellen in der übrigen Infrastruktur abzuschotten.

Die Sicherheitsarchitektur von Nitro umfasst mehrere Komponenten. Der Nitro Security Chip lagert eine Reihe sicherheitskritischer Aufgaben wie die Initialisierung von EC2-Instanzen von der Software auf dedizierte Hardware aus. Nitro TPM (Trusted Platform Module) ermöglicht die Erstellung und Speicherung von kryptografischen Schlüsseln und wacht über die Integrität von EC2-Instanzen durch die Authentifizierung ihrer Hardware-Komponenten. Mit Nitro Enclaves bietet AWS eine isolierte Ausführungsumgebung in EC2 für besonders sensible Daten und Berechnungen. Nitro ist das Herzstück von Confidential Computing auf AWS.

Erstellen eines vertrauenswürdigen Kubernetes-Clusters mit Enclaive auf AWS.(Bild:  Enclaive GmbH)
Erstellen eines vertrauenswürdigen Kubernetes-Clusters mit Enclaive auf AWS.
(Bild: Enclaive GmbH)

Die Enklave hat keinen Netzwerkzugriff, keinen persistenten Speicher und keine Admin- oder Root-Rechte. Selbst Administratoren oder privilegierte Nutzer haben keinen Zugriff auf die Daten, die in der Enklave verarbeitet werden. Die Enklave schützt ihre Arbeitslasten mit Hilfe kryptografischer Funktionen, verwaltet aber auch selbst die Schlüssel (im AWS-Dienst Key Management Service). Entwickler können die Nitro Enclaves mit Hilfe von APIs und Toolkits wie AWS Nitro CLI einrichten und verwalten, ohne tiefgreifende Änderungen an den eigenen Anwendungen vorzunehmen — solange sie das AWS-Ökosystem nicht verlassen.

Microsoft Azure bietet speziell angepasste virtuelle Maschinen und vertrauenswürdige Container auf der Basis von Intel SGX (Software Guard Extensions). Die Technologie ermöglicht es, Daten in einer sicheren Ausführungsumgebung zu verarbeiten. Daten werden verschlüsselt an die Enklave gesendet und bleiben während der gesamten Verarbeitung verschlüsselt.

Azure stellt den Nutzern einen Attestation Service zur Verfügung, der dazu dient, den Vertrauensstatus einer Confidential-Computing-Instanz nachzuweisen. Mit diesem Service können Cloud-Nutzer die Integrität und Authentizität der verwendeten Enklave überprüfen. Über die Sicherheit der Schlüssel wacht Azure Key Vault, Hardware-Sicherheitsmodule (HSMs) oder Azure Dedicated HSM.

Confidential Computing sei „ein Durchbruch in der Cloud-Sicherheit“, glaubt Thomas Kurian, CEO von Google Cloud. Google Cloud bietet unter anderem Confidential VMs auf der Basis der AMD SEV-Technologie (Secure Encrypted Virtualization) und Confidential GKE (Google Kubernetes Engine). Auch Google verwaltet die Schlüssel seiner Kunden in der eigenen Cloud.

(ID:50304123)