Use Cases, Verträge, IT-Architektur, SLAs Die vier größten Kostentreiber für die Cloud

Ein Gastbeitrag von Florian Weigmann*

Anbieter zum Thema

Cloud Computing hat durch die Pandemie einen deutlichen Schub bekommen. Laut einer Bitkom-Studie setzen acht von zehn Unternehmen darauf, vor Corona waren es erst sechs. Viele Unternehmen setzen auf den Kostensenkungseffekt der Cloud. Doch der ist nicht garantiert, denn einige Kostenfallen machen den Weg in die Cloud zum teuren Umzug.

Die Kostenkalkulation der Cloud und die Auswahl der richtigen Cloud-Services erfordern Überlegung. Ein Vergleich bestimmter Kriterien wird die Cloud-Kosten im Zaum halten.
Die Kostenkalkulation der Cloud und die Auswahl der richtigen Cloud-Services erfordern Überlegung. Ein Vergleich bestimmter Kriterien wird die Cloud-Kosten im Zaum halten.
(Bild: vladischern - stock.adobe.com)

Für viele Unternehmen ist die Cloud der Motor der Digitalisierung. Bereits jede dritte Firma verfolgt eine Cloud-First- oder Cloud-Only-Strategie und betreibt ihre Infrastruktur dadurch einfacher, schneller und effizienter. Ein Faktor kommt jedoch in diesem Zusammenhang selten zur Sprache: Die Kosten der Cloud. Unternehmen erwarten eine sofortige Kostensenkung, doch sie ist nicht garantiert. Denn auch Cloud Computing kostet und manchmal sogar mehr als gedacht.

Der richtige Anwendungsfall für die Cloud

Wer genau hinsieht, erkennt einige wichtige Kostentreiber: Erstens kann es der falsche Use Case sein, denn nicht jeder Cloud-Service ist für jeden Anwendungsfall optimal. So eignen sich viele Clouds nicht für die Datenarchivierung, denn sie sind für Workloads optimiert. Wer seine Datenarchive in die Cloud bringen will, sollte Object Storage nutzen. Diese Speichermethode hat nur eine vergleichsweise geringe Performance, ist aber fast beliebig skalierbar und eignet sich damit für große, statische Datenmengen.

Anders sieht es mit Daten aus, die regelmäßig aufgerufen werden, etwa Dokumente oder Datenbanken. Hier kommt es auf Leistung und Sicherheit an, was sich in höheren Kosten niederschlägt. Deshalb müssen Cloud-Services und Use Cases übereinstimmen. Das führt automatisch zur Multi-Cloud, die fast schon der Standard in Unternehmen ist.

Außerdem ist es wichtig, die Auslegung der einzelnen Cloud-Parameter zu beachten, beispielsweise die Zahl der virtuellen Server, der Prozessorkerne pro Server und das Storage-Volumen. Wer hier richtig dimensioniert, kann im Vorfeld genau kalkulieren und diejenigen Anbieter und Abrechnungsmodelle wählen, die optimal zu den Workloads passen.

Das Abrechnungsmodell beachten

Damit kommt der zweite Kostentreiber in den Blick: Das Abrechnungsmodell. Großer Vorteil der Cloud ist die leichte Skalierbarkeit auf Abruf. Virtuelle Server in der gewünschten Leistungsklasse sind binnen Minuten arbeitsfähig. Ressourcen wie Storage, Rechenleistung oder Netzwerke können flexibel hinzugefügt oder entfernt werden.

Leider sind die Abrechnungsmodelle ausgesprochen unterschiedlich. Einige Provider berechnen nur Speicher, andere primär Traffic. Bei weiteren wird die Arbeitslast zugrunde gelegt oder die Nutzungszeit von bestimmten Services. Einzelne Use Cases werden hier leicht zum Kostentreiber. Ein Beispiel: Ein global agierendes Unternehmen nutzt Loadbalancer und für die weltweit verteilten Webserver ein Content Delivery Network (CDN). Je nach Abrechnungsmodell macht der Traffic die Cloud-Kosteneinsparung leicht zunichte.

Doch selbst scheinbar harmlose Datenübertragungen können die Kosten sprengen. So belegen Sensoren im Industrial IoT nur wenig Bandbreite, senden ihre Daten aber mehrmals pro Sekunde. Da Maschinen nicht nur einen Sensor und Unternehmen nicht nur eine Maschine besitzen, erzeugen IoT-Anwendungen ein hohes Datenvolumen und damit teuren Netzverkehr.

Nur mit konsolidierter IT-Architektur in die Cloud

Die Einschränkung an dieser Stelle muss lauten: Das hohe Datenvolumen entsteht nur, wenn die Sensoren direkt in die Cloud funken. Damit ist der dritte Kostentreiber klar: die IT-Architektur. Unternehmen sollten daher immer die Frage stellen, wo welche Rechenleistung erbracht werden muss. Im Industrial IoT können vor Ort aufgestellte Edge-Server die Daten vorverarbeiten. Das beginnt bei einer einfachen Datenreduktion, sodass nur Messwertänderungen die Cloud erreichen. Doch es gibt auch vollständige Edge-Anwendungen für Data Analytics, die nur aggregierte Daten in der Cloud speichern.

Zudem ist nicht jeder Cloud-Service für einen bestimmten Aufgabenbereich geeignet. Vor allem die Hyperscaler werben damit, für jede Anwendung die passenden Plattform-Services anzubieten. Das beschleunigt zwar manches Szenario, aber die Unternehmen bezahlen im Einzelfall einen Funktionsumfang, den sie gar nicht benötigen.

Hinzu kommt die Gefahr des Vendor Lock-in. Denn einige der großen Provider gestalten ihre Funktionen proprietär. So bieten sie Schnittstellen zu fortgeschrittenen Funktionen wie Machine Learning, die bei anderen Providern nicht existieren. Damit fällt der Umstieg schwer und Unternehmen haben hohe Wechselkosten, wenn sie einen besseren Service finden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Ein angepasstes Service Level spart unnötige Ausgaben

Ein vierter Kostentreiber sind die Service Level Agreements (SLAs). Damit wird vertraglich der Umfang des Service niedergelegt, welche Reaktionszeiten in einem Störfall gelten und wie Vertragsverletzungen sanktioniert werden. Meist gilt die Daumenregel: Je höher das Service Level, desto teurer.

Zudem haben die großen Cloud-Anbieter Standard-SLAs, die für alle Kunden gelten und nicht verhandelbar sind – anders als bei lokalen Providern. Hier können Kosten gespart und gleichzeitig ein hohes Verfügbarkeitsniveau gewährleistet werden. Mindeststandard ist 99,9 Prozent Verfügbarkeit mit maximal neun Stunden Ausfall pro Jahr. Bei 99,999 Prozent spricht man von Hochverfügbarkeit mit einer Ausfallzeit von nur fünf Minuten. Doch nicht jeder Anwendungsfall benötigt Hochverfügbarkeit. Sinnvoll ist das nur für täglich genutzte, geschäftskritische Systeme wie einen Onlineshop. Interne Anwendungen, wie Data Analytics oder Archivierung, die nicht permanent im Produktivbetrieb nötig sind, kommen auch mit deutlich weniger aus.

Die Kostenkalkulation der Cloud und die Auswahl der richtigen Cloud-Services erfordern Überlegung. Idealerweise machen sich Unternehmen vorher Gedanken über die Use Cases, ein geeignetes Abrechnungsmodell, die Effizienz der eigenen IT-Architektur und die daraus abzuleitenden Service Level. Ein Vergleich anhand dieser Kriterien wird die Cloud-Kosten im Zaum halten.

* Über den Autor
Florian Weigmann ist seit Mai 2019 Chief Product Officer bei der Plusserver GmbH. Sein besonderes Augenmerk liegt dabei auf den Bereichen Datenarchitektur und Datensicherheit innerhalb skalierbarer Cloud-Infrastrukturen. Zudem eruiert er gemeinsam mit seinem Team die Mehrwerte neuer virtueller Produkte und Services für die Plusserver Kunden und entwickelt das Angebot entsprechend weiter.

Bildquelle: Plusserver GmbH

(ID:48206844)