Leitfäden, Tools und Modelle der Anbieter Die Effizienz von IT und Prozessen mithilfe der Cloud steigern

Autor / Redakteur: Michael Matzer / Elke Witmer-Goßner

Im Diskurs über digitale Transformation ist des Öfteren die Rede von der zu steigernden Effizienz durch die Cloud. Meist sind dabei sowohl der Betrieb der IT (IaaS) als auch die Effizienz der Prozesse (PaaS, SaaS) gemeint. Letzteres hat für viele Cloud-Nutzer zwar Priorität, aber der Weg zu diesem Ziel ist häufig unklar.

Firmen zum Thema

Mit Cloud-Services lässt sich aus IT-Umgebungen mehr Leistung herausholen bei niedrigeren Kosten – Nachrechnen muss man trotzdem.
Mit Cloud-Services lässt sich aus IT-Umgebungen mehr Leistung herausholen bei niedrigeren Kosten – Nachrechnen muss man trotzdem.
(Bild: gemeinfrei© Andreas Lischka / Pixabay )

„Man muss den Begriff ‚Effizienz‘ relativieren“, gibt der Unternehmensberater und Analyst Karsten Leclerq, Head of Cloud & Infrastructure Services bei PAC Teknowlogy, zu bedenken. „Effizienz ist abhängig vom Use Case.“ Dieser Anwendungsfall wechselt von Branche zu Branche und im Unternehmen von Projekt zu Projekt. „Wer beispielsweise über ein stetiges Geschäft mit wenig schwankendem IT-Bedarf verfügt, dem verspricht die Public Cloud nicht in erster Linie einen Effizienzgewinn“, warnt Leclerq. „Wer hingegen Schwankungen im Geschäftsverlauf ausgleichen möchte, der kann seine Workloads leichter anpassen, indem er Cloud-Ressourcen hinzubucht oder wieder abschaltet.“ Dies ist also die Infrastruktur-basierte IT-Effizienz, und der Vorteil liegt im Bereich der flexiblen Skalierbarkeit.

Alexander Janthur, Gründer und CEO bei Turbine Kreuzberg.
Alexander Janthur, Gründer und CEO bei Turbine Kreuzberg.
(Bild: Turbine Kreuzberg)

„Gleichzeitig wird es leichter, mit Partnern zu kollaborieren“, weiß Alexander Janthur, Gründer und CEO bei Turbine Kreuzberg: „Will man mit anderen zusammenarbeiten, muss man eine eigene On-Premises-Lösung erst mühsam öffnen, um andere anzubinden. Mit der Public Cloud fällt das weg.“ Integration und Kollaboration sind also die ersten Vorteile, die Richtung Prozesseffizienz weisen.

„Die Cloud trägt durch das Konsolidieren von Prozessen zu mehr Wertschöpfung bei“, sagt Christian Zöhrlaut, Director Products Medium Segment bei, Softwarehersteller Sage. „Anstatt Insellösungen zu nutzen, profitiert das Unternehmen von Synergieeffekten. Zu signifikanten Verbesserungen führt beispielsweise die Echtzeit-Verknüpfung von Betriebs- und Maschinendaten mit Fertigungsaufträgen und den zugehörigen Schichtplänen. Prozessparameter für die Herstellung lassen sich unmittelbar in Korrelation zum jeweiligen Zustand eines Produkts setzen. Schon im Vorfeld werden dadurch mögliche Ursachen für sonst erst später auffallende Qualitätsmängel erkennbar, die sich dadurch ohne großen Kostenaufwand beheben lassen.“ Die Steigerung dieses Ansatzes sieht man im Modell Digital Twin – digitaler Zwilling.

Cloud für KMU

„Es gibt gerade für kleinere Unternehmen handfeste Argumente für die Cloud“, sagt Martin Hubschneider, Vorstandsvorsitzender CAS Software: „Wer von unterwegs auf seine Daten sicher zugreifen will, der muss entweder eine aufwändige eigene IT-Infrastruktur betreiben oder er nutzt eine CRM/XRM-Lösung in der vertrauenswürdigen Cloud.“

Wichtig ist dabei für den Kunden die Wahlfreiheit hinsichtlich des Betriebsmodells: CAS Software biete seinen Kunden umfassende Wahlfreiheit zwischen einer vertrauenswürdigen Cloud Plattform „Software hosted in Germany“, einer Private Cloud auf eigenen Rechnern oder dem Rechenzentrum der eigenen Wahl. „Die Nachfrage nach unseren cloud-basierten Lösungen ist besonders bei kleinen und mittleren Unternehmen sehr erfreulich und nimmt stetig zu.“

Parameter der Effizienz

Optimale Effizienz mit der Cloud, die zu den eigenen Anforderungen und Beschränkungen passt, erfordert eine klare Vorstellung davon, welche und wie viele Stellschrauben es in der Public oder Hybrid Cloud eigentlich gibt. So spukt in manchen Köpfen noch die Vorstellung herum, man könne Server bei einem Provider behandeln wie die eigenen Server.

Es ist jedoch ein Unterschied, ob man die Server im eigenen Rechenzentrum quasi als Haustiere betrachtet (so mancher Bolide im IT-Keller hat einen neckischen Spitznamen) oder eben als Vieh. Letzteres ist der Fall bei einem Hyperscaler: Serverkapazitäten werden je nach Workload ausgewählt, zugewiesen und genutzt, also nach Datenverarbeitung, Speicher, Datenbank und Netzwerkanbindung.

So macht es etwa einen erheblichen Unterschied, ob der Kunde seine Datenverarbeitungs-Workloads VM-basiert, Container-gestützt oder serverlos realisieren will. „Die VM-basierte Datenverarbeitung stellt für die meisten Menschen das geläufigste mentale Modell dar, kann aber teurer und wartungsintensiver sein“, schreibt AWS in seinem erhellenden Leitfaden über die Säule „Leistung und Effizienz“ in seinem Well-architected Framework für die Cloud-Nutzung.

„Die containergestützte Datenverarbeitung ermöglicht eine präzisere Unterteilung der Arbeitslast und kann schnell skaliert werden, allerdings geht sie mit zusätzlicher Konfigurations- und Orchestrierungskomplexität einher.“ Schließlich gibt es noch Serverless Computing: „Die serverlose Datenverarbeitung abstrahiert den größten Teil der Verwaltungs- und Skalierungskomplexität, hat jedoch harte Systemgrenzen und erfordert die Einführung neuer Toolchains und Prozesse.“ Dieser Leitfaden ist – als Einstieg ins Thema – sehr zu empfehlen.

Kostengünstige Instanzmodelle

„Die Frage, die sich also jeder Interessent stellen sollte, lautet: Wie gut beherrsche ich die Nutzung der Public Cloud?“, gibt PAC-Analyst Leclerq zu bedenken. Es lohnt sich also, wenn sich der IT-Planer mit der Cloud auskennt. „Unter anderem bestimmen die gewählten Preismodelle maßgeblich die Gesamtkosten“, die ja ebenfalls die Effizienz beeinflussen. „Kunden können etwa Datenverarbeitungs-Instanzen oder Storage langfristig buchen statt sie rein bedarfsbasiert (pay per demand oder pay as you go) zu buchen, und können so von günstigeren ‚Stückpreisen‘ profitieren.“ Wie erwähnt, lohnen sich langfristige Abos für stabile, schwankungsarme Nutzungsfälle.

Bei AWS heißen solche längerfristigen Abos von Kapazitäten „Reserved“ bzw. „Dedicated Instances“. „Reserved Instances“ bieten im Vergleich zu den Preisen von On-Demand-Instances einen beachtlichen Rabatt, laut AWS bis zu 75 Prozent. „Wenn Reserved Instances einer bestimmten Availability Zone zugewiesen werden, stellen sie außerdem eine Kapazitätsreservierung bereit, sodass Nutzer Instances bei Bedarf starten können.“ Für Anwendungen mit stabilen oder vorhersehbaren Nutzungsanforderungen sparen Nutzer gegenüber On-Demand-Instances laut AWS einen Großteil der Kosten ein.

Ein „Dedicated Host“ ist hingegen ein physischer EC2-Server, der für die Nutzung durch einen Kunden reserviert ist. Das ist das Haustier-Modell. Mit Dedicated Hosts können Nutzer Kosten einsparen, indem sie ihre bestehenden servergebundenen Software-Lizenzen, etwa für Windows Server, SQL Server und SUSE Linux Enterprise Server (gemäß den jeweiligen Lizenzbedingungen), nutzen können. „Darüber hinaus wird dadurch die Einhaltung von Compliance-Anforderungen erleichtert. Solche Hosts können on-demand pro Stunde gebucht werden. Reserviert man ihre Nutzung, kann man einen Abschlag von bis zu 70 Prozent auf den On-Demand-Preis erwerben“, schreibt AWS.

Günstiger ist nur die Nutzung von Spot-Kapazitäten. Mit EC2 Spot-Instances können Nutzer EC2-Datenverarbeitungs-Reservekapazität mit einem Rabatt von bis zu 90 Prozent auf den On-Demand-Preis anfordern. Nutzer können EC2 Spot für verschiedene fehlertolerante und flexible Anwendungen, wie beispielsweise Test- und Entwicklungsumgebungen, zustandslose Webserver, Bild-Rendering oder Video-Transkodierung, sowie zur Ausführung von Workloads für Analysen, maschinelles Lernen und Hochleistungsdatenverarbeitung verwenden. Das sind Anwendungen mit flexiblen Start- und Endzeiten, die nur zu äußerst geringen Computing-Preisen realisierbar sind (weil die Datenmengen immens sind). Spot-Instances sind für Benutzer mit dringenden Computing-Anforderungen für große Mengen an Zusatzkapazitäten. Sie sind also für schwankende Skalierungsanforderungen die kostengünstigste Wahl – ohne Garantie der Verfügbarkeit.

Bedarfsgerechte Effizienz

Aus diesen Bedingungen ergibt sich Notwendigkeit für die frühzeitige Berechnung von Bedarfen. „Der Speicherbedarf geht beispielsweise bei digitalen Prozessen schnell in Terabyte oder in Petabyte“, gibt Leclerq zu bedenken. „Diese Speicherkapazität benötigen Forschungseinrichtungen (für Simulationen), Finanzinstitute, die Connected Car Entwicklung usw.“ Hinzukommen die Compute-Leistung und die Netzwerk-Leistung. AWS erwähnt auch noch die Wahl der Datenbank, die erheblichen Einfluss auf Performance und Kosten haben könne. Leclerq verweist zudem auf „indirekte Kosten, um die Cloud nutzen zu können“. Dazu gehören die Netzwerkanbindung, die Belange von Security und Compliance, entsprechend geschultes Personal und selbstverständlich der passende Provider.

Autoskalierung von Containern

Kubernetes-Cluster zur containergestützten Datenverarbeitung (s.o.) haben sich nach Angaben des Storage-Dienstleisters Rubrik zur Standardlösung für das Hosting von Anwendungen in der Cloud entwickelt. Die meisten Cloud-Provider bieten Kubernetes-Dienste an, wie z. B. den Azure Kubernetes Service (AKS), Amazon Elastic Kubernetes Service (Amazon EKS) oder Google Kubernetes Engine (GKE). Aber so manches Unternehmen fragt sich, ob es hinsichtlich der erhofften IT-Effizienz zu viel für Rechenressourcen in der Cloud ausgibt. Ist sein Lastmuster komplex und schwer vorherzusagen? Wächst bzw. sinkt die Last sprunghaft oder führen die Nutzer Anwendungen auf Abruf aus, die plötzliche Ausbrüche verursachen könnten?

Die Ingenieure bei Rubrik haben den Cluster-Autoscaler als Open-Source-Tool entwickelt. Es passt die Anzahl der Knoten eines Kubernetes-Clusters bei Bedarf automatisch an und unterstützt viele verschiedene Cloud-Provider, so etwa GKE, EKS, AKS). Der Autoscaler kann auf jedem Kubernetes-Cluster als zusätzlicher Pod eingesetzt werden.

Heinz-Joachim Schmitz, CTO bei IBM für die DACH-Region.
Heinz-Joachim Schmitz, CTO bei IBM für die DACH-Region.
(Bild: IBM)

„In der Post-COVID-Welt, in der Technologien der nächsten Generation die betrieblichen und kommerziellen Möglichkeiten erweitern werden, werden Interoperabilität, Portabilität und Reversibilität entscheidend für die Innovationsfähigkeit sein“, sagt Heinz-Joachim Schmitz, CTO , IBM DACH. „Und laut einer neuen Studie des IBM Institute for Business Value (IBV) glauben 74 Prozent der im Rahmen der COVID-19-Pandemie befragten CEOs, dass Cloud Computing ihrem Unternehmen in den nächsten 2 bis 3 Jahren am meisten helfen wird, Ergebnisse zu erzielen.“

Nur Public Cloud vs. Hybrid-Cloud-Plattform

Die Frage ist nun, wo diese CEOs die größten Vorteile für ihr Business erwarten, in der Public Cloud, der Hybrid- oder der Multi-Cloud. „Unsere Kunden haben festgestellt, dass die Einführung einer hybriden Cloud-Architektur 2,5-mal wertvoller sein kann als die alleinige Verwendung der öffentlichen Cloud“, berichtet Schmitz. „Dies schreibt die grundlegenden Verhaltensweisen und Annahmen der IT neu und definiert neu, wie Unternehmen Werte schaffen und liefern, arbeiten, konkurrieren und Transaktionen durchführen.“

IBM hat herausgefunden, dass die Optimierung der IT-Effizienz mithilfe der Public Cloud einen geringeren Vorteil bietet als die Beschleunigung der Geschäftsprozesse (durch Integration usw.) und v.a. durch die Steigerung der Produktivität der Entwickler, welche eine Hybrid-Cloud-Plattform bieten könnte. Bei dieser Plattform kommt es darauf an, dass alle verteilten Komponenten nahtlos über eine heterogene Plattform hinweg zusammenarbeiten können. Die Grundlage dafür bietet die Technologie Red Hat OpenShift.

(ID:47373074)