Datengrundlage verbessern KI-Automatisierung: Kosten, Emissionen und ESG-Ziele optimieren

Ein Gastbeitrag von Stephanie Metzner* 7 min Lesedauer

Anbieter zum Thema

Komplexe IT-Landschaften sind heute Alltag in vielen Unternehmen. Sie zu verwalten und gleichzeitig Effizienz und CO2-Ausstoß im Blick zu behalten, gleicht einer Herkulesaufgabe. Abhilfe schaffen KI-basierte Automatisierungslösungen, die in der Lage sind, alle Parameter im Blick zu behalten.

Weniger Emissionen gleich weniger Kosten bzw. weniger unnötige und kostenintensive Infrastruktur oder Kapazitäten gleich weniger Emissionen –KI-basierte Automatisierungslösungen unterstützen, damit die Rechnung aufgeht.(Bild:  NongAsimo - stock.adobe.com)
Weniger Emissionen gleich weniger Kosten bzw. weniger unnötige und kostenintensive Infrastruktur oder Kapazitäten gleich weniger Emissionen –KI-basierte Automatisierungslösungen unterstützen, damit die Rechnung aufgeht.
(Bild: NongAsimo - stock.adobe.com)

Für den Erfolg eines solchen Ansatzes kommt es aber nicht nur auf die richtige Software an. Eine der wesentlichen Ursachen, die Unternehmen bei der Optimierung von Kosten und Emissionen ausbremsen, liegt im fehlenden Verständnis für die richtige Größe von Anwendungskomponenten und die Planung von Kapazitäten. Es ist entscheidend, den tatsächlich erforderlichen Ressourcenbedarf zu kennen, dynamisch zu vergrößern oder verkleinern, wenn sich die Anforderungen ändern. Sobald Teams wissen und darauf vertrauen, dass ihre Workloads optimal dimensioniert werden – also schrumpfen und vor allem auch wachsen können, um die Anwendungsperformance jederzeit sicherzustellen, ist ein wesentlicher Schritt zu intelligenten und ressourcenschonenden Entscheidungen getan.

Container, Cloud und hochgradig diverse Applikationen

Moderne Lösungen wie Containerisierung und Microservices werden in der IT-Community zurecht gefeiert. Immerhin ermöglichen sie die Fragmentierung von Anwendungen, um sie je nach Bedarf zu skalieren. Das stellt Unternehmen jedoch bei allen Vorteilen vor eine neue Herausforderung: Wo vorher in der Regel nur eine monolithische Anwendung auf einige wenige Ebenen verteilt war, ist nun eine Architektur zu managen, in der viele winzige Teile von Anwendungen über die gesamte Infrastruktur verteilt sind.

Hinzu kommen die Möglichkeiten des Cloud Computing. Unternehmen können wählen, ob sie Workloads in eigenen Rechenzentren oder bei einem von mehreren Hyperscalern laufen lassen wollen. Es gibt Public-Cloud-Anbieter, bei denen sie Cloud-native Anwendungen, PaaS-Dienste und traditionelle Workloads ausführen können. Das birgt jedoch das Risiko, dass IT-Verantwortliche mehr Kapazität in einer Public Cloud buchen, als sie benötigen – man spricht dann von einem „XL-Entwicklerproblem“. Der häufige Transfer des On-Premises-Verhaltens in die Public Cloud ist ein weit verbreitetes Phänomen bei unseren Kunden, das nicht nur zu unnötigen Kosten, sondern auch zu erhöhten CO2-Emissionen führt.

Die wirken sich nicht nur auf die Umwelt aus, sondern mit der vorgezogenen Erhöhung des CO2-Preises zum 01. Januar 2024 auch noch stärker als bisher auf die Bilanz – und sollen deshalb optimiert werden, wo immer möglich. Auch eine umfassende Nachhaltigkeitsberichterstattung, das im Zug der Corporate Sustainability Reporting Directive (CSRD) der EU eingeführte ESG-Reporting, wird in mehreren Schritten ausgerollt und ist ab dem Geschäftsjahr 2024 für Unternehmen von öffentlichem Interesse mit mehr als 500 Mitarbeitenden verpflichtend. Ab 2025 folgen alle anderen bilanzrechtlich großen Firmen, ab 2026 gilt die Berichtspflicht dann auch für bilanzrechtlich kleine und mittelgroße Unternehmen (KMU).

Keine Cloud ist auch keine Lösung

Führen Unternehmen Workloads dagegen auf einer lokalen Instanz aus, können sich Anwendungen auf unerwartete Weise gegenseitig beeinträchtigen. So kann es beispielsweise zu Problemen mit einer scheinbar stabilen Anwendung kommen, wenn sich herausstellt, dass diese gleichzeitig mit einer speicherintensiven Anwendung betrieben wird, die die andere Anwendung ausbremst.

Die Summe aus diesen Entwicklungen – Containerisierung, hybride Cloud-Umgebungen und Anwendungen mit unterschiedlichsten Anforderungen – lässt sich nur schwer erfolgreich managen. KI-basierte Tools können menschliche Administratoren bei dieser komplexen Anforderung unterstützen – wenn die richtigen Voraussetzungen für ihren Einsatz geschaffen werden.

Manuelle Überwachung kaum möglich

Es gibt eine Vielzahl von Überwachungsprogrammen, von denen einige beim jeweiligen Anbieter kostenlos zur Verfügung gestellt werden. Bei Amazon erhalten Unternehmen beispielsweise ein kostenloses Dashboard, das eine Reihe von Leistungsstatistiken und Zahlen zur genutzten AWS-Umgebung enthält.

Doch für ein erfolgreiches Management der IT-Umgebung, das mit den Unternehmenszielen im Einklang steht, bieten diese in aller Regel nicht den nötigen Umfang. Die Art der Überwachung und deren Management übersteigen das menschliche Maß inzwischen bei weitem. Unabhängig von der im Unternehmen verarbeiteten Datenmenge bedarf es spezialisierter Software, um aus Daten im Einklang mit der Vielzahl geltender Regulierungen verwertbare Analysen zu gewinnen. Aus diesen Analysen lassen sich dann Erkenntnisse ziehen, die im Idealfall spezifisch genug sind, um automatisiert werden zu können. Bei der richtigen Auswertung der Daten kann die Automatisierung in Kombination mit Künstlicher Intelligenz (KI) sehr hilfreich sein. Im Kern geht es immer darum, die richtigen Dinge zur richtigen Zeit zu tun.

Vertrauensbildung ist eine Kernaufgabe

Automatisierung ist nicht neu, wird aber im Management der Rechenzentren dennoch nicht umfassend eingesetzt. Die Gründe dafür liegen in mangelndem Vertrauen in ihre Fähigkeiten und in der Einschränkung des eigenen Handlungsspielraums. Inhaber von Anwendungen sind deshalb oft nicht ohne weiteres bereit, die Ergebnisse der Automatisierung zu akzeptieren.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Wenn Sie beispielsweise einen Entwickler fragen, ob er eine kleine, mittlere, große oder extragroße virtuelle Maschine (VM) haben möchte, wird er sich wahrscheinlich für die extragroße Variante entscheiden, um auf Nummer sicher zu gehen, denn damit sind alle Bereiche abgedeckt, und es gibt genügend Spielraum für Tests, sprich um Dinge zu testen. Bekanntermaßen ist es nie verkehrt, möglichst viele Ressourcen – auch für gegebenenfalls Engpässe – zu verwenden. Schwierig wird es erst, wenn die erhofften Ergebnisse nicht erbracht werden.

Das Resultat ist allerdings eine unnötig aufgeblähte IT-Landschaft, die vermeidbare Kosten und Emissionen verursacht. Decken Unternehmen mit Hilfe einer Automatisierungssoftware nur den tatsächlichen Bedarf ab, verlieren IT-Fachkräfte einen Teil ihres Spielraums. Am Anfang erfolgreicher Automatisierungsinitiativen steht deshalb Vertrauensbildung: Denn erst, wenn IT-Abteilungen sehen, dass Automatisierung sie nicht einschränkt, sondern im Gegenteil bei der Verwaltung der IT-Landschaft entlastet, sind die Bemühungen erfolgversprechend.

Das gelingt, indem verantwortliche Mitarbeiter von Anfang an in die Implementierung von Automatisierungslösungen einbezogen und Vorteile wie Zeitersparnis und Wettbewerbsvorteile klar herausgestellt werden: Durch die zeitliche Entlastung bei Routineaufgaben bleibt mehr Raum für Kreatives, es bleibt mehr Zeit für Produktentwicklung oder andere strategische Themen. Davon profitieren Mitarbeiter und Unternehmen gleichermaßen.

Deutliche Emissionsreduzierung möglich

Kennen Unternehmen den Anwendungsbedarf und die vor Ort verfügbaren Ressourcen genau, wird es möglich, Workloads zu bündeln und Ressourcenverschwendung zu vermeiden, ohne Verfügbarkeit und Leistung zu gefährden. Laufen z.B. alle CPU-intensiven Workloads auf einem und alle speicherintensiven Workloads auf einem anderen Host, ist das alles andere als eine optimale Auslastung. Um beide Hosts optimal nutzen zu können, müssen die Workloads flexibel verteilt werden. Eine klassische Optimierungsaufgabe also, für die KI sich hervorragend eignet.

Werden weniger Hosts für die gleiche Menge an Anwendungsbedarf verwendet, sinken Kosten und Emissionen für Rechenleistung. Weniger Hardware benötigt weniger Kühlung, verbraucht weniger Strom und wirkt sich so direkt auf die CO2-Emissionen nach Scope One und Scope Two aus. Zusätzliches Einsparpotenzial liegt bei den Lizenzkosten. Gerade, wenn Unternehmen Rechenzentren vor Ort betreiben, kann die Auswirkung auf die Emissionsbilanz deutlich ausfallen und bis zu 25 Prozent des gesamten globalen CO2-Ausstoßes ausmachen. Jede Einsparung in diesem Bereich ist also ein echter Hebel. So gibt etwa die Rabobank an, dass sie dank einer KI-gestützten Automatisierungslösung von IBM in ihrem 20.000-VMs eine Hardware-Reduzierung von etwa 20 Prozent erzielen konnte.

Ähnliche Erfolge können Unternehmen erzielen, wenn sie die Dimensionierung der Ressourcen in der Public Cloud automatisieren. Bekleidungshersteller Carhartt konnte so die Cloud-Effizienz um 45 Prozent steigern und gleichzeitig den Betrieb unter besonderer Belastung wie beispielsweise zum Blackfriday sicherstellen. Natürlich verursachen Hyperscaler in der Regel wesentlich weniger CO2-Emissionen als ein selbst betriebenes Rechenzentrum, weshalb Unternehmen durch den Wechsel in die Public Cloud ihren CO2-Ausstoß zusätzlich verringern können.

Umfassende Planungsfunktionen, die „Was-wäre-wenn"-Ergebnisse für Cloud-Migrationen zeigen, bilden für diese Überlegungen eine wertvolle Basis. Eine dynamische Steuerung der Cloud-Workloads vervollständigt. Mit der Reduzierung von Kosten und Emissionen wird es so auch einfacher, die Vorgaben regulatorischer Rahmenwerke wie der CSRD einzuhalten und die ESG-Berichtspflichten zu erfüllen.

Dynamische Entwicklung der Datengrundlage

Eine KI-gestützte Plattform zur Leistungs- und Kostenoptimierung ist nur so gut wie die Datengrundlage und -qualität. Bessere Daten sind daher ein entscheidender Parameter. Cloud-Anbieter bieten derzeit beispielsweise keine granularen Energie- und Kohlenstoffmetriken auf VM-Basis an. Im Moment müssen Unternehmen also die besten verfügbaren Daten verwenden und den Kohlenstoffausstoß aus der Gesamtbilanz ableiten.

Das wird sich jedoch ändern, wenn die APIs mit diesen Daten veröffentlicht werden. Dann werden noch intelligentere Entscheidungen in diesem Bereich möglich und Kriterien wie Kohlenstoff/Energie und Kosten/Leistung zu verlässlichen Maßstäben. Instrumente zur Analyse dieser Daten sind entscheidend, und dynamisch auf die aus ihnen abgeleiteten Ergebnisse und Entscheidungen reagieren zu können.

KI hilft bei Kostenoptimierung, Klimaschutz und Compliance

Kostenoptimierung und Emissionsreduzierung sind für Unternehmen aller Größe entscheidende Aspekte ihrer Wettbewerbs- und Zukunftsfähigkeit. Durch im Zug der Dekarbonisierung der Wirtschaft steigende Emissionskosten stehen die beiden Ziele in Wechselwirkung zueinander: Weniger Emissionen gleich weniger Kosten und ggf. mehr Fördermöglichkeiten durch öffentliche Mittel, umgekehrt gilt aber auch: Weniger unnötige und kostenintensive Infrastruktur oder Kapazitäten gleich weniger Emissionen. Verstöße gegen regulatorische Vorgaben können zudem hohe Geldstrafen nach sich ziehen.

Die sich stetig verbessernde Datengrundlage und Fortschritte in KI-basierten Automatisierungslösungen sind für Unternehmen ein echter Game Changer und bergen bislang vielfach ungenutztes Potenzial, um den vielseitigen Anforderungen von digitaler Transformation und Dekarbonisierung gerecht zu werden. Wichtig ist aber wie bei allen Transformationsbemühungen der Faktor Mensch: Ohne Akzeptanz, Vertrauen und Schulung nützen die besten Technologien nichts. Automatisierungsinitiativen müssen deshalb Investitionen in geeignete Technologie, Unternehmenskultur und Einbeziehung von Belegschaften ausbalancieren. Automatisierungs-Anbieter mit langjähriger Erfahrung in der Umsetzung und einem flankierenden Beratungs- und Schulungsangebot helfen, die richtige Roadmap zu erarbeiten.


* Die Autorin Stephanie Metzner verantwortet seit Anfang 2024 den Bereich Sustainability Software bei IBM in Deutschland, Österreich und der Schweiz. Davor leitete sie den Vertrieb für Automation Software, war für den Bereich Data, AI & Automation im Partner-Ecosystem DACH verantwortlich und übte als Transformation Leader im IBM EMEA Ecosystem eine internationale Aufgabe aus. Stephanie Metzner ist seit über zehn Jahren in der IT-Branche tätig und nach wie vor fasziniert von Technologie, Innovation und Themen rund um die Digitalisierung.

Bildquelle: IBM Deutschland GmbH

(ID:49979932)