Kalkulation von Stromerzeugung und Stromverbrauch Mit der Cloud will und kann die Energiewirtschaft nachhaltig werden

Von Michael Matzer Lesedauer: 9 min

Anbieter zum Thema

Die digitale Transformation der Energiewirtschaft hat nicht erst während der Krise 2022 begonnen, sondern bereits vor rund zehn Jahren. Cloud-Dienste haben diese Transformation gestützt, denn nicht weniger als sechs Anwendungen sind notwendig, um Distributed Energy Resource Management zu realisieren. Künftig kommen Analytik, Vorhersagen mit ML-Modellen sowie maximale Automation hinzu. Nachhaltigkeit ist der neue Imperativ.

Duke Energy arbeitet mit AWS zusammen, um Smart-Grid-Lösungen zu entwickeln, von denen seine Kunden profitieren und die dem Unternehmen helfen, den Übergang zu sauberer Energieerzeugung zu bewältigen.
Duke Energy arbeitet mit AWS zusammen, um Smart-Grid-Lösungen zu entwickeln, von denen seine Kunden profitieren und die dem Unternehmen helfen, den Übergang zu sauberer Energieerzeugung zu bewältigen.
(Bild: Duke Energy)

Zahlreiche Länder haben sich dem Ziel der Klimaneutralität verpflichtet, darunter die USA und die EU. Gleiches gilt für viele Unternehmen, darunter Microsoft, SAP und Amazon, die alle ihre Fortschritte planen und in Jahresberichten veröffentlichen. Um dieses Ziel zu erreichen, erhalten erneuerbare Energien Priorität und bestreiten vereinzelt bereits den Löwenanteil der erzeugten nationalen Energie.

Die digitale Transformation der Energiewertschöpfungskette. Nicht weniger als sechs verschiedene Anwendungen (ganz unten) bilden die Grundlage für die Funktionen der Erzeugung der Energie, des Handels, der Übertragung, Verteilung, Energiedienste und des Kundendienstes (mittlere Ebene). Kompliziert wird diese Funktion dieser Architektur durch die Komplexität der Verteilten Energieressourcen (DER) in der obersten Schicht.
Die digitale Transformation der Energiewertschöpfungskette. Nicht weniger als sechs verschiedene Anwendungen (ganz unten) bilden die Grundlage für die Funktionen der Erzeugung der Energie, des Handels, der Übertragung, Verteilung, Energiedienste und des Kundendienstes (mittlere Ebene). Kompliziert wird diese Funktion dieser Architektur durch die Komplexität der Verteilten Energieressourcen (DER) in der obersten Schicht.
(Bild: IDC)

Diese Anstrengungen stellen jedoch die Energieerzeuger und -verteiler vor erhebliche Herausforderungen. Denn erneuerbare Energien werden nicht mehr zentral in einem Kraftwerk (AKW, Wasser, Kohle, Gas, Wasserstoff) erzeugt, sondern von vielen kleineren Generatoren, vom Solarpaneel auf dem Hausdach über Offshore-Windgeneratoren bis hin zu Gezeitenkraftwerken in Flussmündungen. Sie alle zeichnen sich durch ein Merkmal aus: Schwankungen.

Eine Frage der Wirtschaftlichkeit

Im Tages-Nacht-Rhythmus steht und fällt die Stärke des erzeugten Stroms. Auf der anderen Seite nimmt die Zahl der Stromverbraucher ständig zu. Ganze Fahrzeugflotten werden auf Strom umgestellt. Die Zahl der Elektrofahrzeuge bedeutet ein wachsendes Netz von Ladesäulen und Wallboxen. Auch hier: Schwankungen. Denn das Laden erfolgt meist nachts, wenn die Solarpaneele am wenigsten Strom liefern.

Dazwischen liegt die Infrastruktur, also die Strommasten auf ihren Trassen, die Transformatoren, Speicher und Umrichter im „Smart Grid“. Und natürlich wird alltäglich und -nächtlich der Strompreis neu ausgehandelt, beispielsweise an der Strombörse in Leipzig. Die Effizienz der Infrastruktur schlägt sich sofort in der Höhe des Strompreises nieder. Analog dazu hat sich 2022 der Gaspreis entwickelt, mit nie zuvor gesehenen Auswirkungen. Das kann auch 2023 eintreten.

WANTED: die Allzweck-Software

Infolgedessen suchen Energieunternehmen händeringend nach jener Software, die ihnen hilft, diese Schwankungen vorherzusagen und ihre Services darauf einzustellen. Versorger wie E.ON haben bereits öffentlich vorgestellt, dass sie dafür Machine Learning-Algorithmen und -Modelle sowie Deep Learning Frameworks (vulgo „KI“) einsetzen. Ziel ist es, die Berechnung des individuelle Kundenbedarfs sowie die Versorgung mit der jeweiligen Energiequelle maximal zu optimieren und zu automatisieren.

Die Nutzung von Cloud-Diensten bei den europäischen Energieversorgern hat 2018 beinahe schon die Kluft zwischen Planung und Realisierung geschlossen. Cloud ist definitiv eine notwendige Ressource, und ihre Nutzung nimmt ständig zu.
Die Nutzung von Cloud-Diensten bei den europäischen Energieversorgern hat 2018 beinahe schon die Kluft zwischen Planung und Realisierung geschlossen. Cloud ist definitiv eine notwendige Ressource, und ihre Nutzung nimmt ständig zu.
(Bild: IDC)

Die notwendige Modellierung kann durch einen digitalen Zwilling erfolgen, dessen Modelle die operative Technik (OT) steuern: OT und IT müssen Hand in Hand arbeiten. So können bereits seit 2022 mehrere Rechenzentren und Einrichtungen wie etwa Kitas ihren Energieverbrauch um mehrere Dutzend Prozent senken und ihre Power Usage Effectiveness (PUE) steigern. Mehrere Heizkraftwerke wie etwa Stuttgart-Münster planen, in diesem Jahr Großwärmepumpen zu installieren, um ihre Abwärme wieder dem Energiekreislauf zuzuführen, ganz im Sinne der Nachhaltigkeit.

Alle Modelle und Analysen benötigen vor allem eines in riesigen Mengen: Daten. Je genauer ein IST-Zustand in Echtzeit erfasst werden kann, desto treffsicherer können die SOLL-Werte und Vorhersagen des entsprechenden Machine Learning-Modells sein. Schon 2017 veröffentlichte das US-amerikanische Energieministerium eine Studie über die positive Wirkung der Nutzung von Cloud-Diensten. Die wichtigsten Ressourcen sind Rechenleistung, Speicherkapazität und die Übertragungsgeschwindigkeit für Informationen aller Art, bis hin zur Steuerung der OT. Das US-Energieministerium bescheinigte der Cloud zudem hohe Wirtschaftlichkeit und schnelle Skalierbarkeit.

Balanceakt aus Risiko und Kosten

Die Anbieter von Distributed Energy Resource Management System (DERMS) Software haben diese Vorteile ihren Kunden zu vermitteln gewusst, zumindest in den USA, und die Anbieter von Advanced Distribution Management System (ADMS) Lösungen sind ihnen gefolgt. Letztere steuern das Stromnetz, indem sie den verteilten Input von Sonnenkollektoren und Windrädern erfassen, vergüten und die Energie an die Verbraucher kostengünstig weiterleiten, vom Privathaushalt über Rechenzentren bis hin zu Wallboxen und E-Autos.

Die Geschäftstätigkeiten eines Energieversorgers umfassen sehr viele Bereiche, nicht wenige davon in der IT. Der innere Halbkreis stellt die modernsten bzw. künftigen Tätigkeiten dar, darunter KI/Machine Learning, Drohneneinsatz und 3D-Druck.
Die Geschäftstätigkeiten eines Energieversorgers umfassen sehr viele Bereiche, nicht wenige davon in der IT. Der innere Halbkreis stellt die modernsten bzw. künftigen Tätigkeiten dar, darunter KI/Machine Learning, Drohneneinsatz und 3D-Druck.
(Bild: Deloitte.com/insights)

In diesem Markt sind also Energieerzeuger und Netzbetreiber getrennt. Die Universität von Massachusetts hat das Risiko berechnet, das entsteht, wenn auch nur zehn Prozent der Fahrzeuge E-Autos sind. Das potenzielle Risiko des Ausfalls von Transformatoren liegt dann bei 2.000 Prozent, ist also 20-mal wahrscheinlicher Der Grund: In den USA sind 70 Prozent der Trafos älter als 25 Jahre. Besser, man ist darauf vorbereitet. Die Stadtwerke von Sacramento, Kalifornien, berechneten die Kosten jedes Trafo-Ausfalls, den die Überlastung durch das Laden von E-Autos verursacht, auf nicht weniger als 7.400 US-Dollar.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

GIS-Daten im Data Lake

Manche Cloud-Nutzer verbinden ihre Smartmeter-Verbrauchsdaten in der Cloud mit geographischen GIS-Daten, um herauszufinden, wo sie nachbessern müssen. Durch Extrapolation können sie den entsprechenden Bedarf vorhersagen. Mithilfe des langfristigen System Average Interruption Duration Index (SAIDI) können sie die Dauer von Ausfällen voraussagen und gleichzeitig die Auswirkung auf die Kundenzufriedenheit kalkulieren.

Voraussetzung dafür ist die Existenz eines Data Lakes, in dem die erforderlichen Daten gesammelt und organisiert, aber auch den relevanten Stellen zur Verfügung gestellt werden. Diese Demokratisierung des Zugangs zu Informationen fördert Innovation, Compliance und Effizienz.

Billing – eine Aufgabe für Superhirne

Alle Marktteilnehmer müssen einander ihre Dienste in Rechnung stellen und vergüten. Diese wirtschaftliche Seite der neuen Energiewirtschaft ist noch kniffliger als die eh schon komplizierte Infrastruktur- und Service-Seite. Denn wenn die Berechnungszyklen nicht mehr in Minuten, sondern in Sekunden oder gar Echtzeit erfolgen sollen, werfen Menschen das Handtuch. Ähnlich wie beim Hochgeschwindigkeitshandel an der Börse sind nur Computer mit Glasfaseranbindung in der Lage, solche Berechnungen zu erledigen und weiterzuleiten.

Der SAS Energy Forecast stellt deutlich die üblichen Schwankungen in der Stromübertragung dar.
Der SAS Energy Forecast stellt deutlich die üblichen Schwankungen in der Stromübertragung dar.
(Bild: SAS)

Je größer die Rechenleistung dieser „Computer“, desto besser die Chancen eines Versorgers, seinen Kunden günstige Tarife anzubieten. Und manche Kunden mögen es ökologisch: Sie buchen nur Öko-Strom, der bekanntlich von gewissen Schwankungen (s.o.) abhängig ist. Ermöglicht wird dies durch entsprechende Machine-Learning-Modelle, die Algorithmen einsetzen.

Microservice-Architektur

Die blitzartigen Berechnungen erfolgen inzwischen durch analytische Microservices, die an allen relevanten Stellen der Infrastruktur ihren Dienst versehen, um IoT-Daten zu verarbeiten. Nur eine cloud-gestützte Microservice-Architektur mit Container-Nutzung ist flexibel genug, um in rascher Reihenfolge neue Micro-Services und -Apps in Dienst zu stellen, zu überwachen und zu warten.

Amazon, Microsoft und Google bieten alle entsprechende Kubernetes-Dienste an. Dies erhöht nicht nur die Innovationsrate im Unternehmen, sondern steigert zudem die Effizienz des Betriebs und der Wartung (O & M) einer Energieversorger-Infrastruktur. Nur wer wirtschaftlich arbeitet, bleibt langfristig im Geschäft.

Fallbeispiel General Electric Renewable Energy

Wie wichtig eine Microservices-Architektur ist, fand General Electric Renewable Energy (GERE) heraus, das seinen Sitz in Paris hat. GERE muss 40.000 Geräte wie etwa Windkraftwerke in 35 Ländern verwalten. Bislang lag deren Verfügbarkeit zwischen 89 und 92 Prozent, durch die Nutzung der mit AWS entwickelten Digital-Services-Plattform mit ihrer optimierten Skalierbarkeit liegt die Verfügbarkeit nun bei 99,9 Prozent. Das dürfte wesentlich mehr der weltweit 5.000 Kunden zufriedenstellen.

Dieser Bildschirm in SAS Energy Forecast zeigt die Stromerzeugung sowie den Stromverbrauch eines Gebäudes. Auch hier sind regelmäßige Schwankungen üblich.
Dieser Bildschirm in SAS Energy Forecast zeigt die Stromerzeugung sowie den Stromverbrauch eines Gebäudes. Auch hier sind regelmäßige Schwankungen üblich.
(Bild: SAS)

Jedes der 40.000 Geräte sendet über seine Sensoren IoT-Daten an Geräteverwaltungslösungen (s.o.) in der Cloud oder on-premises bei Vertragsdienstleistern und Kunden. Die Vorteile der Betriebssicherheit wurden erzielt, doch die Kundenzahl wuchs ebenfalls rapide, so dass sich Probleme des wirtschaftlichen Betriebs ergaben. Die zuvor in Datensilos gespeicherten Daten und ihre Anwendungen führten zu uneinheitlichen Benutzererlebnissen in der Nutzung sowie zu sich überschneidenden Informationen bei den GERE-Mitarbeitern.

Deshalb beschloss das Unternehmen, eine neue nutzerorientierte, vollständig verwaltete Digital Services Plattform zu erstellen, die IoT-Daten erfasst, verarbeitet und analysiert. Die Kunden sollten zudem rollenbasierte Zugriffe auf relevante Daten erhalten. AWS verfügte über alle nötigen Bausteine und verschaffte der Plattform die nötige Skalierbarkeit, um eine große Zahl von Kunden versorgen zu können, ohne dass das Unternehmen die entsprechende Infrastruktur hätte aufbauen, verwalten und provisionieren müssen. Sie wurde 2020 in Betrieb genommen, so dass GERE inzwischen Erfolge verzeichnet.

Die Container-basierte Architektur verwendet Amazon Elastic Kubernetes Service (EKS) und Amazon Managed Streaming for Apache Kafka (MSK). Mit diesem Streaming-Service für IoT ist GERE in der Lage, ein fünfmal höheres Datenvolumen als zuvor zu verarbeiten. Als Datenintegrationsdienst dient AWS Glue, zur Datenanalyse in hohem Tempo wird Amazon EMR herangezogen, das auch Logs verarbeitet und Machine Learning Modelle ausführt. Der eigentliche Mehrwert liegt jedoch in den 300 Microservices, die der EKS verarbeitet. Wo GERE zuvor nur eine oder zwei Applikationen in zwei Wochen installieren konnte, gelingt der IT nun die Einführung von mehreren Diensten pro Tag und kann Änderungen auf Zuruf ausführen.

Wo GERE zuvor die Skalierung per Hand vornehmen musste, skaliert GERE nun automatisch je nach Bedarf, ohne dafür eigens neue Hardwarekapazitäten provisionieren zu müssen. Mit Intelligent Tiering ist zudem Storage in Amazon S3 kosteneffizient. Von einer Single-Tenant-Lösung wechselte GERE auf eine mandantenfähige Multi-Tenant-Architektur. Neue Kunden lassen sich ohne hohen Infrastrukturaufwand und ohne Vorabkosten an Bord nehmen. GERE plant, verstärkt KI-Funktionen, die auf EMR und Amazon Redshift basieren, einzuführen. Um seine Machine Learning Fähigkeiten auszubauen, will GERE auf Amazon SageMaker zurückgreifen.

Fallbeispiel Duke Energy

Beim Umbau der Energiewirtschaft geht es häufig um große Summen und umfassende Restrukturierung über lange Zeiträume. Duke Energy hat eines der größten Stromnetze der USA und rund acht Millionen Kunden im Südosten und Mittelwesten des Landes. Am 17. November 2022 vereinbarte es eine langfristige Kooperation mit AWS, um in den nächsten zehn Jahren 145 Milliarden US-Dollar in den Umbau des 314.000 Meilen langen Stromnetzes zu investieren. Seine Infrastruktur und sein Betriebsmodell waren bislang nicht auf die Multi-User-Architektur der heutigen bedarfsorientierten Nutzung ausgelegt, sondern auf die Maximalauslastung für die Ein-Weg-Versorgung passiver Verbraucher. Aus Consumern sind Prosumer geworden, denn die Geräte liefern dezentral erneuerbare Energien aller Art, während inzwischen ganze Fahrzeugflotten auf Strom umgestellt werden.

Die Benutzeroberfläche von SAS Energy Forecast. Hier wird die Stromlast in zwei Kurven vorhergesagt.
Die Benutzeroberfläche von SAS Energy Forecast. Hier wird die Stromlast in zwei Kurven vorhergesagt.
(Bild: SAS)

Mit seinem „Intelligent Grid Service“ will Duke Energy künftig in der Lage sein, nicht nur den schwankenden Ist-Bedarf zu analysieren, sondern ihn auch vorherzusagen, um so die eigene Stromerzeugung und vor allem -verteilung anzupassen. Denn nicht nur muss das Stromnetz skalieren, sondern auch die nötige Rechenleistung, um die Intelligent Grid Services auszuführen und anzuwenden: Stunde für Stunde pro Kunde über die nächsten elf Jahre. Um die Vorhersagen treffsicher zu machen, muss Duke Energy „Hunderte von Millionen Simulationen“ in vertretbarer Zeit ausführen. Das vorherige System war zu 70 Millionen Simulationen pro sechs Wochen in der Lage – viel zu wenig für die heutigen Anforderungen. Heute sollen diese Simulationen in nur 15 Minuten oder weniger erledigt werden. Duke Energy erwartet, mit AWS bis zum Jahr 2050 klimaneutral zu werden. Dazu gehört eine Halbierung des CO2-Ausstoßes bis 2030.

Azure Energy Data Services

Auch Microsoft bietet der Energiewirtschaft eine Reihe von Diensten an. „Integrierte Sicherheit und das umfassendste Compliance-Portfolio der Branche“ sollen zu den Vorteilen einer Lösung gehören, die mit den Azure-Tools und -Diensten erstellt und auf Azure gehostet wird. Unter Energiewirtschaft versteht Microsoft auch Betreiber von Öl- und Gaslösungen, die mit KI, Machine Learning und Analytik entsprechende Auswertungen und Simulationen vornehmen können. Zu den Vorteilen gehören vorausschauende Wartung und Verlängerung des Lebenszyklus‘ von Ressourcen.

Bei den Betreibern von Stromnetzen sollen digitale Zwillinge helfen, ein „Stromnetz für dezentrale Energieressourcen, Gerätesteuerung und Vorhersage“ zu verbessern. ML-basierte Automation soll „die Produktivität und Sicherheit der Mitarbeiter“ steigern. Wahrscheinlicher wäre wohl ein Szenario, in dem die Automation eben diese Mitarbeiter überflüssig macht.

Mit Microsoft Energy Data Services wollen die Redmonder Energieunternehmen helfen, „mit der für Unternehmen geeigneten, cloud-basierten OSDU-Datenplattform verwertbare Informationen zu gewinnen, die Betriebseffizienz zu verbessern und die Markteinführungszeit zu verkürzen.“ Mit „einer flexiblen, offenen Plattform, auf der Entwickler aufbauen und die sie anpassen können“, sollen Kunden „Innovationen unterstützen“. Auch diese Entwickler sollen den OSDU-Standard nutzen können.

Eine Frage des Preises

Die Plattform soll Analysen und Entscheidungsfindung ermöglichen, doch von Microservices ist an keiner Stelle die Rede. Öl- und Gasfirmen sollen High Performance Computing (HPC) nutzen können, was allerdings entsprechende Abogebühren für die nötige Performance der HPC-Instanzen mit sich bringen würde.

Die Webseite zeigt auch eine Preistabelle für Microsoft Energy Data Services an, und wenn man einen Preis in Euro für Europa erfahren möchte, gibt Microsoft Preise von 43,98 €/Instanz/h für Europa Nord und 47,65 €/Instanz/h für Europa West an. Dies sind Fixpreise, andere Preise sind Verhandlungssache.

Zum Vergleich mit den USA: Der günstigste Euro-Tarif gilt für USA Osten mit 36,65 €/Instanz/h, der Standort USA Süden/Mitte verlangt knapp 44 €/Instanz/h, also so viel wie Europa Nord. Um einen Gesamtpreis für sämtliche buchbaren bzw. gebuchten Azure-Diensten zu erfahren, nutzt der Interessent bzw. Kunde am besten den Azure-Preisrechner. Fazit: Wer zu solchen Abo-Preisen stundenweise abrechnen muss, sollte wirklich gut rechnen können und über das nötige Kleingeld verfügen.

(ID:49236495)