Interview mit Dr. Stefan Bucher von T-Systems

Fog, Edge, IOT-, Quanten-Computing: Wie positioniert sich T-Systems?

| Redakteur: Ulrike Ostler

5G - 1000fach höhere Kapazität, 10fach höhere Übertragungsgeschwindigkeit und 10fach geringere Latenzzeit als die heutigen Netze - gilt als Grundvoraussetzung für Echtzeitkommunikation. Doch was hat das mit Rechenzentren und Fog Computing zu tun?
5G - 1000fach höhere Kapazität, 10fach höhere Übertragungsgeschwindigkeit und 10fach geringere Latenzzeit als die heutigen Netze - gilt als Grundvoraussetzung für Echtzeitkommunikation. Doch was hat das mit Rechenzentren und Fog Computing zu tun? (Bild: Deutsche Telekom)

Fog oder auch Edge Computing sickert hierzulande so langsam in den Sprachgebrauch der IT-Macher und -Nutzer. Geht es um Micro-Datacenter? Um neue Mobilfunkstandards? Und wen kümmert Quantencomputing? Antworten liefert Dr. Stefan Bucher, operativer Leiter der IT-Division bei T-Systems.

Im Herbst 2015 hatten Continental, die Deutsche Telekom AG, das Fraunhofer ESK sowie Nokia Networks dem Bundesverkehrsminister Alexander Dobrindt die Echtzeitkommunikation zwischen Fahrzeugen über das LTE-Mobilfunknetz demonstriert. Speziell ging es um den Austausch von Gefahreninformationen zwischen Fahrzeugen auf der Autobahn A9.

Um extrem geringe Übertragungszeiten zu ermöglichen, wurde ein Abschnitt des Telekom-Netzes mit neuartiger „Mobile Edge Computing“-Technik von Nokia Networks ausgestattet, und um eine vom Fraunhofer ESK entwickelte Positionsbestimmung erweitert. Diese Kombination erlaubte erstmals Signallaufzeiten zwischen zwei Fahrzeugen von weniger als 20 Millisekunden. Zusammen mit der von Continental entwickelten Schnittstelle zur Fahrzeugelektronik lassen sich so verschiedene Anwendungen realisieren, die das Fahren sicherer und komfortabler machen.

Über eine Smartphone-App können sich Autofahrer künftig über freie Stellflächen in Hamburg informieren.
Über eine Smartphone-App können sich Autofahrer künftig über freie Stellflächen in Hamburg informieren. (Bild: Deutsche Telekom)

Das ist nur ein Beispiel, in dem der Begriff Edge Computing fällt. Stefan Bucher, operativer Leiter der IT-Division von T-Systems, nennt weitere: einen digitalen Parkservice für rund 11.000 Stellflächen in der Stadt Hamburg etwa, den die Telekom und Hamburg zur CeBIT 2017 vorstellten, und die Einführung des „NarrowBand-IoT“-Netzes in Europa mitsamt der Pilotprojekte.

Dazu zählt etwa die Ausstattung der Servicekoffer vom Druckluft-Experten Kaeser Kompressoren mit Mobilfunkkarten und Sensoren. Die Koffer melden jetzt in regelmäßigen Abständen ihren Standort und über ein „Cloud der Dinge“-Dashbord überwacht das Coburger Unternehmen zudem den Zustand der darin enthaltenen Batterien. Ein IoT-Starter-Kit der Telekom, wie Bucher sagt „für fuzzy Geld“, beinhaltet Sensoren für GPS, Beschleunigung, Erschütterung und Temperatur. Über Mobilfunk schickt es aufgezeichnete Daten in die Cloud.

Er setzt hinzu: „Die Digitalisierung wird unser ganzes Leben verändern. Was bisher gefehlt hat, war lediglich eine erschwingliche Sensorik.“

Sie nennen einige von vielen Anwendungen, die über Computing am Netzwerkrand entstehen, beziehungsweise über verteilte Rechenzentren beziehungsweise verknüpfte Clouds. Welche Position nimmt T-Systems gegenüber dem Fog Computing ein?

Stefan Bucher: T-Systems beschäftigt sich seit einiger Zeit mit Fog Computing oder Edge Computing. Damit können wir Massendaten auswerten und zeitkritische Informationen trotzdem in Echtzeit verarbeiten. Zum Beispiel produzieren Bohrtürme 500 Gigabyte Daten pro Woche, ein Flugzeug rund 20 Terabyte pro Minute.

Alle Daten in der Cloud aufzubereiten, kostet zu viel Zeit und Geld. Die Fog-Komponenten vor Ort priorisieren Information oder aggregieren diese für die Cloud. Das spart Bandbreite und sorgt dafür, dass wichtige Informationen, etwa für eine Not-Ausschaltung in der Produktion, schnell umgesetzt werden. Datenausreißer hingegen, die auf eine anstehende Wartung hinweisen, dürfen auch einmal ein paar Minuten später in die Cloud gelangen.

Sie kennen bestimmt unseren Test auf der A9 bei Nürnberg. Dort fungieren die Rechner im Mobilfunkmast als Mini-Cloud für den Informationsaustausch zwischen Fahrzeugen in dieser Funkzelle.

Auch auf der Hannover Messe haben wir Fog Computing gezeigt: Wir verbinden die Fog-Computing-Welt von Cisco mit der Multi-IoT-Plattform von T-Systems zu Lösungen aus einer Hand, zum Beispiel für Predictive Maintenance.

Im Bahnbetrieb kostet jede ausgefallene Lok rund 90.000 Euro im Jahr. Hier kann eine Predictive-Maintenance Abhilfe schaffen: Rund 60 Sensoren im Triebwagen erheben und senden Daten in unsere Cloud. Hier erkennt ein selbstlernender Algorithmus bestimmte Muster und findet so eigenständig Anomalien wie diese:

Der so genannte Umrichter, der den Bahnstrom der Oberleitung von 16,7 Hertz auf 50 Hertz für die Elektromotoren der Lok umwandelt, setzt vor der eigentlichen Panne mehrfach kurzzeitig aus. Werden solche und andere Vorfälle frühzeitig erkannt und darauf reagiert, lassen sich bis zu 25 Prozent der Dispositionskosten einsparen.

Der kommende 5G-Standard wird zumeist mit exorbitantem Datenwachstum in Verbindung gebracht und damit einem Aufrüsten in der Rechenzentren. Wagen Sie eine Prognose? Auf welchen Wert steigt das Volumen der Rechenzentrendaten aus dem 5G-Mobilfunk?

Dr. Stefan Bucher ist operativer Leiter der IT-Division von T-Systems.
Dr. Stefan Bucher ist operativer Leiter der IT-Division von T-Systems. (Bild: T-Systems)

Stefan Bucher: Im Moment läuft eine 5G-Pilotversuch in Ludgwigshafen. Ein konkretes Datum für den generellen Start haben wir jedoch noch nicht. Zudem hat die International Telecommunication Unit (ITU) die Bekanntgabe aller Anforderungen an 5G gerade auf Anfang 2018 verschoben.

Auch eine zuverlässige Prognose über das Datenwachstum ist kaum möglich.5G wird, was die Services betrifft, auf jedem Kontinent anders aussehen. Eine belastbare Zahl zu nennen, ist mehr als schwierig. Zwar ist davon auszugehen, dass bis zu 90 Prozent der Daten bevor sie im Rechenzentrum herausgefiltert beziehungsweise aggregiert werden, und dennoch ... alleine die Anzahl an Sensoren ... Ganz gleich welche Prognose Sie heranziehen: Alle Trends zeigen steil nach oben.

Die Gründe sind folgende: Erstes sind immer mehr Menschen online. Aber zweitens und viel wichtiger ist die Tatsache, dass immer mehr Dinge online sind. Im Jahr 2020 werden bis zu 50 Milliarden vernetzte Dinge erwartet.

Interessant ist dabei: Geschäftsanwendungen werden relativ betrachtet zusehends wichtiger und lösen in ihrer Bedeutung Privatanwendungen ab. Dieser Datendruck ist derzeit der wichtigste Treiber für IT und Telekommunikation.

- Denn diese Daten wollen übertragen werden - mithilfe von 5G und für Spezialanwendungen mittels Narrow Band IoT.

- Diese Daten wollen gespeichert werden: in Public Clouds und Private Clouds.

- Diese Daten wollen verarbeitet werden: Dafür sind Data-Analytics-Anwendungen zuständig und zunehmend Künstliche Intelligenz – anders ist das Datenvolumen nicht zu bewältigen.

Dass Cloud Computing automatisch die bessere IT bedeutet und vor allem kostengünstiger ist als die hauseigene IT, gehört schon seit geraumer Zeit ins Reich der Fabel. Vor allem langfristige Datenhaltung und Archivierung scheint teurer zu kommen als manch einer beim Auslagern in die AWS-Cloud vermutete. Es scheint gar einen Trend zum Re-Integrieren zu geben. Wie entwickelt sich Ihrer Ansicht nach Cloud Computing in den nächsten fünf Jahren?

Stefan Bucher: Alles deutet auf hybride IT-Landschaften hin: Kosten und Flexibilität der Cloud überzeugen. Trotzdem werden Kunden nur Schritt für Schritt in die Cloud gehen. Auf dem Weg dahin spielt die Hybrid Cloud eine große Rolle. Viele Kunden nutzen heutzutage eine Mischung aus on-premise, Private und Public Cloud. Die Hybrid Cloud kombiniert die Vorteile dieser Lösungen und ermöglicht etwa eine On-Premise-Infrastruktur mit weiteren Dienstleistungen aus der Public Cloud zu erweitern.

Die Hybrid Cloud erlaubt zu trennen, welche Daten privat und welche auch in der Public Cloud verarbeitet werden können. Bestimmte IT-Bereiche wie die Rechenleistung oder der Speicherplatz lassen sich eventuell besser in der Public Cloud abbilden und vertraulichere Bereiche in der On-Premise- oder Private Cloud.

Zudem haben viele Kunden ihre Enterprise-IT auf Jahre, manchmal Jahrzehnte optimiert. Anwendungen, etwa Commodity-ERP-Systeme, oder Anwendungen, die nicht Teil der Wertschöpfung sind, können tatsächlich oftmals unangetastet und kostengünstiger on-premise laufen.

Zugleich kann die Entscheidung, welcher Betriebsmodus gewählt wird, eine Frage der Größe sein. Dort wo Digitalisierung schon heute Mehrwert schafft, bei der Automobilbranche, den Banken und Unternehmen, die groß genug sind, werden diese ihre entsprechenden kritischen Kernanwendungen möglichst abschotten, in eigenen privaten Clouds - gegebenenfalls in eigenen Rechenzentren. Schauen Sie sich VW an: Die haben kürzlich 2.000 Entwickler eingestellt. Doch Mittelständler können sich das nicht leisten.

Industrial Cloud ist ein neues Schlagwort. Dahinter stehen Konzerne wie General Electric und Bosch, die ihre bisherigen Partner und Kunden in eine neue Art des gemeinsamen Business integrieren. Sehen Sie diese Cloud-Angebote als Konkurrenz zu den Telekom-Angeboten?

Stefan Bucher: Egal bei welchem Cloud-Angebot: Kunden sollten auf offene Systeme setzen, mit etablierten Standards - auf Anbieter, die möglichst herstellerunabhängig agieren und Projekte auch ohne lange Vertragslaufzeiten umsetzen, ja vielleicht sogar mit einem uneingeschränkten Kündigungsrecht. So wie wir mit unserem „Un-outsourcer“-Programm (siehe Video).

Was generell immer eine Frage sein sollte: ´Wie steht es mit einem Multi-Vendor-Management?` Es geht ja nicht nur darum, die Anwendungen eines Industrie-Ökosystems zu unterstützen. Diese Anwendungen müssen auch mit ERP-Systemen oder Collaboration-Suites kommunizieren. Außerdem gebe ich zu bedenken, dass das, was die Unternehmen heute in die Cloud geben, morgen schon Legacy sein kann.

Eine der Grundvoraussetzungen für jegliches Ihrer Cloud-Angebote, etwa „Azure“ aus der Telekom Cloud, wofür T-Systems als Datentreuhänder fungiert, sind die Rechenzentren im Betrieb von T-Systems, allem voran die TwinCore-Datacenter Biere/Magdeburg. Welche Kilowatt-Leistung und welchen PUE-Wert haben die T-Systems-Rechenzentren pro Quadratmeter?

Stefan Bucher: Die Leistung können wir auf Werte zwischen einem und drei Kilowatt pro Quadratmeter einrichten. Möglich wird dies durch den modularen Aufbau unserer Rechenzentren. Zudem verbessern wir unsere Rechenzentren permanent in Sachen Energie-Effizienz. Derzeit liegen wir bei der Power Usage Effectiveness zwischen 1,2 und 1,4.

Ohne Cloud, ohne Rechenzentren kein Internet der Dinge.
Ohne Cloud, ohne Rechenzentren kein Internet der Dinge. (Bild: Deutsche Telekom)

Stimmt es, dass die Abwärme des Rechenzentrums Biere für das Heizen der Büros genutzt wird?

Stefan Bucher: Ja, wir heizen die Gebäude auf dem Betriebsgelände mit der warmen Abluft aus dem Rechenzentrum. Das sind etwa Büros, Technikräume oder Werkstätten. Im Winter steuert die Abwärme rund 250 Kilowatt bei.

Übrigens sollen bis zum Frühsommer 2018 die Rechen- und Speicherkapazitäten in Biere für einen dreistelligen Millionenbetrag um 150 Prozent erweitert werden. Zu den beiden bestehenden Rechenzentrumsmodulen kommen dann drei weitere hinzu. Die IT-Leistung wird durch den Ausbau auf 18 Megawatt steigen.

T-Systems nimmt „Fort Knox“ für Server in Betrieb

Deutschlands größtes Cloud-Rechenzentrum entsteht in Sachsen-Anhalt

T-Systems nimmt „Fort Knox“ für Server in Betrieb

07.07.14 - In Biere in Sachsen-Anhalt steht seit neuestem ein hochmodernes Rechenzentrum. Hier, inmitten der fruchtbaren Börde, hat T-Systems, die Großkundensparte der Deutschen Telekom, ein nach eigenen Aussagen „High-Tech Fort Knox“ in die Landschaft gebaut. Deutschlands größtes Rechenzentrum und eines der größten in Europa soll das Cloud-Datacenter einmal werden, wenn es fertig ist. lesen

Künstliche Intelligenz und Supercomputing erfordern unter Umständen ganz neue Rechner. So bietet IBM Zugriff auf Quantencomputer via Cloud. Ist Quanten-Computing ein Thema für T-Systems?

Stefan Bucher: Quantencomputing ist ein sehr spannendes Thema. Lange war es Theorie. Jetzt konkretisieren sich einzelne Projekte. IBM hat im März den ersten kommerziellen Quantencomputer angekündigt. Und auch wir arbeiten aktuell gemeinsam mit Partnern am Aufbau des ersten adiabatischen Quantencomputers in Europa.

Diese Technik nutzt auch D-Wave Systems für ihren „D-Wave One“ in den USA. Zu unseren Partnern gehören unter anderem Volkswagen, das Forschungszentrum Jülich und das Deutsche Zentrum für Luft- und Raumfahrt. Die Zugangsinfrastruktur für den Quantencomputer soll die „Open Telekom Cloud“ (OTC) werden.

Kommentare werden geladen....

Kommentar zu diesem Artikel abgeben

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44723701 / Technologien)