Suchen

Datenübertragung in Realtime: Die Anforderungen an die Technik steigen Der Weg in die Echtzeit-Cloud – eine Bestandsaufnahme

| Autor / Redakteur: Uwe Becker / Jürgen Sprenzinger

In Zeiten von Webconferencing und IP-Telefonie wollen Unternehmen ohne Zeitverzögerungen bei der Datenübertragung global kommunizieren. Doch die Anforderungen an die dafür erforderlichen Technologien und Infrastukturen steigen: Die Unternehmensprozesse werden komplexer und die Distanzen wesentlich größer als früher – da können und wollen die Verantwortlichen keine Zeit mehr an die Kommunikationsinfrastruktur selbst verlieren.

Übertragung in Echtzeit und zentrale flexible Steuerung sind heute gefragt. Neue Cloud-Technologien schaffen hier Abhilfe.
Übertragung in Echtzeit und zentrale flexible Steuerung sind heute gefragt. Neue Cloud-Technologien schaffen hier Abhilfe.
(Bild: Jürgen Sprenzinger)

Übertragung in Echtzeit und zentrale, flexible Steuerung ist daher gefragt und Cloud-Technologien schaffen hier Abhilfe. Sie stehen zunehmend sinnbildlich für Agilität, Geschwindigkeit und ermöglichen flexible, schnelle Anpassungen, die es in einer stark vernetzten und sich rasch weiterentwickelnden Welt braucht.

Im Bereich der IT-Strukturen gibt das Stichwort Cloud-Computing nun schon seit Jahren die Richtung vor, in die die Entwicklung geht. Worauf müssen Unternehmen heute achten, wenn Sie Cloud-Kommunikationslösungen in Echtzeit einsetzen wollen? Folgende Aspekte spielen hierbei die Hauptrolle.

Netzwerke und Schnittstellen

Geschwindigkeit im Datentransfer für Echtzeitkommunikation ist essenziell, um anspruchsvolle Geschäftsprozesse für einzelne Standorte und ihre Interaktionen miteinander zu gewährleisten. Wichtig ist dies vor allem in besonders kollaborationsintensiven Branchen wie beispielweise der Automobil- und Luftfahrtindustrie, in denen Projekte häufig von verschiedenen Industrieunternehmen gemeinsam durchgeführt werden. Auch bei finanziellen Entscheidungen, in denen es um Risikobewertung oder Betriebsführung geht, spielt dies eine übergeordnete Rolle.

Natürlich ist einerseits die Qualität der zur Verfügung stehenden Netzwerkinfrastruktur das A und O jeder digitalen Kommunikation. Ausschlaggebend sind hier insbesondere die Kapazität des verfügbaren Netzwerks, maximale Bandbreite bei minimaler Zeitverzögerung, entsprechende Priorisierung der Echtzeitkommunikation und optimale SLAs. Nur so funktioniert der Datenaustausch zwischen verschiedenen Standorten und mobilen Mitarbeitern effizient. Weiterhin müssen die Schnittstellen (APIs), die für den Datentransfer benötigt werden, schnell, effizient und in der Lage sein, die besten Pfade innerhalb eines Netzwerks zu finden, um Verzögerungen in der Datenverarbeitung zu vermeiden. Hier liegen die größten Vorzüge der Cloud und das Hauptaugenmerk von Netzwerkanbietern wie Orange Business Services hinsichtlich einer kombinierten Cloud-Computing- und Netzwerkinfrastruktur.

Die physikalische Infrastruktur

Immer anspruchsvollere und leistungsfähigere Virtualisierungsplattformen und Hypervisoren benötigen eine Infrastruktur aus mehreren physikalischen Schichten wie Servern und physikalischen Harddisks. Durch die vielen Jahre Erfahrung im Bereich Performance Management, die hinter ihrer Entwicklung stehen, können die Kapazitäten dieser Schichten heute je nach Bedarf vergrößert oder verkleinert werden. In einigen Fällen sind sie bereits in der Lage, Daten in Echtzeit zu verarbeiten. Die Spezifikationen dieser Schichten müssen der Ziel-Performance entsprechen, die der Prozesstyp, der gerade aufgesetzt wird, erfordert.

„In-Memory Analytik“ ist ein vielversprechendes Tool, um schnellere Datenbank-Transaktionen zu realisieren. Ein Beispiel hierfür ist die Datenbanktechnologie HANA, um die SAP seine ERP-Suite erweitert hat. Mit In-Memory werden Datenbank-Transaktionen wesentlich schneller, da diese Technologie keinen Zugriff auf physikalische Disks benötigt. Auch Amazon Web Services bietet einen Service an, der EC2 Cloud Services mit High-Memory-Klustern kombiniert und dabei In-Memory-Analytik anwendet, um Hochleistungsanwendungen zu versorgen. Das sind zum Beispiel anspruchsvolle und speicherintensive Real-Time-Anwendungen, wie sie Anbieter im Healthcare-oder Social Networking-Bereich benötigen.

Nicht zuletzt muss die Technologie sowohl bezüglich des System-Overheads als auch eines effizienten I/O-Managements maximale Leistung bieten. Sie sollte sich außerdem durch optimale Interoperabilität nach außen auszeichnen – was mehrere verschiedene Cloudtypen umfassen kann.

Die neue Mobilfunkgeneration verändert die Übertragungsqualität

Die flächendeckende Einführung der Fourth Generation (4G) der Mobilfunknetze wird Unternehmen einige neue professionelle Anwendungsbereiche eröffnen, da es die Bandbreite vergrößern und die zeitliche Verzögerung signifikant reduzieren wird (theoretisch 150 Megabit/Sekunde und 20 Millisekunden Verzögerung). Dies wird vielerorts bereits als der Beginn der wahren „Mobile Cloud“ gehandelt. Wie sich die Mobile Cloud im Jahr 2014 weiterentwickelt, wird sich zeigen. Fakt ist jedoch in jedem Fall: Die neue Generation der Mobilfunknetze wird Unternehmen über vernetzte Endgeräte eine größere Flexibilität geben, indem sie kompletten Zugriff auf alle Geschäftsbereiche bei größtmöglichem Komfort ermöglicht. Vernetzte Endgeräte müssen dafür auf einer Real-Time Cloud-Plattform laufen, die über die neueste Technologien wie HTML5, Node.js and NoSQL verfügt. Beispiele für den Einsatz dieser Technologien gibt es bereits: Die erste Mobile Platform as a Service wurde 2012 von Voxea Labs und Joyent entwickelt. Die Telco Plattform as a Service-APIs stehen Entwicklern zur Verfügung, die an mobilen VoIP-Diensten für IMS Lösungen und neuen Echtzeit-Kommunikationstechnologien arbeiten und dabei Web-RTC verwenden.

WebRTC – ein Standard, der verbindet

Leistungsfähige Netzwerke, intelligente Schnittstellen und eine hochwertige Infrastruktur sind Meilensteine auf dem Weg in die Echtzeit-Cloud-Kommunikation. Um eine wirkliche Vernetzung ohne Stolperfallen zu erreichen, braucht es aber noch etwas: anerkannte Standards. Der offene WebRTC-Standard für Echtzeitkommunikation wird derzeit entwickelt, um die Integration von VoIP, Chat und Videotelefonie in Browsern und Anwendungen in der Cloud zu vereinfachen und die Verwendung von Plug-ins auf der Anwenderseite überflüssig zu machen. An der Entwicklung des Standards arbeiten derzeit das World Wide Web Consortium (W3C) und die Internettechnik-Arbeitsgruppe IETF. Sie erhalten bei der Entwicklung maßgebliche Unterstützung der Browseranbieter Google Inc.,Mozilla Foundation und Opera Software ASA. Der Standard etabliert das Protokoll und die APIs, die für Audio- und Videokommunikation in Echtzeit zwischen Nutzern notwendig sind. Dazu werden ein WebRTC-Client und zwei APIs (Media Stream und Peer Connection) in einen Browser integriert. Der WebRTC-Client überträgt den Call dann über HTTP oder WebSocket zwischen Browser und WebRTC-Server. Nach dem Login werden die Daten anschließend über die Peer Connection API unter Anwendung von RTP oder UDP übertragen. Die Media Stream API verwaltet dabei die verschiedenen Schnittstellen auf dem Terminal, sprich: Mikrophone, Lautsprecher, Webcams etc. So steht Echtzeitanwendungen und -übertragungen in der Cloud nichts mehr im Wege.

Der WebRTC Standard wird den schnellen Zugriff auf Kommunikationsservices in HTML5-Browsern zur Verfügung stellen. So werden neue Kommunikationsservices wie Video Collaboration in der Cloud für diverse Endgeräte – mobile und im Festnetz – immer besser in der Übertragung. Auch Installationen und Updates sollen mit Hilfe des neuen Standards einfacher werden. Derzeit wird WebRTC noch hinsichtlich des Codings, NAT-Traversal und Vernetzung finalisiert. Allerdings bieten viele Webbrowser bereits Beta-Versionen an.

Über den Autor:
Uwe Becker ist Head of Global Services Germany and Austria bei Orange Business Services, der Geschäftskundensparte der Orange-Gruppe. Er verfügt über mehr als 20 Jahre Erfahrung im Bereich Enterprise Technology. In dieser Position hat der Diplom-Ingenieur die Beratungs-, Planungs- und Umsetzungsverantwortung rund um das Orange Business Services-Lösungsportfolio der Region inne. In seiner Position leitet Uwe Becker seit 2005 ein Team von 35 Mitarbeitern und untersteht direkt dem Head of Global Services Europe.

Der Autor Uwe BeckerHead of Global Services Germany & Austria
Der Autor Uwe BeckerHead of Global Services Germany & Austria
(Bild: privat)
Zuvor hielt er diverse Positionen bei Equant und Global One. Unter anderem baute er das Competence Center für Consulting in Deutschland auf. Diese Funktion wurde komplett neu aufgebaut. Weitere Stationen waren Leiter des Competence Center Pre-Sales, wo Uwe Becker für sämtliche Pre-Sales-Aktivitäten im deutschen Markt oder Group Manager Sales Engineering verantwortlich war. Seine Karriere im TK/IT-Umfeld startete er als Design Engineer.
Der Diplom-Ingenieur studierte sowohl Elektrotechnik in der Fachrichtung Nachrichtentechnik an der FH Offenburg als auch Marketing Management and der Brunel University London.

(ID:42483280)