Der Schlüsselfaktor für die digitale User Experience DE-CIX-CTO Thomas King: „Latenz ist die neue Währung“

Autor / Redakteur: Thomas King* / Ulrike Ostler

Ruckelnde Videokonferenzen oder Online-Games und langsame Apps können Auswirkungen von Latenz-Problemen sein. Diese sind ärgerlich für Nutzer und kosten Unternehmen bares Geld. Für Zukunftsszenarien wie autonomes Fahren ist eine äußerst geringe Latenz sogar sicherheitskritisch.

Firma zum Thema

„Latenz ist die neue Währung“, sagt Dr. Thomas King, CTO des deutschen Internet-Knotens DE-CIX. Im Bild zu sehen: die globale Abdeckung des DE-CIX bei einer Latenz von 65 Millisekunden.
„Latenz ist die neue Währung“, sagt Dr. Thomas King, CTO des deutschen Internet-Knotens DE-CIX. Im Bild zu sehen: die globale Abdeckung des DE-CIX bei einer Latenz von 65 Millisekunden.
(Bild: DE-CIX)

In allen Bereichen des Geschäfts- und Privatlebens haben aktuell digitale Applikationen Hochkonjunktur. Diese haben sich in den letzten Monaten bewährt und ihren Platz in unserem beruflichen und privaten Leben gefunden. Aber auch jenseits des virtuellen Desktops und des Video-Streaming machen einzelne Branchen mit digitalen Anwendungen und Diensten große Sprünge nach vorne, von E-Health über anspruchsvolle Logistik- und Mobilitätsanwendungen bis hin zum Finanzsektor.

Diese Transformation wurde zwar nicht durch die Covid-19-Pandemie verursacht, aber sie wurde dadurch beschleunigt. Das beschleunigte Tempo der Digitalisierung von Unternehmen wird zu einem der Schlüsselfaktoren für das zukünftige Wirtschaftswachstum werden.

Latenz nervt Nutzer und kostet Unternehmen Geld

Bei der Verlagerung wirtschaftlicher Aktivitäten von der analogen in die digitale Sphäre spielt eine gute Nutzererfahrung die entscheidende Rolle für Erfolg oder Misserfolg. Essentiell dafür sind geringe Reaktionszeiten, die wiederum von der so genannten Latenz abhängen. Latenz beschreibt dabei den Zeitraum, den ein Datenpaket von einem vernetzten Endgerät zu einem Server im Internet und zum Gerät zurück benötigt.

Je kürzer die Latenz, desto besser fällt die User Experience (UX) von digitalen Anwendungen aus. Zu hohe Latenz ist – vereinfacht ausgedrückt – auch die Ursache für Verzögerungen, die wir bei Videokonferenzen über lange Distanzen sehen können. Latenz ist zudem wichtig für schnelle Transaktionen beim Online Shopping, für eine gute User Experience (UX) bei Cloud-Anwendungen oder für ein flüssiges Spielerlebnis bei Online Games.

Aus der Nutzerperspektive sind die Auswirkungen hoher Latenz unangenehm – für Unternehmen können sie sogar finanzielle Einbußen bedeuten. Die Produktivität in Bezug auf virtuelle Desktops, Konferenz- und Videoanrufe und alles, was mit Homeoffice verbunden ist, ist von leistungsstarken Verbindungen mit niedriger Latenz abhängig.

Aber auch Industrie-Anwendungen wie Remote-Robotik, KI-gestützte Forschung und Entwicklung sowie vernetzte Autos wären ohne die Leistung, Sicherheit und Resilienz, die mit einer möglichst geringen Latenz einhergeht, nicht denkbar. Dazu kommt noch, dass schlechte UX zu einem finanziellen Problem für Unternehmen werden kann – nämlich dann, wenn Kunden wegen wiederholter schlechter Erfahrungen zur Konkurrenz abwandern.

Die Grenzen der Geschwindigkeit

Auf der „Datenautobahn“ gibt es ein Tempolimit. Dabei handelt es sich um eine der fundamentalen Naturkonstanten, die Lichtgeschwindigkeit. Nichts im Universum kann sich schneller bewegen, auch keine Informationen.

Auch wenn 300.000 Kilometer pro Sekunde(!) unvorstellbar schnell ist, ist es doch ein endlicher Wert. So genannte „Echtzeit“-Übertragung beinhaltet also immer eine gewisse Verzögerung. In vielen Fällen ist diese völlig vernachlässigbar, aber durch die hohen Latenzanforderungen moderner Anwendungen können sich Probleme ergeben.

Die physikalische Grenze für die Datenübertragung ist zurzeit die Lichtgeschwindigkeit.
Die physikalische Grenze für die Datenübertragung ist zurzeit die Lichtgeschwindigkeit.
(Bild: DE-CIX)

Die Latenz, die heute als Maximum für annehmbare User Experience gilt, liegt bei etwa 65 Millisekunden. Die maximale Distanz zwischen Sender und Empfänger sollte demnach nicht mehr als 5.500 Kilometer betragen. Zum Vergleich: die direkte Luftlinie von New York nach Lissabon beträgt ziemlich genau 5.500 Kilometer – somit können Inhalte und Datenpakete weitestgehend ruckelfrei über Kontinente, und in diesem Fall den Atlantik, hinweg übertragen werden.

Kurze Wege für optimale Ergebnisse

In diesem Beispiel war wohlgemerkt nur die Rede von akzeptabler Nutzererfahrung. Für wirklich gute Ergebnisse sollte die Latenz 15 Millisekunden nicht überschreiten. In der Praxis bedeutet das, dass Anwendungen wie interaktive Online-Spiele und Live-Streaming in HD/4K weniger als 1.200 Kilometer vom Nutzer entfernt gehostet werden müssen.

In Zukunft werden kritische Anwendungen noch geringere Latenzen erfordern, die dann im einstelligen Millisekundenbereich liegen werden. Das ergäbe dann beispielsweise für das autonome Fahren Distanzen von unter achtzig Kilometern – jeder Autobahnrasthof und jedes Autobahnkreuz werden zukünftig auch ein eigenes Rechenzentrum haben. Denn bedingt durch die physikalischen Limits, ist dies der einzige Weg, um die Latenzanforderungen zu bewältigen: Mehr verteilte Rechenzentren in die Fläche bringen.

Die Entfernungen einer Quelle für Datenentstehung bzw. -verarbeitung steht in unmittelbarer Beziehung zu den Möglichkeiten und der User-Akzeptanz einer ‚Echtzeit‘-Anwendung.
Die Entfernungen einer Quelle für Datenentstehung bzw. -verarbeitung steht in unmittelbarer Beziehung zu den Möglichkeiten und der User-Akzeptanz einer ‚Echtzeit‘-Anwendung.
(Bild: DE-CIX)

Wenn die Geschwindigkeit begrenzt und die Zeitvorgaben eng sind, sollten Umwege natürlich vermieden werden. Leider sind Infrastrukturen im Internet traditionell nicht immer für direkte Wege ausgelegt.

Interconnection statt MPLS

Ein Beispiel dafür sind vernetzte Autos: Der Ansatz für Automobilhersteller war in der Vergangenheit MPLS-basierte Lösungen und IP-Transit (Upstream), ohne Ende-zu-Ende-Kontrolle der Verkehrsflüsse zwischen dem Auto und den Netzwerken, die Daten an das Auto liefern oder vom Auto empfangen wollen. Dies führt zu Leistungsproblemen, denn je mehr Zwischenstationen zwischen den beiden Teilnehmern liegen, desto höher ist die Latenz.

Dadurch entsteht auch eine höhere Anfälligkeit für Sicherheitsprobleme, wie DDoS-Angriffe und IP-Hijacking, sowie Compliance-Probleme: Hersteller, die den Weg der Daten nicht genau kennen, können auch die Compliance nicht garantieren.

Die Probleme lassen sich mit direkter Interconnection umgehen. Dabei kommt unter anderen das one to many/ many to one Prinzip zum Tragen, das Traffic aggregiert, anstatt auf mehrere eins-zu-eins Verbindungen zu setzen. So wird es möglich, ein Auto mit allen Netzwerken zu verbinden, die Daten an das Fahrzeug senden wollen oder von dort empfangen möchten, und dies in einer einzigen, sicheren Umgebung. Dadurch wird die Komplexität in der Übertragung erheblich reduziert und somit auch die Latenz.

Ergänzendes zum Thema
DE-CIX bewältigt 32 Exabyte Datenverkehr = 8 Millionen Jahre andauernder Video-Call

DE-CIX ist der Betreiber des nach Datendurchsatz weltgrößten Internet-Knotens, beheimatet in Frankfurt am Main. Das Unternehmen hat ermittelt, dass 2020 insgesamt 32 Exabyte Datenverkehr über diesen Internet-Knoten geflossen sind. Das entspricht ungefährr derselben Datenmenge, die für einen acht Millionen Jahre andauernden Video-Call benötigt wird.

Thomas King, Chief Technology Officer beim DE-CIX, erläutert: „Wir wussten von Anfang an, dass das Internet dem außergewöhnlichen Jahr 2020 und der Corona-Pandemie standhalten wird, aber eine so enorm hohe Zahl nun schwarz auf weiß zu sehen, ist schon etwas Besonderes und macht uns stolz.“

Beim DE-CIX habe man beobachten können, wie der Datenverkehr insbesondere in den Bereichen Home-Office (zum Beispiel Video-Calls oder VPN-Verbindungen) und Entertainment (zum Beispiel Streaming oder Online-Gaming) gestiegen ist.

Spitzenwerte am DE-CIX Frankfurt in 2020

Der Datenverkehr am DE-CIX in Frankfurt hat vergangenes Jahr zweimal Spitzenwerte erreicht: Im März 2020 – zum ersten Lockdown – wurde ein Weltrekord von 9 Terabit Datendurchsatz pro Sekunde (Tbps) erreicht. Darauf folgte im November – zum Lockdown-Light – ein weiterer Rekord von erstmalig 10 Tbps Datendurchsatz zu Spitzenzeiten.

Doch: Wie viel sind 32 Exabyte?

Die Übertragungsgeschwindigkeit von Daten wird in Terabit pro Sekunde (Tbps) angegeben.

  • 1 Terabit pro Sekunde sind 10³ Gbit/s, 106 Mbit/s, 10e9 kbit/s bzw. 1012 bit/s, also um 1.000.000.000.000 bit/s.
  • 8 Terabit = 1 Terabyte (TB); 1.000.000 TB = 1 Exabyte (EB)
  • 32 EB sind so viele Daten, wie ein fast 8 Millionen Jahre andauernder Video-Call transportiert.
  • 32 EB ist die Speicherkapazität von mehr als 250 Millionen Smartphones (mit jeweils 128 GB Speicherplatz).

Unternehmen haben die Kontrolle

Bei einem Internet-Knoten wie dem DE-CIX können Unternehmen eigene geschlossene Benutzergruppen einrichten und die Richtlinien vorgeben, die Teilnehmer in Bezug auf Leistung, Sicherheit oder Compliance erfüllen müssen. Innerhalb dieser Umgebung ist alles geschützt und gleichzeitig sehr effizient miteinander verbunden – unter Nutzung der Vorteile bestehender Ökosysteme, wie zum Beispiel der Nähe von Netzwerken und damit reduzierter Latenz.

Diese Lösung bietet eine Antwort auf die Frage, wie ein Unter­nehmensnetzwerk in einer geschlossenen Umgebung mit anderen Netzwerken verbunden werden kann, um die Komplexität zu reduzieren, die Sicherheit zu erhöhen, die Leistung zu verbessern und die Compliance im Blick zu behalten.

* Der Autor Dr. Thomas King ist Chief Technology Officer (CTO) bei der DE-CIX Management GmbH.

(ID:47189240)