Definition: Reaktionszeit, Latency oder Verzögerung Was ist (Cloud-) Latenz?

Von chrissikraus 5 min Lesedauer

Anbieter zum Thema

Die Latenz ist eine wichtige Kenngröße in Computernetzwerken. Vor allem im Zusammenhang mit Webseiten, onlinebasierten Anwendungen und Cloud-Diensten ist eine niedrige Latenz essenziell, Stichwort Performance.

Latenz: Zwischen einem Befehl und der erwarteten Reaktion kommt es immer zu einer gewissen Verzögerung - man spricht von Latency oder Latenz.(Bild:  frei lizenziert © Gerd Altmann /  Pixabay)
Latenz: Zwischen einem Befehl und der erwarteten Reaktion kommt es immer zu einer gewissen Verzögerung - man spricht von Latency oder Latenz.
(Bild: frei lizenziert © Gerd Altmann / Pixabay)

Bei onlinebasierten Services wie Cloud-Diensten spielt es eine wichtige Rolle, wie schnell Sender und Empfänger miteinander Kommunizieren. Je kürzer die Verzögerung bei dieser Kommunikation ist, desto flüssiger und reaktionsschneller fühlt sich die Interaktion an. Diese Verzögerung wird auch als Latenz bezeichnet. Die Folgen hoher Latenzzeiten können von unangenehmen Wartezeiten bis hin zu kritischen Störungen im Kommunikationsfluss reichen.

Was versteht man unter Latenz?

Wenn ein Gerät mit einem anderen Gerät über ein Netzwerk kommuniziert, entsteht immer eine gewisse Zeitspanne zwischen der Anfrage und der Antwort. Der Begriff Latenz bezeichnet die Verzögerung, die bei der Übertragung von Daten zwischen Sender und Empfänger entsteht. Man spricht auch von Latenzzeit. Unterschiedliche Faktoren können diese Reaktionszeit positiv oder negativ beeinflussen.

Was ist Cloud-Latenz?

Wenn von Cloud-Latenz die Rede ist, meint man damit die Verzögerungszeit im Zusammenhang mit einem Cloud-Dienst. Analog zur allgemeinen Latenz geht es darum, wie schnell oder langsam die Kommunikation zwischen zwei Teilnehmern abläuft. In diesem Fall geht es spezifisch um die Verzögerungszeit bei der Kommunikation zwischen einem Endgerät und der Cloud-Infrastruktur.

Warum ist niedrige Latenz wichtig?

Heute basieren viele Anwendungen, die privat und geschäftlich genutzt werden, auf onlinebasierten Transaktionen oder auf Cloud-Diensten. Damit sich diese Angebote angenehm und effizient bedienen lassen, müssen sie in möglichst kurzer Zeit auf Anfragen und Eingaben reagieren können.

Kurze Latenzzeiten ermöglichen Anwendungen wie Echtzeitkommunikation überhaupt erst. Wenn Sie an einer Videokonferenz teilnehmen, wünschen Sie sich ein flüssiges Bild und eine Tonspur ohne Aussetzer oder Verzerrungen.

Aber auch in anderen Szenarien sind kurze Wartezeiten vorteilhaft. Wenn Sie in einem Online-Magazin einen spannenden Link anklicken, möchten Sie nicht minutenlang darauf warten, dass Sie mit dem Lesen beginnen können. Auch interaktive Anwendungen wie Spiele mit Internetanbindung sind am angenehmsten, wenn die Eingabe des Benutzers zügig verarbeitet werden kann.

Eine niedrige Latenz bedeutet also, dass die Kommunikation zwischen Ihrem Endgerät und seinem Gegenstück schnell und reibungslos abläuft. Sie können Webanwendungen und Cloud-Dienste flüssig bedienen und müssen keine langen Wartezeiten befürchten.

Was sind die Folgen hoher Latenzzeiten?

Egal, ob Cloud-Dienst oder Webseite: Wenn ein System eine hohe Latenz hat, kann eine Reihe von Problemen entstehen. Die Folgen reichen von einer schlechteren Benutzererfahrung bis hin zu geschäftsschädigenden Nachteilen. Langsame Antwortzeiten und verzögerte oder fehlerhafte Datenübertragungen sind direkte Konsequenzen aus einer hohen Latenzzeit. Benutzer müssen länger auf das gewünschte Ergebnis warten.

Das ist nicht nur frustrierend, sondern mindert im geschäftlichen Kontext die Produktivität durch lange Wartezeiten und Leistungseinbußen. Schlimmstenfalls entstehen Wettbewerbsnachteile, wenn die Konkurrenz bessere Latenzzeiten hat. Vor allem, wenn schnelle Reaktionszeiten ein zentraler Erfolgsfaktor sind, machen niedrige Latenzen einen entscheidenden Unterschied.

Die folgenden Beispiele zeigen, warum hohe Latenzzeiten für bestimmte Anwendungen zum Problem werden können.

  • Echtzeitkommunikation: Sprach- und Videoanrufe funktionieren nur dann gut, wenn die Verzögerung bei der Datenübertragung gering ist. Gleiches gilt für Liveübertragungen. Hohe Latenzzeiten können bei Echtzeitkommunikation Aussetzer oder eine schlechte Übertragungsqualität zur Folge haben.
  • Transaktionen: Egal ob Online-Shop oder Online-Banking, wenn das System nicht schnell reagiert, werden Benutzer frustriert und verlieren das Vertrauen in den Service.
  • Hochfrequenzhandel: Im Finanzsektor geht es beim Hochfrequenzhandel (High-frequency Trading) darum, in extrem hoher Geschwindigkeit wertvolle Wertpapiertransaktionen zuverlässig durchzuführen. Niedrige Latenzen sind für den Erfolg entscheidend.
  • Cloudbasierte Anwendungen: Cloud Services sind praktisch, weil man keine eigenen Ressourcen anschaffen muss. Allerdings werden sie zum Hindernis, wenn sie aufgrund hoher Latenzen den reibungslosen Ablauf von Prozessen beschweren.
  • Echtzeitsteuerung: Industrielle Steuerungssysteme oder autonome Fahrzeuge sind auf niedrige Latenzzeiten angewiesen. Diese Systeme müssen in Bruchteilen von Sekunden belastbare Entscheidungen treffen können, weil sie sonst die Sicherheit von Menschen gefährden könnten. Neben hohen Latenzzeiten aus externer Kommunikation können hier auch interne Latenzen eine Rolle spielen, z. B. bei der Verarbeitung von internen Sensordaten.
  • Online-Gaming: Wenn die Latenz in einem onlinebasierten Videospiel hoch ist, können von langen Ladezeiten bis zu Verzögerungen in Multiplayer-Spielen viele Probleme entstehen. Diese sind nicht nur unangenehm, sondern können den Spielerfolg beeinträchtigen.

Was verursacht hohe Latenzzeiten?

Verzögerungen in der Kommunikation können durch verschiedene Faktoren ausgelöst werden. Ein häufiges Problem ist, dass Netzwerke zu Stoßzeiten stark ausgelastet sein können. Wenn so viele Teilnehmer zugleich auf einen Dienst zugreifen möchten, dass die Netzwerkkapazität nicht mehr ausreicht, kommt es zu hohen Latenzen. Dem kann durch den präventiven Ausbau von Kapazitäten oder mit skalierbaren Systemen entgegengewirkt werden. Skalierbare Cloud-Dienste können bis zu einem gewissen Grad flexibel auf Lastspitzen reagieren und sind somit robuster gegen Netzwerküberlastung.

Auch die geografische Entfernung zwischen Sender und Empfänger kann die Übertragungszeit beeinflussen. Ein weit entfernter Server wird länger für eine Antwort benötigen als einer, der vergleichsweise nahe an Ihrem Standort aufgestellt wurde. Auch wenn die Kommunikation über das Internet schnell geht, braucht das elektrische Signal eine gewisse Zeit, um ans andere Ende der Welt zu gelangen. Anbieter von Online-Diensten verringern Latenzzeiten, indem sie an mehreren Standorten Server betreiben. Dieses Content Delivery Network (CDN) kann je nach Zielgruppe des Dienstes mehrere Standorte in einem Land oder aber unzählige Stationen weltweit umfassen.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Cloud Computing

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Und auch technische Probleme an verschiedenen Stellen auf dem Kommunikationsweg können zu Verzögerungen führen. Das kann fehlerhafte Hardware aufseiten des Endgeräts sein, aber auch ein Problem im Rechenzentrum, beim Netzbetreiber oder im Firmennetzwerk. Selbst Bauarbeiten können Auslöser für vorübergehende Störungen sein.

Ferner kann die Leistung einer Internetanbindung die Latenz beeinflussen. Eine leistungsfähige Leitung sorgt im Allgemeinen für schnellere Übertragungsgeschwindigkeiten. Eine schwache Leistung hingegen stellt von vornherein eine Engstelle bei der Datenübertragung dar, weil sie auf eine niedrige Übertragungsgeschwindigkeit limitiert ist. Bei datenintensiver Kommunikation kann das dauerhaft zu niedrigen Latenzen führen und die Benutzung unangenehm machen.

Fazit: Wenn es auf schnelle Kommunikation ankommt, muss die Latenz stimmen

Hohe Latenz bedeutet hohe Verzögerung bei der Kommunikation zwischen Geräten bis hin zum Abriss des Datenaustauschs. Faktoren wie Netzwerkauslastung, Internetanbindung oder Entfernung können Einfluss auf die Latenzzeit haben. Eine niedrige Latenz ist vor allem für Echtzeitanwendungen und Cloud-Dienste unabdingbar, damit alles wie erwartet funktioniert. Deshalb nutzen (Cloud-)Dienstleister eine Reihe von Strategien wie CDN und Skalierbarkeit, um ihre Systeme robuster gegen hohe Latenzzeiten zu gestalten.

Microservices, Cloud Native, REST API , Kubernetes & Co.: Cloud Computing Wiki

Definitionen rund um Cloud ComputingVon AWS bis XaaS: Alle relevanten Schlagworte aus dem Bereich Cloud Computing finden Sie verständlich erklärt in unseren Definitionen. Ganz im Sinne eines kleinen, aber feinen Glossars lesen Sie hier neutral verfasste und leicht verständliche Erklärungen zu den wichtigsten Begriffen. Als Service für Sie haben wir die hier erklärten Begriffe in unseren Beiträgen auch direkt mit den zugehörigen Lexikoneinträgen verlinkt. So können Sie die wichtigsten Erläuterungen direkt dort nachschlagen.  

Zum Special: Definitionen rund um Cloud Computing

(ID:49586987)