Was ist Latenz? Und was kann ich dagegen tun?

Latenz Bedeutung

Was haben das Versenden von handgeschriebenen Briefen per Post und der Austausch von WhatsApp-Sofortnachrichten gemeinsam?

In beiden Fällen beeinflusst die Geschwindigkeit einer Antwort stark die „User Experience“ des Kommunikationsprozesses. Wenn der Brief oder Text schnell zugestellt wird, sind Sie glücklich. Ungewöhnliche Verzögerung kann zu Frustration führen.

Unabhängig davon, ob Sie auf eine Antwort in der E-Mail oder auf eine Antwort von einem Server warten, können wir daraus schließen, dass die Zeit von der Anfrage bis zur Antwort so schnell wie möglich sein sollte. Rechnerisch wird diese Zeitdauer als „Latenz“ bezeichnet. Es ist ein kritisches Element bei der Entscheidung über die Qualität der Benutzererfahrung einer Anwendung oder eines Netzwerks. Langsame Websites mit „hoher Latenz“ verursachen Frustration bei den Benutzern.

Nachdem Sie nun eine ungefähre Vorstellung davon haben, was mit Latenz gemeint ist, wollen wir uns mit den technischen Details befassen.

Was ist die Netzwerklatenz?

Netzwerklatenz Definition #1: Einweg-Latenz

Bei einer einfachen Einweg-Datenübertragung ist die Latenz die Zeit, die benötigt wird, um ein Datenpaket zu empfangen, nachdem Sie es gesendet haben.

Beispiele für Einweg-Latenz:

  • Senden Sie eine E-Mail. Es wird in Pakete umgewandelt, vom Server weitergeleitet, über das Netzwerk gesendet und durch mehrere Geräte geleitet, bevor es das Ziel erreicht. Die Dauer dieser Reise beträgt ca.
  • Eine Ping-Anfrage, die 200 Ping-Status gibt (HTTP OK Erfolg)! (Dies bedeutet, dass Ihre Anfrage das Ziel erfolgreich erreicht hat.)

2: Bidirektionale Latenz

Bei Benutzeranforderungen, die sowohl eine Anforderung als auch eine Antwort enthalten, ist die Latenz die Zeit, die benötigt wird, um die Benutzeranforderung an einen Server zu senden und die Antwort zu empfangen.

Beispiele für bidirektionale Latenz

  • Die Zeit, die benötigt wird, um eine Seite in Ihrem Browser zu öffnen, nachdem Sie in einer Suchmaschine auf ein Suchergebnis geklickt haben.
  • Die Verzögerung zwischen dem Geben eines Befehls in Ihrem Lieblings-Online-Spiel und dessen Ausführung.

Es gibt zwei Komponenten, die wir addieren, um die bidirektionale Latenz zu berechnen – Client-Latenz und Server-Latenz.

  1. Client-Latenz bedeutet, dass die Verzögerung der Kommunikation auf den Endbenutzer zurückzuführen ist. Gründe für diese Art von Verzögerung können eine langsame Verbindung, ein altes Gerät, eine komplexe Abfrage / Anforderung usw. sein.
  1. Serverlatenz, dh die Verzögerung der Kommunikation ist auf den Server zurückzuführen.

In beiden oben genannten Fällen wird die Latenz in Millisekunden gemessen, und jede Millisekunde zählt.

Der Kern der Sache ist, dass hohe Latenz große Probleme für Ihr Unternehmen bedeutet, wenn sie nicht aktiviert wird. Sie müssen herausfinden, was sich auf die Latenz auswirkt, und deren Auswirkungen auf Ihre Anwendung reduzieren.

Wie funktioniert Latenz?

Nachdem wir nun die Frage beantwortet haben: „Was bedeutet Latenz?“ und um die beiden Typen zu erklären, wollen wir diskutieren, wie es funktioniert und wie es sich auf einen Endbenutzer auswirkt.

Betrachten Sie einen einfachen Anwendungsfall: Sie möchten sich bei einer Website anmelden. Sie geben den Benutzernamen und das Passwort ein. Klicken Sie dann auf „Anmelden“, um das Dashboard der Site aufzurufen.

Was als nächstes passiert, ist:

  1. Der Browser reagiert auf den Klick und sendet Ihren Benutzernamen und Ihr Passwort an den Server.
  2. Der Server bestätigt die Anforderung nach dem Empfang von Datenpaketen.
  3. Der Server vergleicht die eingegebenen Anmeldeinformationen mit den Daten in der Datenbank und akzeptiert oder lehnt Ihre Anmeldeanforderung je nach Richtigkeit ab.
  4. Der Browser empfängt die Antwort des Servers.
  5. Gemäß der Antwort führt Sie Ihr Browser entweder zum Dashboard der Site oder gibt einen Fehler / eine Warnung aus, wodurch der Roundtrip für den Latenzzyklus abgeschlossen wird.

Jede Verzögerung oder Verzögerung in diesem Anforderungs- / Antwortprozess führt zu einer Latenz für den Benutzer.

Was sind die Ursachen für Netzwerklatenz?

Latenz tritt aufgrund von vier Hauptfaktoren im Anforderungs- / Antwortzyklus auf:

Ausbreitung

Die Entfernung zwischen Knoten ist ein großer Faktor für die Latenz. Anforderungen und Antworten müssen die physische Entfernung zwischen dem anfordernden Gerät und dem Server zurücklegen. Edge Computing erfreut sich immer größerer Beliebtheit für zeitkritische Anwendungen, die eine Latenz von nahezu Null erfordern.

Edge-Computing mit niedriger Latenz erreicht schnellere Antwortzeiten als herkömmliche Cloud- oder lokale Server, da diese Technologie verteilte Server in der Nähe der Benutzer lokalisiert.

Übertragungsmedium

Je nach Datenübertragungsmedium ist die Latenz Ihres Netzwerks hoch oder niedrig. Beispielsweise übertragen Kupferkabel die Daten langsamer als Glasfasern. Daher ist die Latenz in Netzwerken, die Glasfaser verwenden, niedriger und besser als in Netzwerken, die Kupferkabel verwenden.

Wenn sich Ihre Endbenutzer im Internet befinden, unterscheidet sich ihr Medium zum Senden oder Empfangen der Daten von Ihrem. In diesem Fall liegt es nicht in Ihrer Kontrolle.

Router

Verschiedene Router haben unterschiedliche Funktionen, und die Daten- oder Anforderungsübertragungsgeschwindigkeit variiert ebenfalls. Um den Latenzeffekt auf die Datenverarbeitung zu verringern, müssen Sie leistungsfähigere Router im Netzwerk platzieren oder verwenden.

Speicherverzögerungen

Das Hochladen und Herunterladen von Daten dauert länger als ein einfacher, schneller Ping. Ihre Latenz erhöht sich, wenn Sie Vorgänge zum Speichern, Suchen und Abrufen von Daten ausführen müssen. Schwere oder nicht optimierte Webseiten verursachen ebenfalls eine hohe Latenz.

Was ist eine gute Latenz?

 nomral Netzwerk vs Netzwerk mit hoher Latenz Diagramm

Quelle

Was ist eine gute Ping-Geschwindigkeit oder Latenz? Gute Ping-Geschwindigkeit oder niedrige Latenz unterscheidet sich für Anwendungen nach ihrem Nutzen.

100 ms ist eine gute Ping-Geschwindigkeit für VoIP-, Breitband— und Streaming-Dienste, aber Gaming-Anwendungen erfordern eine extrem niedrige Latenz – 20-30ms. Für Anwendungen, die nicht zeitkritisch sind, kann eine gute Ping-Geschwindigkeit bis zu 150ms betragen.

Es unterscheidet sich auch von Technologie zu Technologie. Für 4G netzwerke, 30 ms zu 100 ms ist eine gute latenz.

Andererseits liegt eine gute 5G-Latenz zwischen 5s und 20s.

Denken Sie an eine Datenbank mit Profilen und ein Echtzeit-HD-Spiel. Welches sollte Ihrer Meinung nach eine geringere Latenz in einem Netzwerklatenztest haben?

Die Gaming-App, offensichtlich! Lesen Sie weiter, um mehr über die Latenz in Spielen zu erfahren.

Berechnen oder Überprüfen der Netzwerklatenz

Sie können die Latenz anhand von zwei Metriken berechnen: Round Trip Time (RTT) oder Time to First Byte (TTFB). RTT ist die Summe aus Client-Anforderungszeit und Serverantwortzeit, während TTFB den Unterschied zwischen dem HTTP-Anforderungszeitstempel und dem Zeitstempel angibt, als der Server das erste Byte als Antwort gesendet hat.

Drei einfache Möglichkeiten, Ihre Netzwerklatenz zu überprüfen:

  1. Verwenden Sie den Befehl Ping.

 ping lateny
  1. Verwenden Sie den Befehl Tracert.

 tracert Latenz

  1. Verwenden Sie ein Netzwerküberwachungs- oder Latenzberechnungstool wie dieses beliebte Leistungstesttool, um die Latenz zu ermitteln.
 latenz-Tool

Best Practices zur Überwachung und Verbesserung von Netzwerken

Latenz allein kann Ihr Unternehmen entscheidend beeinflussen. Benutzer erwarten, dass Websites und Anwendungen schnell reagieren. Wenn Ihre Website langsam ist, werden Ihre Kunden sie nicht verwenden, daher ist es wichtig, Verzögerungstests durchzuführen, um eine akzeptable Latenz zu berechnen.

Hier sind die Best Practices für die Aufrechterhaltung von Netzwerken mit niedriger Latenz.

Überwachen oder Testen

Verwenden Sie die oben aufgeführten Befehle und Tools, um die Latenz in Ihrem Netzwerk zu überwachen.

Alternativ können Sie auch Netzwerküberwachungstools wie Datadog, Zabbix und SolarWinds konfigurieren oder Netzwerkprofis einstellen, um Latenzprobleme ständig im Auge zu behalten und rechtzeitig zu beheben.

Können Benutzer die Latenz an ihrem Ende beheben?

Client-Latenz kann zu Kommunikationsverzögerungen führen. Benutzer mit langsamen Verbindungen oder mit vielen Cookies, die von einer Anwendung in ihrem Browser gespeichert werden, können versuchen, ihre Verbindungsqualität zu verbessern oder Browserdaten zu löschen.

Cloud-Gaming und Latenz

Denken Sie an eine Online-Gaming-Anwendung, die Sie besitzen. Wenn es eine ganze Sekunde dauert, bis Ihr Spiel auf die Anfragen oder Befehle der Spieler reagiert, wie viele Benutzer würden es spielen?

Niemand wird, auch wenn Ihr Spiel ist einzigartig und spannend.

Spiele sind zeitkritische Anwendungen — jede Millisekunde zählt. Ihre Benutzer (Spieler) werden in Ländern auf der ganzen Welt präsent sein, daher ist es keine praktikable oder skalierbare Lösung, sie von nur wenigen Standorten aus zu bedienen. Spieler werden sich nicht mit einer verzögerten Spielleistung und einer schlechten Benutzererfahrung zufrieden geben. Vollständig verwaltete Cloud-native Dienste ermöglichen es Ihnen, Bereitstellungen auf Stadtebene einzurichten und weltweit allgegenwärtig zu sein. Wir haben auch einen ausführlichen Artikel darüber, was Cloud-Gaming ist.

Sie fragen sich, wie Sie den Ping in Spielen senken und den richtigen Cloud-Gaming-Dienst für Ihre Anforderungen auswählen können? Erfahren Sie mehr über Ridge Cloud for Gaming, um eine gute Entscheidung zu treffen.

Netzwerklatenz, Bandbreite und Durchsatz

Wir haben bereits geantwortet: „Was ist Latenz im Netzwerk?“ Um Ihr Wissen über die Netzwerklatenz zu verbessern, finden Sie hier einen kurzen Überblick über drei miteinander verbundene Begriffe:

Latenz ist die Verzögerung oder Verzögerung beim Empfang angeforderter Informationen oder Bestätigungen vom Server nach einer Benutzeraktion oder -anforderung.

Bandbreite ist die Breite des Pfades, auf dem sich die Datenpakete in Ihrem Netzwerk bewegen. Bandbreite und Latenz hängen zusammen, da die Breite des Datenübertragungspfads die Kommunikationsgeschwindigkeit und -verzögerung beeinflusst.

Durchsatz: Die in einem bestimmten Zeitraum übertragene Datenmenge.

Erfahren Sie, wie die verteilte Cloud von Ridge die Latenz verbessert

Für Unternehmen ist die Reduzierung der Latenz der Weg, um die Benutzererfahrung zu verbessern. Indem Sie die Latenz oder Verzögerung verringern, können Sie die Site-Erfahrung für die Benutzer verbessern. Aber wie?

Ridge Cloud, das Edge Computing für seine Server weltweit einsetzt, macht die Daten für Ihre Endbenutzer leicht verfügbar und verarbeitet Benutzeranforderungen mit einer erstaunlich hohen Geschwindigkeit. Die lokalisierte und verteilte Computerplattform von Ridge, die durch die Zusammenführung von Rechenzentren aus der ganzen Welt entwickelt wurde, ermöglicht Entwicklern die Bereitstellung latenzsensibler Anwendungen wie Cloud—Gaming an jedem Ort. Sie müssen nur über eine einzige API interagieren, um Anwendungen an jedem Ort bereitzustellen und die Latenz auf ein Minimum zu reduzieren.

Starten Sie noch heute Ihre kostenlose Testversion von Ridge und sehen Sie, was Edge Computing tun kann, um Ihre Latenz zu verringern und Ihre Benutzer zu beeindrucken.

Häufig gestellte Fragen

Ist hohe Latenz gut oder schlecht?

Ein Netzwerk mit hoher Latenz bedeutet langsame Antwortzeiten, was den Endbenutzern eine schlechte Benutzererfahrung bietet. Zum Beispiel ist 200 Ping (in Millisekunden) eine hohe Latenz und schlecht für zeitkritische Anwendungen. 20-30ms (oder bis zu 50ms) ist eine niedrige Latenz, daher wird sie als gut angesehen. Der durchschnittliche Latenzbereich für die meisten Standorte liegt zwischen 50 und 150 ms.

Sind Ping und Latenz gleich?

Einweg-Latenz bedeutet die Verzögerung bei der Datenübertragung und deren Empfang am Ziel. Ping ist das Signal (ein winziges Datenpaket), das an einen anderen Computer gesendet wird, um im Allgemeinen die Erreichbarkeit des Zielcomputers zu überprüfen. Einweg-Latenz und Ping sind gleich.

Die bidirektionale Latenz erfordert jedoch das Senden einer Anforderung an den Server und das Empfangen einer Antwort. Dies unterscheidet sich von Ping.

Wie bekomme ich einen Null-Ping?

Zero Ping (0 Ping) ist der ideale, theoretische Anwendungsfall. Dies bedeutet, dass der Empfängercomputer / Server die Anforderung des Absenders in der Millisekunde empfängt, in der er gesendet wird. Null-Ping ist jedoch aufgrund der Entfernung zwischen Geräten, des Netzwerkverkehrs und anderer Gründe physikalisch nicht möglich. Stattdessen können Sie Edge Computing verwenden, um im Cloud Computing eine extrem niedrige Latenzzeit zu erzielen, dh sehr schnelle Reaktionszeiten.

Beeinflusst die Entfernung die Latenz?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.