Qu’Est-Ce Que La Latence ? Et Que Puis-Je Faire À Ce Sujet?

Signification de latence

Qu’ont en commun l’envoi de lettres manuscrites par courrier postal et l’échange de messages instantanés WhatsApp?

Dans les deux cas, la rapidité d’une réponse influence fortement « l’expérience utilisateur » du processus de communication. Si la lettre ou le texte est livré rapidement, vous êtes heureux. Un retard inhabituel peut causer de la frustration.

Que vous attendiez une réponse par courrier ou une réponse d’un serveur, nous pouvons conclure que le temps de demande à réponse doit être aussi rapide que possible. En termes informatiques, cette durée est appelée « latence ». C’est un élément essentiel pour décider de la qualité de l’expérience utilisateur d’une application ou d’un réseau. Les sites Web lents et à « latence élevée » provoquent de la frustration chez les utilisateurs.

Maintenant que vous avez une idée approximative de ce que l’on entend par latence, entrons dans les détails techniques.

Qu’Est-Ce Que La Latence Réseau ?

Définition de latence réseau #1: Latence unidirectionnelle

Pour une transmission de données simple et unidirectionnelle, la latence est le temps nécessaire pour recevoir un paquet de données après l’avoir envoyé.

Exemples de latence unidirectionnelle:

  • Envoyez un e-mail. Il sera converti en paquets, acheminé depuis le serveur, envoyé sur le réseau et passé par plusieurs périphériques avant d’atteindre la destination. La durée de ce voyage est la latence.
  • Une requête ping qui donne un statut de ping de 200 (succès HTTP OK) ! (Cela implique que votre demande a réussi à atteindre la destination.)

Définition de latence réseau #2 : Latence bidirectionnelle

Pour les demandes utilisateur qui incluent à la fois une demande et une réponse, la latence est le temps nécessaire pour envoyer la demande utilisateur à un serveur et recevoir la réponse.

Exemples de latence bidirectionnelle

  • Le temps nécessaire pour ouvrir une page dans votre navigateur après avoir cliqué sur un résultat de recherche dans un moteur de recherche.
  • Le décalage entre donner une commande dans votre jeu en ligne préféré et l’exécuter.

Nous additionnons deux composants pour calculer la latence bidirectionnelle : la latence client et la latence serveur.

  1. La latence du client signifie que le retard de communication est dû à l’utilisateur final. Les raisons de ce type de retard peuvent être une connexion lente, un ancien appareil, une requête / requête complexe, etc.
  1. Latence du serveur, ce qui signifie que le retard de communication est dû au serveur.

Dans les deux cas ci-dessus, la latence est mesurée en millisecondes et chaque milliseconde compte.

Le nœud du problème est que la latence élevée entraîne de gros problèmes pour votre entreprise si elle n’est pas contrôlée. Vous devez savoir ce qui affecte la latence et réduire son impact sur votre application.

Comment Fonctionne La Latence ?

Maintenant que nous avons répondu à la question, « Que signifie la latence? »et a expliqué les deux types, discutons de son fonctionnement et de son impact sur un utilisateur final.

Considérons un cas d’utilisation simple: vous souhaitez vous connecter à un site Web. Vous entrez le nom d’utilisateur et le mot de passe. Et puis, vous cliquez sur « Connexion » pour entrer dans le tableau de bord du site.

Ce qui se passe ensuite est:

  1. Le navigateur répond au clic et envoie votre nom d’utilisateur et votre mot de passe au serveur.
  2. Le serveur accuse réception de la demande après réception de paquets de données.
  3. Le serveur compare les informations d’identification d’entrée aux données de la base de données et accepte ou rejette votre demande de connexion en fonction de son exactitude.
  4. Le navigateur reçoit la réponse du serveur.
  5. Selon la réponse, votre navigateur vous mènera au tableau de bord du site ou vous donnera une erreur / un avertissement, complétant le cycle de latence aller-retour.

Tout retard ou retard dans ce processus de demande / réponse crée une latence pour l’utilisateur.

Quelles sont les Causes de la latence du réseau ?

La latence est due à quatre facteurs principaux dans le cycle de demande / réponse :

Propagation

La distance entre les nœuds est un facteur énorme de latence. Les demandes et les réponses doivent parcourir la distance physique entre le périphérique demandeur et le serveur. L’Edge computing continue de gagner en popularité pour les applications critiques nécessitant une latence proche de zéro.

L’informatique de périphérie à faible latence permet d’obtenir des temps de réponse plus rapides que les serveurs cloud ou sur site ordinaires, car cette technologie localise les serveurs distribués à proximité des utilisateurs.

Support de transmission

Selon le support de transmission de données, la latence de votre réseau sera élevée ou faible. Par exemple, les câbles en cuivre transmettent les données plus lentement que la fibre optique. Ainsi, la latence dans les réseaux utilisant la fibre optique sera plus faible et meilleure que celles utilisant des câbles en cuivre.

Si vos utilisateurs finaux sont sur Internet, leur support de transmission ou de réception des données sera différent du vôtre. Dans ce cas, cela ne sera pas sous votre contrôle.

Routeurs

Différents routeurs ont des capacités différentes et la vitesse de transmission des données ou des demandes varie également. Pour réduire l’effet de latence sur le traitement des données, vous devez placer ou utiliser des routeurs plus puissants dans le réseau.

Délais de stockage

Le téléchargement et le téléchargement de données prennent plus de temps qu’un simple ping rapide. Votre latence augmentera si vous devez effectuer des opérations liées au stockage, à la recherche et à la récupération de données. Les pages Web lourdes ou non optimisées entraîneront également une latence élevée.

Qu’est-ce qu’une Bonne Latence ?

 réseau nominal vs réseau avec diagramme à latence élevée

Source

Qu’est-ce qu’une bonne vitesse de ping ou une bonne latence ? Une bonne vitesse de ping ou une faible latence diffèrent pour les applications selon leur utilité.

100 ms est une bonne vitesse de ping pour les services VoIP, à large bande et de streaming, mais les applications de jeu nécessitent une latence extrêmement faible — 20 à 30 ms. Pour les applications qui ne sont pas critiques dans le temps, une bonne vitesse de ping peut atteindre 150 ms.

Elle diffère également d’une technologie à l’autre. Pour les réseaux 4G, 30 ms à 100 ms est une bonne latence.

En revanche, une bonne latence 5G se situe entre 5s et 20s.

Pensez à une base de données de profils et à un jeu HD en temps réel. Selon vous, lequel devrait avoir une latence inférieure dans un test de latence réseau?

L’application de jeu, évidemment! Continuez à lire pour en savoir plus sur la latence dans les jeux.

Comment calculer ou vérifier la latence du réseau

Vous pouvez calculer la latence en utilisant deux mesures: Le Temps aller-retour (RTT) ou le Temps au premier Octet (TTFB). RTT est la somme du temps de demande client et du temps de réponse du serveur, tandis que TTFB indique la différence entre l’horodatage de la demande HTTP et l’horodatage lorsque le serveur a envoyé le premier octet en réponse.

Trois façons simples de vérifier la latence de votre réseau:

  1. Utilisez la commande Ping.

 ping lateny
  1. Utilisez la commande Tracert.

 latence tracert

  1. Utilisez un outil de surveillance du réseau ou de calcul de la latence comme cet outil de test de performance populaire pour trouver la latence.
 outil de latence

Meilleures pratiques pour Surveiller et améliorer les réseaux

La latence seule peut faire ou défaire votre entreprise. Les utilisateurs s’attendent à ce que les sites Web et les applications réagissent rapidement. Si votre site est lent, vos clients ne l’utiliseront pas, il est donc crucial d’effectuer des tests de décalage pour calculer une latence acceptable.

Voici les meilleures pratiques pour maintenir des réseaux à faible latence.

Surveillance ou test

Utilisez les commandes et outils énumérés ci-dessus pour surveiller la latence dans votre réseau.

Vous pouvez également configurer des outils de surveillance réseau tels que Datadog, Zabbix et SolarWinds ou engager des professionnels du réseau pour suivre en permanence les problèmes de latence et les résoudre à temps.

Les utilisateurs peuvent-Ils Corriger la latence de Leur côté?

La latence du client peut entraîner un retard de communication dans une certaine mesure. Les utilisateurs avec des connexions lentes ou avec beaucoup de cookies stockés à partir d’une application sur leur navigateur peuvent essayer d’améliorer la qualité de leur connexion ou d’effacer les données de leur navigateur.

Jeu en nuage et latence

Pensez à une application de jeu en ligne que vous possédez. S’il faut une seconde complète pour que votre jeu réponde aux demandes ou aux commandes des joueurs, combien d’utilisateurs y joueraient ?

Personne ne le fera, même si votre jeu est unique et passionnant.

Les jeux sont des applications critiques – chaque milliseconde compte. Vos utilisateurs (joueurs) seront présents dans des pays du monde entier, donc les servir à partir de quelques emplacements n’est pas une solution réalisable ou évolutive. Les joueurs ne se contenteront pas d’une performance de jeu tardive et d’une expérience utilisateur médiocre. Les services cloud natifs entièrement gérés vous permettent de configurer des déploiements au niveau de la ville et d’être omniprésents à l’échelle mondiale. Nous avons également un article détaillé sur ce qu’est le cloud gaming.

Vous vous demandez comment réduire le ping dans les jeux et choisir le bon service de jeu en nuage pour vos besoins? En savoir plus sur Ridge Cloud for gaming pour prendre une bonne décision.

Latence réseau, bande passante et débit

Nous avons déjà répondu :  » qu’est-ce que la latence en réseau ? » Cependant, pour améliorer vos connaissances sur la latence du réseau, voici un aperçu rapide de trois termes interdépendants :

La latence est le retard ou le retard dans la réception des informations demandées ou de l’accusé de réception du serveur après une action ou une demande de l’utilisateur.

La bande passante est la largeur du chemin sur lequel les paquets de données voyagent dans votre réseau. La bande passante et la latence sont co-liées car la largeur du chemin de transfert de données affectera la vitesse et le délai de communication.

Débit : La quantité de données transférées au cours d’une période donnée.

Découvrez comment le Cloud distribué de Ridge améliore la latence

Pour les entreprises, réduire la latence est le moyen d’améliorer l’expérience utilisateur. En réduisant la latence ou le retard, vous pouvez améliorer l’expérience du site pour les utilisateurs. Mais comment ?

Ridge Cloud, en déployant l’edge computing pour ses serveurs dans le monde entier, rend les données facilement disponibles pour vos utilisateurs finaux et traite les demandes des utilisateurs à une vitesse étonnamment rapide. La plate-forme informatique localisée et distribuée de Ridge – construite en fédérant des centres de données du monde entier – permet aux développeurs de déployer des applications sensibles à la latence, telles que le jeu dans le cloud, n’importe où. Ils n’ont besoin que d’interagir via une seule API pour déployer des applications dans n’importe quel emplacement et réduire la latence au minimum.

Commencez votre essai gratuit Ridge dès aujourd’hui et découvrez ce que Edge computing peut faire pour réduire votre latence et impressionner vos utilisateurs.

Foire aux questions

La latence élevée est-elle bonne ou mauvaise?

Un réseau avec une latence élevée signifie des temps de réponse lents, donnant une mauvaise expérience utilisateur à ses utilisateurs finaux, il est donc considéré comme mauvais. Par exemple, 200 ping (en millisecondes) représentent une latence élevée et sont mauvais pour les applications critiques. 20-30ms (ou jusqu’à 50ms) est une faible latence, elle est donc considérée comme bonne. La plage de latence moyenne pour la plupart des sites est comprise entre 50 et 150 ms.

Le ping et la latence sont-ils les mêmes?

La latence unidirectionnelle signifie le retard dans la transmission des données et sa réception sur la destination. Le ping est le signal (un petit paquet de données) envoyé à un autre ordinateur, généralement pour vérifier l’accessibilité de l’ordinateur de destination. La latence unidirectionnelle et le ping sont les mêmes.

Cependant, la latence bidirectionnelle nécessite l’envoi d’une requête au serveur et la réception d’une réponse. C’est différent de ping.

Comment obtenez-vous un ping nul?

Zéro Ping (0 Ping) est le cas d’utilisation théorique idéal. Cela implique que l’ordinateur/serveur destinataire reçoit la demande de l’expéditeur à la milliseconde qui lui est envoyée. Cependant, aucun ping n’est physiquement possible en raison de la distance entre les périphériques, du trafic réseau et d’autres raisons. Vous pouvez donc utiliser l’informatique de périphérie pour obtenir une latence extrêmement faible, c’est-à-dire des temps de réponse très rapides, dans le cloud computing.

La distance affecte-t-elle la latence ?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.