¿Qué Es La Latencia? ¿Y Qué Puedo Hacer Al Respecto?

Latencia Que significa

¿Qué tienen en común enviar cartas escritas a mano a través de correo postal e intercambiar mensajes instantáneos de WhatsApp?

En ambos casos, la velocidad de una respuesta influye en gran medida en la» experiencia del usuario » del proceso de comunicación. Si la carta o el texto se entregan rápidamente, estás feliz. Un retraso inusual puede causar frustración.

Ya sea que esté esperando una respuesta en el correo o una respuesta de un servidor, podemos concluir que el tiempo de solicitud a respuesta debe ser lo más rápido posible. En términos informáticos, esta duración de tiempo se denomina «latencia». Es un elemento crítico a la hora de decidir la calidad de la experiencia de usuario de una aplicación o red. Los sitios web lentos y de «alta latencia» causan frustración en los usuarios.

Ahora que tienes una idea aproximada de lo que significa latencia, vamos a entrar en detalles técnicos.

¿Qué Es La Latencia De Red?

Definición de latencia de red # 1: Latencia unidireccional

Para una transmisión de datos simple y unidireccional, la latencia es el tiempo que tarda en recibir un paquete de datos después de haberlo enviado.

Ejemplos de Latencia unidireccional:

  • Envía un correo electrónico. Se convertirá en paquetes, se enrutará desde el servidor, se enviará a través de la red y se pasará a través de varios dispositivos antes de llegar al destino. La duración de este viaje es latencia.
  • Una solicitud de ping que da un estado de ping de 200 (éxito HTTP OK)! (Implica que su solicitud fue exitosa para llegar al destino.)

Definición de latencia de red # 2: Latencia bidireccional

Para las solicitudes de usuario que incluyen tanto una solicitud como una respuesta, la latencia es el tiempo que tarda en enviar la solicitud de usuario a un servidor y recibir la respuesta.

Ejemplos de latencia bidireccional

  • El tiempo que lleva abrir una página en su navegador después de hacer clic en un resultado de búsqueda en un motor de búsqueda.
  • El retraso entre dar un comando en tu juego en línea favorito y ejecutarlo.

Hay dos componentes que sumamos para calcular la latencia bidireccional: la latencia del cliente y la Latencia del servidor.

  1. La latencia del cliente significa que el retraso en la comunicación se debe al usuario final. Las razones de este tipo de retraso podrían ser una conexión lenta, un dispositivo antiguo, una consulta/solicitud compleja, etc.
  1. Latencia del servidor, lo que significa que el retraso en la comunicación se debe al servidor.

En ambos casos, la latencia se mide en milisegundos, y cada milisegundo importa.

El quid de la cuestión es que la alta latencia significa grandes problemas para su negocio si no se controla. Debe averiguar qué afecta a la latencia y reducir su impacto en la aplicación.

¿Cómo Funciona la Latencia?

Ahora que hemos respondido a la pregunta, «¿ Qué significa latencia?»y explicamos los dos tipos, discutamos cómo funciona y cómo afecta al usuario final.

Considere un caso de uso simple: desea iniciar sesión en un sitio web. Introduce el nombre de usuario y la contraseña. Y luego, haz clic en «Iniciar sesión» para ingresar al panel de control del sitio.

Lo que sucede a continuación es:

  1. El navegador responde al clic y envía su nombre de usuario y contraseña al servidor.
  2. El servidor acepta la solicitud después de recibir paquetes de datos.
  3. El servidor compara las credenciales de entrada con los datos de la base de datos y acepta o rechaza su solicitud de inicio de sesión en función de la corrección.
  4. El navegador recibe la respuesta del servidor.
  5. Según la respuesta, su navegador lo llevará al panel de control del sitio o le dará un error/advertencia, completando el ciclo de latencia de ida y vuelta.

Cualquier retraso o retardo en este proceso de solicitud/respuesta crea latencia para el usuario.

¿cuáles Son las Causas de la Latencia de la Red?

La latencia se produce debido a cuatro factores principales en el ciclo de solicitud / respuesta:

Propagación

La distancia entre nodos es un factor enorme en la latencia. Las solicitudes y respuestas deben recorrer la distancia física entre el dispositivo solicitante y el servidor. La informática perimetral sigue creciendo en popularidad para aplicaciones de tiempo crítico que necesitan una latencia cercana a cero.

La informática perimetral de baja latencia logra tiempos de respuesta más rápidos que los servidores en la nube o locales habituales, ya que esta tecnología localiza los servidores distribuidos en proximidad con los usuarios.

Medio de transmisión

Dependiendo del medio de transmisión de datos, la latencia de su red será alta o baja. Por ejemplo, los cables de cobre transmiten los datos más lentamente que la fibra óptica. Por lo tanto, la latencia en las redes que usan fibra óptica será menor y mejor que en las que usan cables de cobre.

Si sus usuarios finales están en Internet, su medio para transmitir o recibir los datos será diferente del suyo. En este caso, no estará bajo su control.

Enrutadores

Los diferentes enrutadores tienen diferentes capacidades, y la velocidad de transmisión de datos o solicitudes también variará. Para reducir el efecto de latencia en el procesamiento de datos, debe colocar o usar enrutadores más potentes en la red.

Retrasos de almacenamiento

Cargar y descargar datos lleva más tiempo que un simple y rápido ping. Su latencia aumentará si necesita realizar operaciones relacionadas con el almacenamiento, la búsqueda y la obtención de datos. Las páginas web pesadas o no optimizadas también causarán una alta latencia.

¿Qué Es una Buena Latencia?

red nomral vs red con diagrama de alta latencia

Fuente

¿Qué es una buena velocidad de ping o latencia? La buena velocidad de ping o la baja latencia difieren para las aplicaciones según su utilidad.

100 ms es una buena velocidad de ping para servicios de VoIP, banda ancha y transmisión, pero las aplicaciones de juegos requieren una latencia extremadamente baja: 20-30 ms. Para aplicaciones que no son críticas en el tiempo, una buena velocidad de ping puede ser de hasta 150 ms.

También difiere de una tecnología a otra. Para redes 4G, de 30 ms a 100 ms es una buena latencia.

Por otro lado, una buena latencia 5G está entre 5s y 20s.

Piense en una base de datos de perfiles y un juego en HD en tiempo real. ¿Cuál cree que debería tener una latencia más baja en una prueba de latencia de red?

¡La aplicación de juegos, obviamente! Sigue leyendo para obtener más información sobre la latencia en los juegos.

Cómo calcular o Comprobar la latencia de red

Puede calcular la latencia utilizando dos métricas: Tiempo de ida y vuelta (RTT) o Tiempo hasta el Primer Byte (TTFB). RTT es la suma de la hora de la solicitud del cliente y el tiempo de respuesta del servidor, mientras que TTFB indica la diferencia en la marca de tiempo de la solicitud HTTP y la marca de tiempo cuando el servidor envió el primer byte en respuesta.

Tres formas sencillas de comprobar la latencia de su red:

  1. Utilice el comando Ping.

ping lateny
  1. Utilice el comando Tracert.

latencia de rastreo

  1. Utilice una herramienta de monitoreo de red o cálculo de latencia como esta popular herramienta de prueba de rendimiento para encontrar latencia.
herramienta de latencia

Las mejores prácticas para Monitorear y Mejorar las Redes

La latencia por sí sola puede hacer o deshacer su negocio. Los usuarios esperan que los sitios web y las aplicaciones respondan rápidamente. Si su sitio es lento, sus clientes no lo utilizarán, por lo que realizar pruebas de retraso para calcular la latencia aceptable es crucial.

Estas son las mejores prácticas para mantener redes de baja latencia.

Supervisión o pruebas

Utilice los comandos y herramientas enumerados anteriormente para supervisar la latencia en la red.

Alternativamente, también puede configurar herramientas de monitoreo de redes como Datadog, Zabbix y SolarWinds o contratar profesionales de red para realizar un seguimiento constante de los problemas de latencia y resolverlos a tiempo.

¿Pueden los Usuarios Corregir la Latencia en Su Extremo?

La latencia del cliente puede causar un retraso en la comunicación en cierta medida. Los usuarios con conexiones lentas o con muchas cookies almacenadas desde una aplicación en su navegador pueden intentar mejorar la calidad de su conexión o borrar los datos del navegador.

Juegos en la nube y latencia

Piense en una aplicación de juegos en línea que posea. Si el juego tarda un segundo en responder a las peticiones o comandos de los jugadores, ¿cuántos usuarios lo jugarían?

nadie, incluso si su juego es único y emocionante.

Los juegos son aplicaciones de tiempo crítico, cada milisegundo cuenta. Sus usuarios (jugadores) estarán presentes en países de todo el mundo, por lo que servirlos desde solo unos pocos lugares no es una solución viable ni escalable. Los jugadores no se conformarán con un rendimiento de juego rezagado y una experiencia de usuario deficiente. Los servicios nativos en la nube totalmente administrados le permiten configurar implementaciones a nivel de ciudad y estar omnipresente a nivel mundial. También tenemos un extenso artículo sobre lo que son los juegos en la nube.

¿Se pregunta cómo reducir el ping en los juegos y elegir el servicio de juegos en la nube adecuado para sus necesidades? Obtenga más información sobre Ridge Cloud for gaming para tomar una buena decisión.

Latencia de red, Ancho de banda y rendimiento

Ya hemos respondido: «¿Qué es la latencia en redes?»Sin embargo, para mejorar su conocimiento de la latencia de red, aquí tiene una descripción rápida de tres términos interrelacionados:

Latencia es el retraso o retraso en la recepción de la información solicitada o el acuse de recibo del servidor después de una acción o solicitud del usuario.

El ancho de banda es el ancho de la ruta por la que viajan los paquetes de datos en su red. El ancho de banda y la latencia están relacionados porque el ancho de la ruta de transferencia de datos afectará la velocidad y el retraso de la comunicación.

Rendimiento: La cantidad de datos transferidos en un período determinado.

Descubra cómo la nube distribuida de Ridge Mejora la latencia

Para las empresas, reducir la latencia es la forma de mejorar la experiencia del usuario. Al reducir la latencia o el retraso, puede mejorar la experiencia del sitio para los usuarios. ¿Pero cómo?

Ridge Cloud, que implementa la informática perimetral para sus servidores en todo el mundo, pone los datos a disposición de los usuarios finales y procesa las solicitudes de los usuarios a una velocidad sorprendentemente rápida. La plataforma de computación localizada y distribuida de Ridge, creada mediante la fusión de centros de datos de todo el mundo, permite a los desarrolladores implementar aplicaciones sensibles a la latencia, como juegos en la nube, en cualquier ubicación. Solo necesitan interactuar a través de una única API para implementar aplicaciones en cualquier ubicación y reducir la latencia al mínimo.

Comience su prueba gratuita de Ridge hoy mismo y vea lo que la informática perimetral puede hacer para reducir su latencia e impresionar a sus usuarios.

Preguntas frecuentes

¿La alta latencia es buena o mala?

Una red con alta latencia significa tiempos de respuesta lentos, dando una mala experiencia de usuario a sus usuarios finales, por lo que se considera mala. Por ejemplo, 200 ping (en milisegundos) es una latencia alta y mala para aplicaciones con tiempo crítico. 20-30 ms (o hasta 50 ms) es una latencia baja, por lo que se considera buena. El rango de latencia promedio para la mayoría de los sitios es de entre 50 y 150 ms.

¿El ping y la latencia son lo mismo?

Latencia unidireccional significa el retraso en la transmisión de datos y su recepción en el destino. Ping es la señal (un pequeño paquete de datos) enviada a otra computadora, generalmente para verificar la accesibilidad de la computadora de destino. Latencia unidireccional y ping son lo mismo.

Sin embargo, la latencia bidireccional requiere enviar una solicitud al servidor y recibir una respuesta. Esto es diferente de ping.

¿Cómo se obtiene un ping cero?

Cero Ping (0 Ping) es el caso de uso teórico ideal. Implica que el equipo/servidor receptor recibe la solicitud del remitente en el milisegundo que se envía. Sin embargo, el ping cero no es físicamente posible debido a la distancia entre dispositivos, el tráfico de red y otras razones. Por lo tanto, en su lugar, puede usar la informática perimetral para lograr una latencia hiper-baja, lo que significa tiempos de respuesta muy rápidos, en la computación en la nube.

¿La distancia afecta a la latencia?

Deja una respuesta

Tu dirección de correo electrónico no será publicada.