latência que significa
o que o envio de cartas escritas à mão por correio postal e a troca de mensagens instantâneas do WhatsApp têm em comum?
em ambos os casos, a velocidade de uma resposta influencia fortemente a “experiência do usuário” do processo de comunicação. Se a carta ou texto for entregue rapidamente, você está feliz. Atraso incomum pode causar frustração.
se você está esperando por uma resposta no e-mail ou uma resposta de um servidor, podemos concluir que o tempo de solicitação para resposta deve ser o mais rápido possível. Em termos de computação, essa duração de tempo é chamada de “latência”. É um elemento crítico para decidir a qualidade da experiência do usuário de um aplicativo ou rede. Sites lentos e de” alta latência ” causam frustração nos usuários.Agora que você tem uma ideia aproximada do que se entende por latência, vamos entrar em detalhes técnicos.
O Que É Latência De Rede?
Definição De Latência De Rede #1: Latência unidirecional
para transmissão de dados unidirecional simples, a latência é o tempo que leva para receber um pacote de dados depois de enviá-lo.
exemplos de latência unidirecional:
- envie um e-mail. Ele será convertido em pacotes, roteado do servidor, enviado pela rede e passado por vários dispositivos antes de chegar ao destino. A duração desta jornada é latência.
- uma solicitação de ping que fornece 200 status de ping (HTTP OK success)! (Isso implica que seu pedido foi bem-sucedido em chegar ao destino.)
definição de latência de rede #2: latência bidirecional
para solicitações de usuários que incluem uma solicitação e uma resposta, a latência é o tempo necessário para enviar a solicitação do usuário a um servidor e receber a resposta.
Exemplos de Duas vias de Latência
- O tempo que leva para abrir uma página no seu navegador, após clicar em um resultado de pesquisa de um motor de busca.
- o atraso entre dar um comando em seu jogo online favorito e executá-lo.
existem dois componentes que somamos para calcular a latência bidirecional-latência do cliente e latência do servidor.
- latência do cliente significa que o atraso na comunicação é devido ao usuário final. As razões para esse tipo de atraso podem ser uma conexão lenta, dispositivo antigo, Consulta/Solicitação complexa, etc.
- latência do servidor, o que significa que o atraso na comunicação é devido ao servidor.
em ambos os casos acima, a latência é medida em milissegundos e cada milissegundo é importante.
o cerne da questão é que a alta latência significa um grande problema para o seu negócio se não for controlada. Você deve descobrir o que afeta a latência e reduzir seu impacto em seu aplicativo.
Como Funciona A Latência?
agora que respondemos à pergunta: “O que significa latência?”e explicamos os dois tipos, vamos discutir como funciona e como afeta um usuário final.
considere um caso de uso simples: você deseja fazer login em um site. Você insere o nome de usuário e a senha. E então, você clica em” Login ” para entrar no painel do site.
o Que acontece a seguir é:
- O navegador responde ao clique e envia seu nome de usuário e senha para o servidor.
- o servidor reconhece a solicitação após receber pacotes de dados.
- o servidor compara as credenciais de entrada aos dados no banco de dados e aceita ou rejeita sua solicitação de login dependendo da correção.
- o navegador recebe a resposta do servidor.
- de acordo com a resposta, seu navegador o levará ao painel do site ou emitirá um erro/aviso, completando a ida e volta para o ciclo de latência.
qualquer atraso ou atraso neste processo de solicitação/resposta cria latência para o usuário.
quais são as causas da latência da rede?
a latência ocorre devido a quatro fatores principais no ciclo de solicitação/resposta:
propagação
a distância entre os nós é um grande fator na latência. As solicitações e respostas devem percorrer a distância física entre o dispositivo solicitante e o servidor. A computação de borda continua a crescer em popularidade para aplicativos críticos ao tempo que precisam de latência próxima de zero.
a computação de borda de baixa latência atinge tempos de resposta mais rápidos do que os servidores regulares na nuvem ou no local, porque essa tecnologia localiza servidores distribuídos próximos aos usuários.
meio de transmissão
dependendo do meio de transmissão de dados, a latência da sua rede será alta ou baixa. Por exemplo, os cabos de cobre transmitem os dados mais lentamente do que as fibras ópticas. Portanto, a latência em redes que usam fibra óptica será menor e melhor do que aquelas que usam cabos de cobre.
se seus usuários finais estiverem na internet, o meio para transmitir ou receber os dados será diferente do seu. Nesse caso, não estará sob seu controle.
roteadores
diferentes roteadores têm recursos diferentes, e a velocidade de transmissão de dados ou solicitação também varia. Para diminuir o efeito de latência no processamento de dados, você deve colocar ou usar roteadores mais poderosos na rede.
atrasos de armazenamento
carregar e baixar dados leva mais tempo do que um ping simples e rápido. Sua latência aumentará se você precisar executar operações relacionadas ao armazenamento, pesquisa e busca de dados. Páginas da web pesadas ou não otimizadas também causarão alta latência.
o que é uma boa latência?
fonte
o que é uma boa velocidade de ping ou latência? Boa velocidade de ping ou baixa latência difere para aplicativos de acordo com seu utilitário.
100 ms é um bom ping velocidade para VoIP, banda larga e serviços de streaming, mas jogo aplicações necessitam de latência extremamente baixa — 20-30ms. Para aplicações não-críticas, um bom ping velocidade pode ser de até 150 ms.
Ele também difere de tecnologia para tecnologia. Para redes 4G, 30ms a 100ms é uma boa latência.
por outro lado, uma boa latência 5G está entre 5s e 20s.
pense em um banco de dados de perfis e um jogo HD em tempo real. Qual você acha que deve ter menor latência em um teste de latência de rede?
o aplicativo de jogos, obviamente! Continue lendo para saber mais sobre latência em jogos.
Como Calcular ou Verificar a Latência de Rede
Você pode calcular a latência usando duas métricas: Tempo de ida e volta (RTT) ou Tempo até o Primeiro Byte (TTFB). RTT é a soma do tempo de solicitação do cliente e do tempo de resposta do servidor, enquanto TTFB indica a diferença no carimbo de data / hora da solicitação HTTP e no carimbo de data / hora quando o servidor enviou o primeiro byte em resposta.
três maneiras simples de verificar a latência da rede:
- Use o comando Ping.
- Usar o comando Tracert.
- Usar uma rede de monitoramento de latência ou de cálculo ferramenta como esta popular ferramenta de teste de desempenho para encontrar a latência.
as melhores práticas para monitorar e melhorar redes
latência por si só pode fazer ou quebrar o seu negócio. Os usuários esperam que sites e aplicativos respondam rapidamente. Se o seu site for lento, seus clientes não o usarão, portanto, realizar testes de atraso para calcular a latência aceitável é crucial.Aqui estão as melhores práticas para manter redes de baixa latência.
monitoramento ou teste
Use os comandos e ferramentas listados acima para monitorar a latência em sua rede.Como alternativa, você também pode configurar ferramentas de monitoramento de rede como Datadog, Zabbix e SolarWinds ou contratar profissionais de rede para acompanhar constantemente os problemas de latência e resolvê-los a tempo.
os usuários podem corrigir a latência no final?
a latência do cliente pode causar atraso na comunicação até certo ponto. Os usuários em conexões lentas ou com muitos cookies armazenados em um aplicativo em seu navegador podem tentar melhorar a qualidade da conexão ou limpar os dados do navegador.
jogos em nuvem e latência
pense em um aplicativo de jogos online que você possui. Se demorar um segundo completo para o seu jogo responder às solicitações ou comandos dos jogadores, quantos usuários o jogariam?
ninguém vai, mesmo que seu jogo seja único e emocionante.
os jogos são aplicativos críticos para o tempo – cada milissegundo conta. Seus usuários (jogadores) estarão presentes em países de todo o mundo, portanto, atendê-los em apenas alguns locais não é uma solução viável ou escalável. Os jogadores não se contentarão com um desempenho de jogo lento e pouca experiência do Usuário. Os serviços nativos da nuvem totalmente gerenciados permitem que você configure implantações no nível da cidade e seja onipresente globalmente. Também temos um extenso artigo sobre o que é jogos em nuvem.
quer saber como baixar o ping nos jogos e escolher o serviço de jogos em nuvem certo para suas necessidades? Saiba mais sobre o Ridge Cloud para jogos para tomar uma boa decisão.
latência de rede, largura de banda e taxa de transferência
já respondemos: “o que é latência na rede?”No entanto, para melhorar seu conhecimento de latência de rede, aqui está uma rápida visão geral de três termos inter-relacionados:
latência é o atraso ou atraso no recebimento de informações solicitadas ou reconhecimento do servidor após uma ação ou solicitação do Usuário.
a largura de banda é a largura do caminho no qual os pacotes de dados viajam em sua rede. A largura de banda e a latência são co-relacionadas porque a largura do caminho de transferência de dados afetará a velocidade e o atraso da comunicação.
taxa de transferência: a quantidade de dados transferidos em um determinado período.
Saiba como a Nuvem Distribuída da Ridge melhora a latência
para empresas, reduzir a latência é a maneira de melhorar a experiência do Usuário. Ao reduzir a latência ou o atraso, você pode melhorar a experiência do site para os usuários. Mas como? Ridge Cloud, implantando edge computing para seus servidores em todo o mundo, torna os dados prontamente disponíveis para seus usuários finais e processa solicitações de usuários a uma velocidade surpreendentemente rápida. A plataforma de computação localizada e distribuída da Ridge — construída pela Federação de data centers de todo o mundo — permite que os desenvolvedores implantem aplicativos sensíveis à latência, como jogos em nuvem, em qualquer local. Eles precisam apenas interagir por meio de uma única API para implantar aplicativos em qualquer local e reduzir a latência ao mínimo.
inicie sua avaliação gratuita do Ridge hoje e veja o que a edge computing pode fazer para reduzir sua latência e impressionar seus usuários.
Perguntas Frequentes
a alta latência é boa ou ruim?
uma rede com alta latência significa tempos de resposta lentos, dando uma experiência ruim ao usuário final, por isso é considerada ruim. Por exemplo, 200 ping (em milissegundos) são de alta latência e ruins para aplicativos críticos de tempo. 20-30ms (ou até 50ms) é baixa latência, por isso é considerado bom. O intervalo médio de latência para a maioria dos sites é entre 50 e 150 ms.
ping e latência são iguais?
latência unidirecional significa o atraso na transmissão de dados e seu recebimento no destino. Ping é o sinal (um pequeno pacote de dados) enviado para outro computador, geralmente para verificar a acessibilidade do computador de destino. Latência unidirecional e ping são os mesmos.
no entanto, a latência bidirecional requer o envio de uma solicitação ao servidor e o recebimento de uma resposta. Isso é diferente do ping.
como você obtém um ping zero?
Zero Ping (0 Ping) é o caso de uso teórico ideal. Isso implica que o computador/servidor destinatário recebe a solicitação do remetente o milissegundo que é enviado. No entanto, zero ping não é fisicamente possível devido à distância entre dispositivos, tráfego de rede e outros motivos. Em vez disso, você pode usar a computação de borda para obter latência hiper-baixa, o que significa tempos de resposta muito rápidos, na computação em nuvem.