Latenza Significato
Cosa hanno in comune l’invio di lettere scritte a mano tramite posta ordinaria e lo scambio di messaggi istantanei WhatsApp?
In entrambi i casi, la velocità di una risposta influenza pesantemente la “user experience” del processo di comunicazione. Se la lettera o il testo viene consegnato rapidamente, sei felice. Ritardo insolito può causare frustrazione.
Se stai aspettando una risposta per posta o una risposta da un server, possiamo concludere che il tempo da richiesta a risposta dovrebbe essere il più rapido possibile. In termini di calcolo, questa durata di tempo è chiamata “latenza”. È un elemento critico nel decidere la qualità dell’esperienza utente di un’applicazione o di una rete. I siti Web lenti e” ad alta latenza ” causano frustrazione negli utenti.
Ora che hai un’idea approssimativa di cosa si intende per latenza, entriamo negli aspetti tecnici.
Che cos’è la latenza di rete?
Definizione di latenza di rete #1: Latenza unidirezionale
Per una semplice trasmissione di dati unidirezionale, la latenza è il tempo necessario per ricevere un pacchetto di dati dopo averlo inviato.
Esempi di latenza unidirezionale:
- Invia una e-mail. Verrà convertito in pacchetti, instradato dal server, inviato attraverso la rete e passato attraverso diversi dispositivi prima di raggiungere la destinazione. La durata di questo viaggio è la latenza.
- Una richiesta ping che dà 200 stato ping (HTTP OK successo)! (Implica che la tua richiesta è riuscita a raggiungere la destinazione.)
Latenza di rete Definizione #2: Latenza bidirezionale
Per le richieste utente che includono sia una richiesta che una risposta, la latenza è il tempo necessario per inviare la richiesta utente a un server e ricevere la risposta.
Esempi di latenza bidirezionale
- Il tempo necessario per aprire una pagina nel browser dopo aver fatto clic su un risultato di ricerca in un motore di ricerca.
- Il ritardo tra dare un comando nel tuo gioco online preferito e farlo eseguire.
Ci sono due componenti che aggiungiamo insieme per calcolare la latenza bidirezionale-Latenza client e Latenza server.
- Latenza client indica che il ritardo nella comunicazione è dovuto all’utente finale. I motivi di questo tipo di ritardo potrebbero essere una connessione lenta, un vecchio dispositivo, una query/richiesta complessa, ecc.
- Latenza del server, ovvero il ritardo nella comunicazione è dovuto al server.
In entrambi i casi precedenti, la latenza viene misurata in millisecondi e ogni millisecondo è importante.
Il nocciolo della questione è, alta latenza significa grossi problemi per il vostro business se lasciato incontrollato. È necessario scoprire che cosa influenza la latenza e ridurre il suo impatto sulla vostra applicazione.
Come funziona la latenza?
Ora che abbiamo risposto alla domanda, ” Cosa significa latenza?”e ha spiegato i due tipi, discutiamo come funziona e come influisce un utente finale.
Considera un semplice caso d’uso: vuoi accedere a un sito web. Inserisci il nome utente e la password. E poi, fai clic su “Accedi” per accedere alla dashboard del sito.
Quello che succede dopo è:
- Il browser risponde al clic e invia il nome utente e la password al server.
- Il server riconosce la richiesta dopo aver ricevuto pacchetti di dati.
- Il server confronta le credenziali di input con i dati nel database e accetta o rifiuta la richiesta di accesso in base alla correttezza.
- Il browser riceve la risposta del server.
- Come da risposta, il tuo browser ti porterà alla dashboard del sito o darà un errore/avviso, completando il round-trip per il ciclo di latenza.
Qualsiasi ritardo o ritardo in questo processo di richiesta / risposta crea latenza per l’utente.
Quali sono le cause della latenza di rete?
La latenza si verifica a causa di quattro fattori principali nel ciclo di richiesta/risposta:
Propagazione
La distanza tra i nodi è un fattore enorme di latenza. Le richieste e le risposte devono percorrere la distanza fisica tra il dispositivo richiedente e il server. Edge computing continua a crescere in popolarità per le applicazioni time-critical che hanno bisogno di latenza quasi zero.
L’edge computing a bassa latenza consente tempi di risposta più rapidi rispetto ai normali server cloud o on-premise, poiché questa tecnologia individua i server distribuiti in prossimità degli utenti.
Mezzo di trasmissione
A seconda del mezzo di trasmissione dati, la latenza della rete sarà alta o bassa. Ad esempio, i cavi in rame trasmettono i dati più lentamente rispetto alle fibre ottiche. Quindi, la latenza nelle reti che utilizzano fibre ottiche sarà inferiore e migliore di quelle che utilizzano cavi in rame.
Se i tuoi utenti finali sono su Internet, il loro mezzo per trasmettere o ricevere i dati sarà diverso dal tuo. In questo caso, non sarà nel vostro controllo.
Router
Diversi router hanno capacità diverse e anche la velocità di trasmissione dei dati o delle richieste varierà. Per ridurre l’effetto di latenza sull’elaborazione dei dati, è necessario posizionare o utilizzare router più potenti nella rete.
Ritardi di archiviazione
Il caricamento e il download dei dati richiede più tempo di un semplice ping rapido. La latenza aumenta se è necessario eseguire operazioni relative all’archiviazione, alla ricerca e al recupero dei dati. Anche le pagine Web pesanti o non ottimizzate causano un’elevata latenza.
Che cosa è una buona latenza?
Source
Che cos’è una buona velocità di ping o latenza? Buona velocità ping o bassa latenza differisce per le applicazioni secondo la loro utilità.
100 ms è una buona velocità di ping per VoIP, banda larga, e servizi di streaming, ma le applicazioni di gioco richiedono estremamente bassa latenza — 20-30ms. Per le applicazioni che non sono time-critical, una buona velocità di ping può essere fino a 150ms.
Si differenzia anche da tecnologia a tecnologia. Per le reti 4G, da 30 ms a 100 ms è una buona latenza.
D’altra parte, una buona latenza 5G è compresa tra 5s e 20s.
Pensa a un database di profili e un gioco HD in tempo reale. Quale pensi che dovrebbe avere una latenza inferiore in un test di latenza di rete?
L’applicazione di gioco, ovviamente! Continua a leggere per ulteriori informazioni sulla latenza nei giochi.
Come calcolare o controllare la latenza di rete
È possibile calcolare la latenza utilizzando due metriche: Round Trip Time (RTT) o Time to First Byte (TTFB). RTT è la somma del tempo di richiesta del client e del tempo di risposta del server, mentre TTFB indica la differenza tra il timestamp della richiesta HTTP e il timestamp quando il server ha inviato il primo byte in risposta.
Tre semplici modi per controllare la latenza di rete:
- Utilizzare il comando Ping.
- Utilizzare il comando Tracert.
- Utilizzare uno strumento di monitoraggio della rete o di calcolo della latenza come questo popolare strumento di test delle prestazioni per trovare la latenza.
Best practice per il monitoraggio e il miglioramento delle reti
La latenza da sola può creare o interrompere la tua attività. Gli utenti si aspettano che i siti Web e le applicazioni rispondano rapidamente. Se il tuo sito è lento, i tuoi clienti non lo useranno, quindi eseguire test di ritardo per calcolare la latenza accettabile è fondamentale.
Ecco le migliori pratiche per il mantenimento di reti a bassa latenza.
Monitoraggio o test
Utilizzare i comandi e gli strumenti sopra elencati per monitorare la latenza nella rete.
In alternativa, è anche possibile configurare strumenti di monitoraggio di rete come Datadog, Zabbix e SolarWinds o assumere professionisti della rete per tenere costantemente traccia dei problemi di latenza e risolverli in tempo.
Gli utenti possono correggere la latenza dalla loro parte?
La latenza del client può causare ritardi di comunicazione in una certa misura. Gli utenti con connessioni lente o con molti cookie memorizzati da un’applicazione sul proprio browser possono provare a migliorare la qualità della connessione o a cancellare i dati del browser.
Cloud Gaming e latenza
Pensate a un’applicazione di gioco online che si possiede. Se ci vuole un secondo intero per il tuo gioco per rispondere alle richieste o ai comandi dei giocatori, quanti utenti lo giocherebbero?
Nessuno lo farà, anche se il gioco è unico ed emozionante.
I giochi sono applicazioni time-critical-ogni millisecondo conta. I tuoi utenti (giocatori) saranno presenti in paesi di tutto il mondo, quindi servirli da poche posizioni non è una soluzione fattibile o scalabile. I giocatori non si accontenteranno di prestazioni di gioco lag e scarsa esperienza utente. I servizi cloud nativi completamente gestiti consentono di configurare distribuzioni a livello di città e di essere onnipresenti a livello globale. Abbiamo anche un ampio articolo su ciò che è il cloud gaming.
Ti chiedi come abbassare il ping nei giochi e scegliere il servizio di cloud gaming giusto per le tue esigenze? Scopri di più su Ridge Cloud per i giochi per prendere una buona decisione.
Latenza di rete, larghezza di banda e throughput
Abbiamo già risposto: “cos’è la latenza in rete?”Tuttavia, per migliorare la conoscenza della latenza di rete, ecco una rapida panoramica di tre termini correlati:
La latenza è il ritardo o il ritardo nella ricezione delle informazioni richieste o conferma dal server dopo un’azione o una richiesta dell’utente.
La larghezza di banda è la larghezza del percorso su cui viaggiano i pacchetti di dati nella rete. Larghezza di banda e latenza sono co-correlati perché la larghezza del percorso di trasferimento dei dati influenzerà la velocità di comunicazione e ritardo.
Throughput: la quantità di dati trasferiti in un determinato periodo.
Scopri come il cloud distribuito di Ridge migliora la latenza
Per le aziende, ridurre la latenza è il modo per migliorare l’esperienza utente. Riducendo la latenza o il ritardo, è possibile migliorare l’esperienza del sito per gli utenti. Ma come?
Ridge Cloud, implementando l’edge computing per i suoi server in tutto il mondo, rende i dati prontamente disponibili per gli utenti finali ed elabora le richieste degli utenti a una velocità sorprendentemente veloce. La piattaforma di calcolo localizzato e distribuito di Ridge, creata federando data center di tutto il mondo, consente agli sviluppatori di distribuire applicazioni sensibili alla latenza, come il cloud gaming, in qualsiasi luogo. Devono solo interagire tramite una singola API per distribuire le applicazioni in qualsiasi posizione e ridurre al minimo la latenza.
Inizia oggi la tua prova gratuita di Ridge e scopri cosa può fare l’edge computing per ridurre la latenza e impressionare i tuoi utenti.
Domande frequenti
L’alta latenza è buona o cattiva?
Una rete con alta latenza significa tempi di risposta lenti, dando una cattiva esperienza utente ai suoi utenti finali, quindi è considerata cattiva. Ad esempio, 200 ping (in millisecondi) sono ad alta latenza e dannosi per le applicazioni time-critical. 20-30 ms (o fino a 50 ms) è bassa latenza, quindi è considerato buono. L’intervallo di latenza medio per la maggior parte dei siti è compreso tra 50 e 150 ms.
Ping e latenza sono uguali?
Latenza unidirezionale indica il ritardo nella trasmissione dei dati e la loro ricezione sulla destinazione. Ping è il segnale (un piccolo pacchetto di dati) inviato a un altro computer, generalmente per verificare la raggiungibilità del computer di destinazione. Latenza unidirezionale e ping sono gli stessi.
Tuttavia, la latenza bidirezionale richiede l’invio di una richiesta al server e la ricezione di una risposta. Questo è diverso da ping.
Come si ottiene un ping zero?
Zero Ping (0 Ping) è il caso d’uso teorico ideale. Implica che il computer/server destinatario riceva la richiesta del mittente il millisecondo che viene inviato. Tuttavia, zero ping non è fisicamente possibile a causa della distanza tra i dispositivi, il traffico di rete e altri motivi. Quindi, invece, è possibile utilizzare l’edge computing per ottenere una latenza iper-bassa, ovvero tempi di risposta molto rapidi, nel cloud computing.