Cos’è la latenza?

La parola latenza viene dalla lingua inglese e significa ritardo. Nelle reti di dati e nelle telecomunicazioni, si riferisce al ritardo nella trasmissione dei dati tra il mittente e il ricevitore.

In senso letterale, latenza significa nascondere o nascondere. In generale, la latenza si riferisce al tempo che intercorre tra uno stimolo e la reazione risultante in vari ambiti della vita. Nel campo della tecnologia, e specialmente nella tecnologia di rete, la latenza si riferisce al tempo di esecuzione del segnale.

Il tempo necessario ai dati per essere trasmessi dalla fonte (trasmettitore) alla destinazione (ricevitore) si misura in millisecondi. Insieme al tasso di errore che si verifica durante la trasmissione dei dati e la larghezza di banda, la latenza (anche: tempo di ritardo) è uno dei criteri centrali per determinare la qualità della trasmissione dei dati o la qualità della connessione di rete.

La latenza è classicamente usata, per esempio, per determinare il tempo di ping. Il tempo di ping (packet turnaround time) è composto dai tempi di latenza che un pacchetto di dati richiede nel tragitto da e verso il mittente al ricevitore e viceversa.

Ecco come si compone la latenza nella trasmissione di dati a pacchetti

I pacchetti di dati sono la carica fondamentale della comunicazione moderna. Sia nelle reti internet cablate che in quelle mobili, la latenza gioca quindi un ruolo decisivo. In linea di principio, più una trasmissione di dati è critica dal punto di vista del tempo, più bassa dovrebbe essere la latenza.

Mentre il ritardo non gioca un ruolo nella trasmissione di una e-mail, è tanto più importante nelle applicazioni in tempo reale come i videogiochi, le conferenze web o la tecnologia dei sensori nella guida autonoma. Fondamentalmente, la latenza è composta da diversi tempi di latenza o fattori di influenza. Questi includono:

  • Quali proprietà ha il protocollo di trasmissione?
  • Ci sono code sulle singole sezioni della rete?
  • Quale tempo di propagazione hanno i segnali sul mezzo di trasmissione?
  • Il pacchetto dati è limitato nel suo percorso da una certa larghezza di banda?
  • Quanto velocemente i componenti di rete coinvolti elaborano i pacchetti trasmessi?

Come ridurre la latenza

La latenza più bassa possibile è essenziale per le applicazioni in tempo reale del presente e del futuro. L'obiettivo deve quindi essere quello di ridurre la latenza. Il modo più efficace per ridurre la latenza è accorciare la distanza tra trasmettitore e ricevitore. Per questa cosiddetta bassa latenza, l'invio di dati in mezzo mondo dovrebbe essere evitato a meno che non sia necessario.

Impostare server farm vicine al mittente e al destinatario è quindi una chiave per la bassa latenza. A questo si aggiunge l'espansione della rete in fibra ottica. Dopo tutto, la trasmissione lì raggiunge una velocità di due terzi della velocità della luce, che corrisponde a circa 200 chilometri al millisecondo. Per ottenere una latenza di circa 1 ms, la distanza tra l'utente e la server farm non deve superare i 100 km (almeno in teoria).


Lascia un commento