Accueil > Dossiers > Latence : qu’est-ce que c’est et comment la réduire ?
latence définition

Latence : qu’est-ce que c’est et comment la réduire ?

La latence d’un réseau est le temps nécessaire pour que les paquets de données soient transmis de l’émetteur au destinataire. Découvrez tout ce que vous devez savoir à ce sujet, et notamment les facteurs qui augmentent le temps de latence ainsi que les solutions pour le réduire.

La latence est une mesure de délai. Dans le domaine des réseaux, elle définit le temps nécessaire pour que des données parviennent à leur destination. En règle générale, on la mesure en fonction du temps nécessaire pour qu’un paquet de données soit transmis au destinataire et renvoyé à l’émetteur. Le temps nécessaire pour effectuer cet aller-retour est le temps de latence. Dans l’idéal, elle doit donc être aussi proche de 0 que possible. Plus elle est élevée, plus elle affecte les performances du réseau.

Quelles sont les causes de la latence ?

Plusieurs facteurs peuvent augmenter le temps de latence. Pour commencer, la propagation est le temps nécessaire pour qu’un paquet voyage d’un point à l’autre à la vitesse de la lumière. Cependant, un délai est ajouté en fonction du ” médium ” utilisé pour transférer les données : fibre optique, connexion sans fil…

En outre, la taille du paquet doit aussi être prise en compte. Un paquet plus large prend plus longtemps pour parvenir à sa destination et revenir. L’utilisation d’un routeur, ou toute autre passerelle réseau, ajoute un délai, car il lui faut du temps pour examiner voire modifier l’en-tête du paquet.

Par ailleurs, à chaque extrémité du réseau, le paquet peut être stocké ou accédé sur des disques durs ou autre support de stockage de données d’appareils intermédiaires tels que les commutateurs et les ponts, ce qui provoque encore un délai. Tous ces différents facteurs peuvent augmenter le temps de latence.

Comment réduire le temps de latence ?

latence réduire

Pour réduire le temps de latence, il est nécessaire d’apporter des optimisations et des améliorations matérielles, logicielles, et même mécaniques. Au sein d’un ordinateur, il est possible de supprimer ou de réduire la latence en employant diverses techniques.

Le prefetching consiste à anticiper les besoins liés aux requêtes d’entrées de données. Le multithreading consiste à utiliser le parallélisme sur de multiples threads d’exécution. Il est également possible de désinstaller les programmes inutiles, d’optimiser la configuration du réseau et d’améliorer le hardware.

Dans le cas d’un site web, il existe également plusieurs façons de réduire le temps de latence. L’utilisation du HTTP/2 permet de réduire la latence du serveur en minimisant le nombre d’aller-retour nécessaires entre l’émetteur et le récepteur par le biais de transferts parallélisés. Ceci permettra de charger les ressources web plus rapidement, afin d’améliorer le temps de chargement de la page.

Une autre astuce consiste à réduire le nombre de requêtes HTTP externes, à savoir les informations référencées depuis un serveur autre que le votre : images, fichiers CSS ou JS… en effet, ces requêtes externes peuvent fortement augmenter la latence d’un site web en fonction de la vitesse et de la qualité du serveur tiers.

Il est également possible d’utiliser un CDN (réseau de diffusion de contenu) afin de rapprocher les ressources de l’utilisateur. Ainsi, les requêtes de l’utilisateur doivent parcourir une distance moindre. De même, le ” Browser Caching “ permet d’effectuer localement un cache de certaines des ressources du site web pour réduire le nombre de requêtes renvoyées au serveur.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend