La gigue est la variation de latence, ou différence de délai de transmission, entre des paquets transmis entre deux systèmes d’un réseau informatique. Découvrez la définition technique de ce terme, ses conséquences, ainsi que des solutions pour remédier à ce problème.
Le terme de gigue s’emploie dans le domaine des réseaux informatiques. Voici sa définition. Il désigne la différence de délai de transmission de bout en bout entre différents paquets d’un même flux de paquets lors d’une transmission d’un système à l’autre.
C’est à dire qu’un paquet prend plus de temps qu’un autre à voyager entre les deux systèmes. Pour exprimer cette notion, on peut aussi parler de variation de latence. La gigue découle de plusieurs causes. Elle peut apparaître en cas de congestion du réseau, de dérive du timing ou de changement de routage.
En électronique, ce phénomène est du à la fluctuation d’un signal. Celle-ci peut-être causée par une interférence électromagnétique.
Pourquoi la gigue informatique est-elle un problème ?
Cet effet est particulièrement problématique dans le cas des communications en temps réel, comme la téléphonie par voix sur IP ou la vidéo-conférence et autres services temps réel. Ce n’est toutefois pas le cas pour le streaming. En effet, les vidéos sont déjà enregistrées et le lecteur met en cache le contenu avant de le lire.
Si la gigue est élevée (forte variation de latence), les paquets arriveront tous en même temps à certains moments, tandis qu’à d’autres moments aucun paquet n’arrivera. Dans le cas d’une d’une conférence téléphonique, par exemple, les paquets sont les paroles de l’interlocuteur. Lorsque la latence augmente, les paroles n’arrivent plus et le flux s’en trouve décalé.
Lorsque la latence devient plus faible, les paroles en cours d’acheminement arrivent toutes en même temps au destinataire et le résultat est inaudible. Des morceaux de phrase sont perdus. Elle pose aussi problème dans le cas des serveurs hébergés et autres VDI (Virtual Desktop Infrastructure) pour les mêmes raisons.
Comment mesurer la gigue ?
Pour mesurer ce phénomène, on peut par exemple se baser sur les paquets dont le délai de transmission au cours d’un certain laps de temps a le plus varié. On mesure le délai de transmission entre le départ du début du paquet à la source, et l’arrivée de la fin du paquet à destination.
Dans le cas de variation instantanée dans le délai des paquets (différence de délai entre paquets successifs), la RFC 3393 indique comment mesurer la gigue. Par exemple, si les paquets sont émis toutes les 10 ms, mais que le second paquet est reçu 20 ms après le premier, la gigue instantanée est de -10 ms. On parle alors de » dispersion « . Au contraire, si le second paquet est reçu 5 ms après le premier, la gigue instantanée équivaut à un délai de +5 ms. On parle alors » d’agglutination « .
Comment limiter ce phénomène ?
Pour limiter ce phénomène, dans le cas des flux multimédias, on peut utiliser un » jitter buffer » (tampon de gigue) sur un routeur du réseau ou sur un ordinateur au niveau du récepteur. Il s’agit d’une zone au sein de laquelle l’on collecte, stock et envoie les paquets vers le processeur de voix à des intervalles espacés de façon égale.
Ainsi, l’application consommant les paquets du réseau les reçoit depuis le buffer. La variation de latence s’en trouve atténuée. On distingue deux types de tampons de gigue : statique et dynamique. Un tampon statique se base sur le hardware. Le fabricant le configure. Un tampon dynamique est basé logiciel et peut être configuré par l’administrateur réseau. Il s’agit de s’adapter aux changements de délais du réseau. Une autre solution pour limiter la gigue consiste à router le trafic en sélectionnant les itinéraires les plus stables.
- Partager l'article :