Qu’est-ce que le retard ?
Le terme latence fait référence à plusieurs types de retards qui se produisent généralement lors du traitement des données réseau. Les connexions réseau à faible latence ont une latence faible, tandis que les connexions réseau à latence élevée ont une latence élevée.
Outre les délais de propagation, la latence peut également impliquer des délais de transmission (une propriété du support physique) et des délais de traitement (par exemple via des serveurs proxy ou des sauts de réseau sur Internet).
Latence et vitesse du réseau
Alors que la perception de la vitesse et des performances du réseau est souvent comprise comme la bande passante, la latence est un autre facteur clé. La personne moyenne est plus familière avec le concept de bande passante, car il s’agit d’une mesure couramment annoncée par les fabricants d’équipements de réseau. Pourtant, la latence est tout aussi importante pour l’expérience de l’utilisateur final. En termes d’argot, le terme décalage fait généralement référence à de mauvaises performances réseau.
John Lamb/Vision numérique/Getty Images
Latence et débit
Sur les connexions Internet DSL et par câble, une latence inférieure à 100 millisecondes (ms) est typique et peut souvent être inférieure à 25 millisecondes. D’autre part, avec une connexion Internet par satellite, la latence typique peut être de 500 ms ou plus.
Une latence excessive peut créer des goulots d’étranglement qui empêchent les données de remplir les canaux du réseau, réduisant le débit et limitant la bande passante efficace maximale d’une connexion. L’effet de la latence sur le débit du réseau peut être transitoire (pendant quelques secondes) ou persistant (constant), selon la source de la latence.
Alors que la bande passante maximale théorique d’une connexion réseau est fixée en fonction de la technologie utilisée, la quantité réelle de données circulant sur le réseau (appelée débit) varie dans le temps et est affectée par une latence plus ou moins élevée.
Latence du service Internet
Un service Internet évalué à 100 Mbps fonctionne nettement moins qu’un service évalué à 20 Mbps s’il fonctionne avec une latence élevée.
Le service Internet par satellite illustre la différence entre la latence et la bande passante sur un réseau informatique. Les satellites ont une bande passante élevée et une latence élevée. Par exemple, lors du chargement d’une page Web, la plupart des utilisateurs de satellites observent un délai notable entre la saisie de l’adresse et le début du chargement de la page.
Cette latence élevée est principalement due au délai de propagation du message de requête lorsqu’il se déplace à la vitesse de la lumière vers une station satellite distante et revient vers le réseau domestique. Cependant, une fois que le message atteint la Terre, la page se charge rapidement, tout comme sur d’autres connexions Internet à haut débit telles que l’Internet par câble et DSL.
Latence des logiciels et des appareils
La latence WAN se produit lorsque le réseau est tellement occupé à traiter le trafic que d’autres requêtes sont retardées car le matériel ne peut pas gérer tout le trafic à la vitesse maximale. Cela affecte également les réseaux câblés car l’ensemble du réseau fonctionne ensemble.
Un bogue ou un autre problème avec le matériel peut augmenter le temps nécessaire au matériel pour lire les données, ce qui est une autre cause de latence. Cela peut être le cas avec du matériel réseau ou du matériel de périphérique, tel que des disques durs lents qui prennent du temps pour stocker ou récupérer des données.
Les logiciels exécutés sur le système peuvent également entraîner des retards. Certains programmes antivirus analysent toutes les données entrant et sortant de votre ordinateur, c’est pourquoi certains ordinateurs protégés sont plus lents que leurs homologues informatiques. Les données analysées sont souvent déchirées et scannées avant d’être disponibles.
Mesurer la latence du réseau
Les outils réseau tels que les tests ping et traceroute mesurent la latence en déterminant combien de temps il faut à un paquet réseau donné pour voyager de la source à la destination et vice-versa, connu sous le nom de temps aller-retour. Le temps d’aller-retour est une mesure de la latence, et c’est le plus courant. Les fonctionnalités de qualité de service (QoS) pour les réseaux domestiques et professionnels sont conçues pour gérer la bande passante et la latence afin de fournir des performances plus cohérentes.
Merci de nous en informer!
Dites-nous pourquoi !
D’autres détails ne sont pas assez difficiles à comprendre