Bonjour,
J'effectue des mesures IP SLA en UDP-Jitter afin de générer un flux UDP sur le réseau.
Paramétrage IP SLA:
Interval : 10 ms . Je devrais donc envoyer 100 paquets par seconde (1000 / 10)
Request-data-size: 500. J'ajoute 8 octets d'entête UDP + 20 octets d'entête IP + 14 octets d'entête Ethernet. Au total, chaque paquet doit donc faire 542 octets en sortie de switch.
Le calcul théorique du débit pendant l'envoi IP SLA doit donc être : 100 x 542 = 54200 octets/s, soit 433 600 bits/s.
Pour vérifier ce calcul, j'ai capturé le flux grâce à Wireshark.
Je filtre ensuite pour ne conserver que les paquets IP SLA en sortie du switch. Je retrouve bien chaque paquet d'une taille unitaire de 542 octets avec un payload à 500 octets : jusqu'ici, tout est cohérent.
Avec une mise en forme de type I/O graph, j'obtiens un débit réel de 542 000 b/s. Il y a donc un delta.
I/O graph indique que ce ne sont pas 100 paquets/s qui sont envoyés, mais 125.
Effectivement, si on reprend le calcul avec 125 : 125 x 542 x 8 = 542 000 b/s
Je ne comprends pas d'où vient cette différence de 25% de paquets émis par seconde.
J'ajoute que le débit indiqué par Wireshark est exact puisque mon interface de pare-feu situé juste après le switch, m'indique elle aussi un débit de 540 Kb/s environ pour le trafic entrant.
J'ai effectué d'autres tests en changeant le paramètre "interval" dans ma configuration IP SLA:
interval = 20 ms (donc 50 paquets/s en théorie), Wireshark indique 63 paquets/s
interval = 5 ms (donc 200 paquets/s en théorie), Wireshark indique 250 paquets/s
On remarque donc que cette différence de 25% est constante.
Auriez-vous une explication ?
Merci.