annuler
Affichage des résultats de 
Rechercher plutôt 
Vouliez-vous dire : 
cancel
1127
Visites
1
Compliment
0
Commentaires
M02@rt37
VIP
VIP

OBJECTIFS DE LA QUALITE DE SERVICE

Sans mise en place de fonctionnalités de priorisation des flux, les équipements actifs réseaux (EAR) pratiquent la "neutralité des flux" ; c'est-à-dire qu'ils ne donnent aucune priorité aux flux qui circulent. Ces flux entrent donc dans les EAR et y sont traités à la volée. Une file d'attente est associée à chacun des ports des EAR et le principe du "premier arrivé, premier sorti" (FIFO) est appliqué en cas de concurrence d'accès au port de sortie. En conséquence, l’utilisateur constate une dégradation des performances du réseau.

La notion de qualité de service introduit la possibilité de partager le plus équitablement possible une ressource. Elle introduit également la possibilité de déterminer différents niveaux de service en fonction de la nature de ce flux (une visioconférence, un transfert de fichier etc…).

 


POURQUOI APPLIQUER DE LA QOS ?

- Manque de bande passante,
- Problème de délais :
o Délais variable
o Jitter (gigue)
- Perte de paquets.

 


AMELIORER LES PERFORMANCES DU RESEAU

Le moyen le plus rudimentaire d’améliorer la qualité du service rendu par notre réseau est de définir manuellement, et sur tous vos routeurs, des priorités. Cette approche consiste surtout à améliorer les performances du réseau en favorisant des applications au détriment d’autres. La qualité est améliorée, mais non garantie.

Prenons le cas d’une liaison WAN qui doit véhiculer des connexions Telnet et des transferts de fichiers FTP.

M02rt37_0-1696844500750.png

Les temps de réponse Telnet se dégradent dès qu’un transfert FTP est lancé. Aucune qualité de service n’étant gérée, la bande passante du réseau est, en effet, accaparée par celui qui en consomme le plus, cela bien sûr au détriment des autres.
Afin d’éviter que les applications Telnet ne soient « gênées » par un transfert de fichiers, le moyen le plus simple est de définir des priorités sur la base des ports TCP qui identifient les applications (23 pour Telnet et 20 pour le canal de données FTP). En classant les paquets Telnet en priorité haute, les paquets IP comportant le port TCP 23 seront placés dans la file d’attente à priorité haute, tandis que les paquets FTP seront stockés dans la file d’attente à priorité basse. Nos routeurs, qui sont de marque Cisco, gèrent ainsi quatre files d’attente correspondant à quatre priorités : haute, moyenne, normale et basse (high, medium, normal, low).

M02rt37_1-1696844584859.png

 


LE RÔLE DES FILES D’ATTENTE « QUEUING »

Lorsqu’il arrive plus de paquets qu’il n’en sort du routeur, celui-ci les garde en mémoire en attendant que les plus anciens soient envoyés. Si d’autres paquets continuent d’arriver, la file d’attente se sature. Le débordement de la file d’attente se traduit par le rejet des paquets continuant d’arriver (le routeur les ignore).

Un algorithme de traitement des files a donc deux rôles essentiels :
- traiter en priorité tel ou tel paquet en cas de congestion,
- rejeter en priorité tel ou tel paquet en cas de saturation du lien réseau.

 


ALGORITHMES DE PREVENTION DE MISE EN QUEUE

Le principe de l’algorithme RED (Random Early Detection) consiste à prévenir les congestions. Lorsque la file d’attente commence à être saturée, des paquets correspondant à des flux sélectionnés aléatoirement sont rejetés. Les variantes WRED (Weighted RED) et ERED (Enhanced RED) permettent de sélectionner les flux, en fonction de priorités qui déterminent le rejet des paquets.
Le traffic shaping repose sur l’algorithme du leaky-bucket (littéralement le seau percé), dont le principe est de lisser un flux en configurant la bande passante en sortie (débit stable en sortie).
Pour ce faire, les pics de trafic sont temporisés dans la file d’attente avant d’être retransmis. Le policing repose, quant à lui, sur l’algorithme du token-bucket, qui consiste à écrêter le trafic dépassant un certain seuil : le trafic en débordement est ignoré.


ALGORITHMES DE GESTION DE MISE EN QUEUE

Règles de mise en queue en cas de congestion :
- FIFO : First IN First OUT = C’est le mode le plus simple configuré par défaut et qui consiste à traiter les paquets dans leur ordre d’arrivée. C’est celui qui consomme le moins de CPU et qui engendre le moins de latence pour les paquets.
- WFQ : Weighted Fair Queue = Les données envoyées qui ont une grande bande passante ont une priorité inférieure à ceux ayant une bande passante moindre. (Méthode par défaut sur les cartes sérials sur CISCO)
- CB-WFQ : Class-based Weighted Fair Queue = On garantit une bande passante pour telle ou telles donnée. Par exemple : 20% pour les données flux WEB, 50% pour les flux DNS, et le restant 30%
- LLQ : Low Latency Queuing  PQ-CB-WFQ Priority Queuing CB-WFQ = Idem que CBWFQ mais en ajoutant la notion de priorité à la mise en queue.

 


QUELLE FILE D’ATTENTE CHOISIR POUR SON RESEAU

Chacune des fonctions qui viennent d’être décrites présente des avantages et des inconvénients. Le problème est alors de savoir dans quelle situation et à quel endroit du réseau utiliser l’une ou l’autre de ces fonctionnalités. Une file d’attente FIFO ne permet pas de gérer des situations de congestion. En conséquence, une file d’attente de ce type ne peut être utilisée qu’avec des réseaux non saturés et offrant suffisamment de débit par rapport au trafic.

La file d’attente WFQ identifie chaque flux, et traite tous les paquets d’un même flux de la même manière. En cas de congestion, l’algorithme traite équitablement tous les flux en privilégiant ceux à faible volume, mais pas au détriment de ceux à fort volume. Bien qu’efficient, cet algorithme complexe consomme de la ressource CPU, ce qui le destine plutôt à des liens à bas et moyens débits. Du fait qu’il prend en compte les priorités indiquées dans les paquets, on activera cet algorithme au sein du réseau et non dans sa périphérie.

L’affectation de priorités sur les files d’attente consiste en une programmation arbitraire, statique, et qui ne distingue qu’individuellement les types de paquets. Lorsqu’une congestion survient, les paquets prioritaires sont traités tant qu’il y en a dans la file d’attente correspondante. L’effet de bord qui en résulte est que les autres paquets restent bloqués dans la file d’attente, ce qui peut entraîner un ralentissement conséquent, voire une coupure des sessions correspondantes à ces paquets non prioritaires. C’est néanmoins la méthode d’affectation de priorité qui utilise le moins de CPU, car l’algorithme est simple. L’utilisation de cette fonction sera donc limitée à des liens à bas débit sur lesquels le trafic est bien identifié.

L’algorithme de mise en queue « WRED » permet de prévenir les congestions en rejetant aléatoirement des paquets. À partir d’un certain seuil, le taux de rejet de paquets augmente à mesure que la file d’attente se remplit. Cet algorithme est de ce fait particulièrement bien adapté au protocole TCP qui est prévu pour réduire sa fenêtre d’émission en cas de perte de paquet. Le WRED se configure dans une Class Based WFQ « CB-WFQ ».

[…….]
policy-map MA-POLICY
class VOICE
bandwidth percent 33
class class-default
#####Enable WFQ #####
fair-queue
##### Enable WRED #####
random-detect
[…….]


Enfin, le traffic shaping et le policing sont des mécanismes qui permettent de réguler le trafic et de fixer un débit à chaque type de flux. Ils sont donc bien adaptés aux routeurs situés en bordure du réseau, c’est-à-dire sur les réseaux locaux, là où utilisateurs et serveurs émettent leurs données.

[…….]
policy-map MA-POLICY
class SC0
bandwidth 3000
##### Enable policing #####
police rate 3000000
class class-default
##### Enable shaping#####
shape average 30000000
[…….]


RESUME DES FILES D’ATTENTE

M02rt37_2-1696844920869.png

 


METHODES APPLIQUEES EN INPUT D’UN EAR

- Classification, basée sur les Access-list,
- Marking, marquage champs DSCP,
- Policing, lissage du débit entrant.

 


METHODES APPLIQUEES EN OUTPUT D’UN EAR

- Congestion management, quand il y aura de la bande passante disponible qui passera le premier ?
- Congestion avoidance, drop des paquets non-essentiels,
- Marking, marquage champs DSCP,
- Policing, lissage du débit sortant,
- Shaping, configuration de la Bp en sortie,
- LFI*, basé sur la compression pour palier à un manque de Bp ou à un lien réseau très lent.

*LFI = Link Fragmentation & Intervealing, fragmente les paquets voix et les insère entres les paquets datas.

 


LES MECANISMES LIES A LA QOS

- BE, Best Effort = tous les paquets sont traités de la même manière
- INTSERV = basé sur le protocole RSVP Ressource RéserVation Protocol (interactivité du réseau)
- DIFFSERV = marquage du champ DSCP (QOS à la main de l’administrateur) pour chaque paquet IP.


CHAMP DSCP -- RFC 2474

M02rt37_3-1696845085258.png

Situé dans l’en-tête du paquet IP, le champ DSCP est codé sur 8 bits :
- 2 bits non utilisé [ECN : Explicit congestion notification]
- 6 bits pour le champ champs DSCP


Visualisation sur Wireshark du champ DSCP :
Le paquet IP analysé a son champ DSCP renseigné avec une valeur Hexadécimal de 14 (0x14), soit en binaire 00010100 dont les 6 bits de gauche correspondent au code DSCP 00101 soit (5)d.

M02rt37_4-1696845137754.png

 

 

TABLEAU VALEUR CHAMP DSCP

 

M02rt37_5-1696845222390.png

Le champ DSCP permet de définir 64 codepoints [0 à 63]. Un codepoint permet de sélectionner une classe de service de type PHB (Per-Hop Behavior) à appliquer au paquet, c’est-à-dire la manière de traiter le paquet au sein de chaque routeur.
Les 8 classes de service sont définies par les 3 premiers bits du champ DSCP (sélecteur de classe) qui reprend le principe du champ « IP Precedence ». La plus prioritaire est CS7, et la moins prioritaire CS0.

Dans chaque classe de type Assured Forwarding, le PHB AFx1 est davantage prioritaire que AFx2 qui lui-même l’est plus que AFx3.

 

 

TYPES DE PHB DEFINIS

- AF - Assured Forwarding, pour les flux nécessitant une bande passante limitée, le trafic en excès pouvant être rejeté progressivement selon un mécanisme de priorité à 12 niveaux (4 classes × 3 priorités de rejet).
- EF - Expedited Forwarding, également appelé “ Premium service ” (DCSP = 101110), pour les flux requérant une bande passante garantie avec des faibles taux de perte, de gigue et de latence.
- CS - Class Selector, qui assure la compatibilité avec le champ IP Precedence :
o CS0=routine,
o CS1=priority,
o CS2=immediate,
o CS3=flash,
o CS4=Flash override,
o CS5=Critical,
o CS6=Internetwork control,
o CS7=Network control.

 

 

CLASSIFICATION DES FLUX

Bien qu’il n’y ait pas de standardisation en la matière, la classification des flux généralement admise est la suivante :

M02rt37_6-1696845312386.png

 

 

LA QUALITÉ DE SERVICE SUR ETHERNET (IEEE 802.1P)

La norme initiale 802.1q consiste à ajouter un champ à l’en-tête de la trame Ethernet initiale (802.3) à la fois pour gérer les VLAN et des classes de service (802.1p).


COS niveau 2 => Class Of Service sur un switch
Le champ TAG (4 octets) de la trame est composé du champ TPID (2 octets) et TCI (2 octets).

M02rt37_7-1696845362112.png

Dans le TPID on aura le Tag Type = 802.1Q
Dans le TCI on retrouve :
- La Priorité sur 3 bits => Marque du COS (0 à 7)
- Le CFI sur 1 bit => Valeur stipulant si on est en Token Ring ou Ethernet
- Le VLAN ID sur 12 bits (4094 VLANs)

a valeur COS sera donc marquée sur les trames « taguées ».
La commande sur un switch #show mls qos maps permet de voir la correspondance entre le champs COS et DSCP.

M02rt37_8-1696845428061.png


Cette valeur COS permet en cas de switch congestionné de pouvoir assurer des règles de priorisation au niveau 2. Pour la téléphonie sur IP ceci est très utile. Le téléphone IP est taguée dans un vlan voice. Sa trame sera donc marquée dans le champs COS de manière telle que la trame se distingue des trames data. Valeurs champs COS (standard 802.1p) est composé de 8 priorités (de 0 à 7) avec 7 comme la priorité la plus haute. On retrouvve la data à 0, la signalisation en 3 et le RTP en valeur 5.

 

 

M02rt37_9-1696845465253.png

 

Mise en Route
Bienvenue dans la Communauté !

La communauté est un hub pour vous connecter avec vos pairs et les spécialistes Cisco, pour demander de l'aide, partager votre expertise, développer votre réseau et évoluer professionnellement.
Vous êtes un nouvel arrivant ? Cliquez ici pour en savoir plus.

Nous voulons que votre navigation soit la meilleure, donc vous trouverez des liens pour vous aider à être rapidement familiarisé avec la Communauté Cisco :