Dans le cadre de la documentation associée à ce produit, nous nous efforçons d’utiliser un langage exempt de préjugés. Dans cet ensemble de documents, le langage exempt de discrimination renvoie à une langue qui exclut la discrimination en fonction de l’âge, des handicaps, du genre, de l’appartenance raciale de l’identité ethnique, de l’orientation sexuelle, de la situation socio-économique et de l’intersectionnalité. Des exceptions peuvent s’appliquer dans les documents si le langage est codé en dur dans les interfaces utilisateurs du produit logiciel, si le langage utilisé est basé sur la documentation RFP ou si le langage utilisé provient d’un produit tiers référencé. Découvrez comment Cisco utilise le langage inclusif.
Cisco a traduit ce document en traduction automatisée vérifiée par une personne dans le cadre d’un service mondial permettant à nos utilisateurs d’obtenir le contenu d’assistance dans leur propre langue. Il convient cependant de noter que même la meilleure traduction automatisée ne sera pas aussi précise que celle fournie par un traducteur professionnel.
Ce document décrit la structure de file d'attente et les mémoires tampon sur la plate-forme Catalyst 3650/3850 et fournit des exemples sur la façon dont les pertes de sortie sont atténuées.
Cisco recommande que vous ayez des connaissances de base sur la qualité de service (QoS) sur la plate-forme Catalyst.
Les informations contenues dans ce document sont basées sur les versions de matériel et de logiciel suivantes :
Remarque : les modifications apportées aux commandes CLI QoS 16.x.x et ultérieures sont documentées dans ce guide Dépannage des pertes de sortie sur les commutateurs Catalyst 9000. Ce document est de la gamme Catalyst 9000, mais il partage le même ASIC que le 3850. Utilisez ce guide pour 3850 sur les versions 16.x.x ou ultérieures de Cisco IOS® XE.
The information in this document was created from the devices in a specific lab environment. All of the devices used in this document started with a cleared (default) configuration. Si votre réseau est en ligne, assurez-vous de bien comprendre l’incidence possible des commandes.
Les pertes de sortie sont généralement le résultat d'une sursouscription de l'interface causée par un transfert de plusieurs à un ou d'un transfert de 10 gig à 1 gig. Les tampons d'interface constituent une ressource limitée et ne peuvent absorber une rafale que jusqu'à un point après lequel les paquets peuvent être abandonnés. Vous pouvez obtenir un certain coussin si vous réglez les tampons, mais il ne peut pas garantir un scénario de chute de sortie nulle.
Il est recommandé d'exécuter la dernière version de 03.06 ou 03.07 pour obtenir les allocations de tampon appropriées en raison de certains bogues connus dans les anciens codes.
Traditionnellement, les tampons sont alloués de manière statique pour chaque file d'attente, et à mesure que vous augmentez le nombre de files d'attente, le nombre de tampons réservés diminue. Cette méthode est inefficace et peut réduire le nombre de mémoires tampon nécessaires pour gérer les trames de toutes les files d’attente. Pour contourner ce type de limitation, la plate-forme Catalyst 3650/3850 utilise des tampons durs et des tampons logiciels.
Allocation de mémoire tampon par défaut sans stratégie de service appliquée
L'allocation de mémoire tampon par défaut pour un port de 1 Go est de 300 tampons et pour un port de 10 Go, elle est de 1 800 tampons (1 tampon = 256 octets). Le port peut utiliser jusqu'à 400 % de la valeur par défaut allouée à partir du pool commun avec des paramètres par défaut, soit 1 200 tampons et 7 200 tampons pour une interface 1 Gig et une interface 10 Gig respectivement.
La limite de mémoire tampon logicielle par défaut est définie sur 400 (ce qui correspond au seuil maximal). Le seuil détermine le nombre maximal de mémoires tampon souples pouvant être empruntées au pool commun.
Lorsqu'aucune stratégie de service n'est appliquée, il y a 2 files d'attente par défaut (file 0 et file 1). La file d'attente-0 est utilisée pour le trafic de contrôle (DSCP 32 ou 48 ou 56) et la file d'attente-1 pour le trafic de données.
Par défaut, la file d'attente 0 peut recevoir 40 % des mémoires tampon disponibles pour l'interface en tant que ses mémoires tampon dures. Autrement dit, 120 tampons sont alloués à la file d'attente 0 dans le contexte des ports 1G ; 720 tampons dans le contexte des ports 10G. Le Softmax, les mémoires tampons logicielles maximales, pour cette file d'attente est défini sur 480 (calculé comme 400 % de 120) pour les ports de 1 Go et 2880 pour les ports de 10 Go, où 400 est le seuil maximum par défaut configuré pour n'importe quelle file d'attente.
Aucune mémoire tampon n'est allouée à la file d'attente 1. La valeur de la mémoire tampon souple pour la file d'attente-1 est calculée comme étant égale à 400 % de la mémoire tampon de l'interface qui reste après avoir été allouée à la file d'attente-0. Il s'agit donc de 400 % de 180 pour une interface 1Gig et de 400 % de 1800 pour une interface 10Gig.
La show commande qui peut être utilisée pour afficher cette allocation est
show platform qos queue config <interface>.
Pour une interface 1Gig :
3850#show platform qos queue config gigabitEthernet 1/0/1 DATA Port:20 GPN:66 AFD:Disabled QoSMap:0 HW Queues: 160 - 167 DrainFast:Disabled PortSoftStart:1 - 1080 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 5 120 6 480 6 320 0 0 3 1440 1 1 4 0 7 720 3 480 2 180 3 1440 2 1 4 0 5 0 5 0 0 0 3 1440 3 1 4 0 5 0 5 0 0 0 3 1440 4 1 4 0 5 0 5 0 0 0 3 1440 5 1 4 0 5 0 5 0 0 0 3 1440 6 1 4 0 5 0 5 0 0 0 3 1440 7 1 4 0 5 0 5 0 0 0 3 1440 <<output omitted>>
Pour une interface 10Gig :
3850#show platform qos queue config tenGigabitEthernet 1/0/37 DATA Port:1 GPN:37 AFD:Disabled QoSMap:0 HW Queues: 8 - 15 DrainFast:Disabled PortSoftStart:2 - 6480 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 6 720 8 2880 7 1280 0 0 4 8640 1 1 4 0 9 4320 8 1920 3 1080 4 8640 2 1 4 0 5 0 5 0 0 0 4 8640 3 1 4 0 5 0 5 0 0 0 4 8640 4 1 4 0 5 0 5 0 0 0 4 8640
<<output omitted>>
Hardmax ou Hard Buffers est la quantité de mémoire tampon qui est toujours réservée et disponible pour cette file d'attente.
Softmax ou Soft Buffers est la quantité de tampon qui peut être empruntée à d'autres files d'attente ou pool global. Le nombre total de Softmax par interface 1Gig est de 1200 (400% de 300) et 7200 tampons s'il s'agit d'une interface 10Gig. Lorsque nous appliquons une politique de service, il peut y avoir 1 file d'attente supplémentaire créée pour "Class default" si elle n'est pas explicitement créée. Tout le trafic qui ne correspond pas dans les classes précédemment définies tombe dans cette file d'attente. Il ne peut y avoir aucune instruction de correspondance dans cette file d'attente.
Affectation de tampon de réglage
Afin de modifier les tampons dans la plate-forme 3650/3850, associez une politique de service sous l'interface respective. Vous pouvez modifier l'allocation de mémoire tampon Hardmax et Softmax avec la politique de service.
Calculs de tampon dur et de tampon logiciel
Voici comment le système alloue Hardmax et Softmax pour chaque file d'attente :
Mémoire tampon totale du port = 300 (1G) ou 1800 (10G)
S'il y a un total de 5 files d'attente (5 classes), chaque file d'attente obtient 20 % de mémoire tampon par défaut.
File d’attente prioritaire
1 Gig :
HardMax = Oper_Buff = 20 % de 300 = 60.
qSoftMax = (Oper_Buff * Max_Threshold)/100=60*400/100=240
10 Gig
HardMax = Oper_Buff = 20 % de 1800 = 360
qsoftMax = (Oper_Buff * Max_Threshold)/100 = 360*400/100= 1440
File d'attente non prioritaire
1 Gig :
HardMax = 0
qSoftMax = (Oper_Buffer*Max_Threshold)/100 = 300*20/100= 60. 400 % de 60 = 240
10 Gig :
HardMax = 0
qSoftMax = (Oper_Buffer*Max_Threshold)/100 = 1 800*20/100= 360. 400 % de 360 = 1 440
Utiliser la politique de service pour l'allocation de tampon Hardmax ou Softmax
si une politique de service est appliquée, seule la "file d'attente de priorité de niveau 1/2" obtient le Hardmax. Les exemples suivants peuvent aider à clarifier l'allocation de mémoire tampon pour une politique de service spécifique dans une interface 1Gig et une interface 10Gig. Avec la configuration par défaut qui n'a pas de stratégie de service appliquée, la file d'attente-0 obtient la valeur Hardmax par défaut de 120 si la liaison est une liaison 1Gig et 720 tampons si la liaison est une liaison 10Gig.
3850#show platform qos queue config gigabitEthernet 1/0/1 DATA Port:0 GPN:119 AFD:Disabled QoSMap:0 HW Queues: 0 - 7 DrainFast:Disabled PortSoftStart:1 - 1080 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 5 120 6 480 6 320 0 0 3 1440 1 1 4 0 7 720 3 480 2 180 3 1440 2 1 4 0 5 0 5 0 0 0 3 1440
<<output omitted>>
3850#show platform qos queue config tenGigabitEthernet 1/0/37
DATA Port:1 GPN:37 AFD:Disabled QoSMap:0 HW Queues: 8 - 15
DrainFast:Disabled PortSoftStart:2 - 6480
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 6 720 8 2880 7 1280 0 0 4 8640
1 1 4 0 9 4320 8 1920 3 1080 4 8640
2 1 4 0 5 0 5 0 0 0 4 8640
<<output omitted>>
Exemple 1
Lorsque vous appliquez une stratégie de service, si vous ne configurez pas de file d'attente prioritaire ou si vous ne définissez pas de niveau de file d'attente prioritaire, aucun Hardmax ne peut être affecté à cette file d'attente.
Pour une interface 1Gig :
policy-map MYPOL
class ONE
priority percent 20
class TWO
bandwidth percent 40
class THREE
bandwidth percent 10
class FOUR
bandwidth percent 5
3850#show run interface gig1/0/1
Current configuration : 67 bytes
!
interface GigabitEthernet1/0/1
service-policy output MYPOL
end
3800#show platform qos queue config gigabitEthernet 1/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:2 - 360
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 4 0 8 240 7 160 3 60 4 480
1 1 4 0 8 240 7 160 3 60 4 480
2 1 4 0 8 240 7 160 3 60 4 480
3 1 4 0 8 240 7 160 3 60 4 480
4 1 4 0 8 240 7 160 3 60 4 480
<<output omitted>>
!--- There are 5 classes present though you only created 4 classes.
!--- The 5th class is the default class.
!--- Each class represent a queue and the order in which it is shown is the order in which
!--- it is present in the running configuration when checking "show run | sec policy-map".
Pour une interface 10Gig :
policy-map MYPOL class ONE priority percent 20 class TWO bandwidth percent 40 class THREE bandwidth percent 10 class FOUR bandwidth percent 5 3850#show run interface TenGigabitEthernet1/0/37 Current configuration : 67 bytes ! interface TenGigabitEthernet1/0/37 service-policy output MYPOL end 3850#show platform qos queue config tenGigabitEthernet 1/0/40 DATA Port:2 GPN:40 AFD:Disabled QoSMap:1 HW Queues: 16 - 23 DrainFast:Disabled PortSoftStart:4 - 2160 ----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 4 0 10 1440 9 640 4 360 5 2880
1 1 4 0 10 1440 9 640 4 360 5 2880
2 1 4 0 10 1440 9 640 4 360 5 2880
3 1 4 0 10 1440 9 640 4 360 5 2880
4 1 4 0 10 1440 9 640 4 360 5 2880
5 1 4 0 5 0 5 0 0 0 5 2880 <<output omitted>>
Exemple 2
Lorsque vous appliquez le niveau de priorité 1, la file d'attente-0 obtient 60 tampons comme Hardmax.
Pour une interface 1Gig :
policy-map MYPOL
class ONE
priority level 1 percent 20
class TWO
bandwidth percent 40
class THREE
bandwidth percent 10
class FOUR
bandwidth percent 5
3850#show run interface gig1/0/1
Current configuration : 67 bytes
!
interface GigabitEthernet1/0/1
service-policy output MYPOL
end
BGL.L.13-3800-1#show platform qos queue config gigabitEthernet 1/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:2 - 360
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 6 60 8 240 7 160 0 0 4 480
1 1 4 0 8 240 7 160 3 60 4 480
2 1 4 0 8 240 7 160 3 60 4 480
3 1 4 0 8 240 7 160 3 60 4 480
4 1 4 0 8 240 7 160 3 60 4 480
<<output omitted>>
Pour une interface 10Gig :
policy-map MYPOL class ONE priority level 1 percent 20 class TWO bandwidth percent 40 class THREE bandwidth percent 10 class FOUR bandwidth percent 5 3850#show run interface Te1/0/37 Current configuration : 67 bytes ! interface TenGigabitEthernet1/0/37 service-policy output MYPOL end 3850_1#show platform qos queue config tenGigabitEthernet 1/0/37 DATA Port:2 GPN:40 AFD:Disabled QoSMap:1 HW Queues: 16 - 23 DrainFast:Disabled PortSoftStart:3 - 2160 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 7 360 10 1440 9 640 0 0 5 2880 1 1 4 0 10 1440 9 640 4 360 5 2880 2 1 4 0 10 1440 9 640 4 360 5 2880 3 1 4 0 10 1440 9 640 4 360 5 2880 4 1 4 0 10 1440 9 640 4 360 5 2880 5 1 4 0 5 0 5 0 0 0 5 2880 <<output omitted>>
Exemple 3
Dans cet exemple, une classe supplémentaire est ajoutée. Le nombre total de files d'attente passe à 6. Avec 2 niveaux de priorité configurés, chaque file d'attente obtient 51 tampons comme Hardmax. Le calcul est le même que dans l'exemple précédent.
Pour l'interface 1Gig :
policy-map MYPOL
class ONE
priority level 1 percent 20
class TWO
priority level 2 percent 10
class THREE
bandwidth percent 10
class FOUR
bandwidth percent 5
class FIVE
bandwidth percent 10
3850#show run interface gigabitEthernet1/0/1
Current configuration : 67 bytes
!
interface GigabitEthernet1/0/1
service-policy output MYPOL
end
3850#show platform qos queue config gigabitEthernet 1/0/1
DATA Port:16 GPN:10 AFD:Disabled QoSMap:1 HW Queues: 128 - 135
DrainFast:Disabled PortSoftStart:3 - 306
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 7 51 10 204 9 136 0 0 5 408
1 1 7 51 10 204 9 136 0 0 5 408
2 1 4 0 10 204 9 136 4 51 5 408
3 1 4 0 10 204 9 136 4 51 5 408
4 1 4 0 11 192 10 128 5 48 5 408
5 1 4 0 11 192 10 128 5 48 5 408
6 1 4 0 5 0 5 0 0 0 5 408
<<output omitted>>
Pour une interface 10Gig :
policy-map MYPOL class ONE priority level 1 percent 20 class TWO priority level 2 percent 10 class THREE bandwidth percent 10 class FOUR bandwidth percent 5 class FIVE bandwidth percent 10 3850#show run interface Te1/0/37 Current configuration : 67 bytes ! interface TenGigabitEthernet1/0/37 service-policy output MYPOL end 3850_2#show platform qos queue config tenGigabitEthernet 1/0/37 DATA Port:2 GPN:40 AFD:Disabled QoSMap:1 HW Queues: 16 - 23 DrainFast:Disabled PortSoftStart:4 - 1836 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 8 306 12 1224 11 544 0 0 6 2448 1 1 8 306 12 1224 11 544 0 0 6 2448 2 1 4 0 12 1224 11 544 6 306 6 2448 3 1 4 0 12 1224 11 544 6 306 6 2448 4 1 4 0 13 1152 12 512 7 288 6 2448 5 1 4 0 13 1152 12 512 7 288 6 2448 6 1 4 0 5 0 5 0 0 0 6 2448 <<output omitted>>
Remarque : moins de mémoires tampon peuvent être allouées à quelques files d'attente. Ceci est attendu comme les valeurs qui ne peuvent pas tenir dans le calcul Softmax pour la file d'attente prioritaire et non prioritaire alors que certaines configurations sont combinées.
En résumé, plus vous créez de files d'attente, moins chaque file d'attente reçoit de mémoires tampon en termes de Hardmax et de Softmax (car Hardmax dépend également de la valeur Softmax).
À partir de 3.6.3 ou 3.7.2, la valeur maximale de Softmax peut être modifiée à l'aide de la commande CLI
qos queue-softmax-multiplier 1200 avec 100 comme valeur par défaut. S'il est configuré sur 1200, le Softmax pour les files d'attente non prioritaires et les files d'attente non prioritaires (!=niveau 1) est multiplié par 12 à partir de leurs valeurs par défaut. Cette commande ne prendrait effet que sur les ports auxquels une carte de stratégie est attachée. Elle ne s'applique pas non plus à la file d'attente de priorité de niveau 1.
Utiliser la politique de service pour modifier manuellement la valeur de la mémoire tampon Softmax
Exemple 1
Il s'agit de la configuration de la stratégie de service et de l'allocation de tampon correspondante :
policy-map TEST_POLICY
class ONE
priority level 1 percent 40
class TWO
bandwidth percent 40
class THREE
bandwidth percent 10
3850#show run interface gigabitEthernet1/0/1
Current configuration : 67 bytes
!
interface GigabitEthernet1/0/1
service-policy output TEST_POLICY
end
3850#show platform qos queue config gigabitEthernet 1/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:2 - 450
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 6 75 8 300 7 200 0 0 4 600
1 1 4 0 8 300 7 200 3 75 4 600
2 1 4 0 8 300 7 200 3 75 4 600
3 1 4 0 8 300 7 200 3 75 4 600
<<output omitted>>
Les tampons sont également répartis entre les files d'attente. Si vous utilisez la commande bandwidth, seul le poids est modifié pour chaque file d'attente et la façon dont le planificateur agit sur celle-ci.
Pour modifier la valeur Softmax, vous devez utiliser la commande située queue-buffer ratio sous la classe correspondante.
policy-map TEST_POLICY class ONE priority level 1 percent 40 class TWO bandwidth percent 40 queue-buffers ratio 50 <--------------- class THREE bandwidth percent 10 class FOUR bandwidth percent 5
Il s'agit des nouvelles allocations de mémoire tampon.
Pour l'interface 1Gig :
3850#show platform qos queue config gigabitEthernet 1/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:0 - 900
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 6 39 8 156 7 104 0 0 0 1200
1 1 4 0 9 600 8 400 3 150 0 1200
2 1 4 0 8 156 7 104 4 39 0 1200
3 1 4 0 10 144 9 96 5 36 0 1200
4 1 4 0 10 144 9 96 5 36 0 1200
La file d'attente-1 obtient 50 % de la mémoire tampon souple, soit 600 mémoires tampon. Le reste des tampons est alloué aux autres files d'attente selon l'algorithme.
Le résultat similaire pour une interface 10Gig est :
3850#show platform qos queue config tenGigabitEthernet 1/0/37 DATA Port:2 GPN:40 AFD:Disabled QoSMap:1 HW Queues: 16 - 23 DrainFast:Disabled PortSoftStart:4 - 1836 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 7 234 10 936 9 416 0 0 5 7200 1 1 4 0 11 3600 10 1600 4 900 5 7200 2 1 4 0 10 936 9 416 5 234 5 7200 3 1 4 0 4 864 11 384 1 216 5 7200 4 1 4 0 4 864 11 384 1 216 5 7200 5 1 4 0 5 0 5 0 0 0 5 7200 <<output omitted>>
Remarque : il peut y avoir moins de mémoires tampon allouées à quelques files d'attente. Ceci est attendu car les valeurs ne peuvent pas tenir dans le calcul Softmax pour la file d'attente prioritaire et la file d'attente non prioritaire lorsque certaines configurations sont combinées. Il y a un algorithme interne qui s'en occupe.
Exemple 2
Allouez toute la mémoire tampon Softmax à la file d'attente par défaut unique.
Vous pouvez voir moins de mémoires tampon allouées à quelques files d'attente. Ceci est attendu car les valeurs ne peuvent pas tenir dans le calcul Softmax pour la file d'attente prioritaire et la file d'attente non prioritaire lorsque certaines combinaisons sont configurées. Il y a un algorithme interne qui s'en occupe. Il peut y avoir moins de tampons alloués à quelques files d'attente. Ceci est attendu car les valeurs ne peuvent pas être ajustées dans le calcul Softmax pour la file d'attente prioritaire et la file d'attente non prioritaire lorsque certaines combinaisons sont configurées. Il y a un algorithme interne qui s'en occupe.
policy-map NODROP class class-default bandwidth percent 100 queue-buffers ratio 100
Les résultats de la configuration QoS sont les suivants :
3850#show platform qos queue config GigabitEthernet 1/1/1 DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175 DrainFast:Disabled PortSoftStart:0 - 900 ---------------------------------------------------------- DTS Hardmax Softmax PortSMin GlblSMin PortStEnd --- -------- -------- -------- --------- --------- 0 1 4 0 8 1200 7 800 3 300 2 2400 1 1 4 0 5 0 5 0 0 0 2 2400
Il n'y a pas de tampon Hardmax puisque la stratégie est appliquée à une interface et qu'il n'y a pas de file d'attente prioritaire avec le « niveau » défini. Dès que vous appliquez le policy-map, la seconde file d'attente est désactivée et ne laisse qu'une seule file d'attente dans le système.
La mise en garde ici est que tous les paquets utilisent cette file d'attente unique (qui inclut les paquets de contrôle comme OSPF/EIGRP/STP). En cas d'encombrement (tempête de diffusion), le réseau peut facilement être perturbé. Cela se produit également si d'autres classes ont défini les paquets de contrôle qui correspondent.
Étude de cas : baisse des résultats
Pour ce test, le générateur de trafic IXIA est connecté à l'interface 1Gig et le port de sortie est l'interface 100Mbits/s. Il s'agit d'une connexion de 1 Gbit/s à 100 Mbit/s et une rafale de paquets de 1 Go est envoyée pendant 1 seconde. Cela peut entraîner une perte de sortie sur l'interface de sortie 100 Mbits/s. Avec la configuration par défaut (aucune stratégie de service appliquée), il s'agit du nombre de suppressions de sortie après l'envoi de 1 :
3850#show interfaces gig1/0/1 | in output drop Input queue: 0/2000/0/0 (size/max/drops/flushes); Total output drops: 497000
Ces abandons sont visibles dans Th2, qui est le seuil par défaut. Par défaut, le système peut utiliser le seuil max comme seuil d'abandon qui est Drop-Th2.
3800#show platform qos queue stats gigabitEthernet 1/0/1 <snip> DATA Port:21 Drop Counters ------------------------------- Queue Drop-TH0 Drop-TH1 Drop-TH2 SBufDrop QebDrop ----- ----------- ----------- ----------- ----------- ----------- 0 0 0 497000 0 0 1 0 0 0 0 0
Ensuite, configurez cette politique de service pour modifier la mémoire tampon :
policy-map TEST_POLICY
class class-default
bandwidth percent 100
queue-buffers ratio 100
3850#show run interface gigabitEthernet1/0/1
Current configuration : 67 bytes
!
interface GigabitEthernet1/0/1
service-policy output TEST_POLICY
end
3850#show platform qos queue config gigabitEthernet 2/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:0 - 900
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 4 0 8 1200 7 800 3 300 2 2400 <-- queue 0 gets all the buffer.
3850#show interfaces gigabitEthernet1/0/1 | include output drop
Input queue: 0/2000/0/0 (size/max/drops/flushes); Total output drops: 385064
Les abandons sont passés de 497000 à 385064 pour la même rafale de trafic. Pourtant, il y a encore des chutes. Après cela, configurez la commande
qos queue-softmax-multiplier 1200 global config.
3850#show platform qos queue config gigabitEthernet 1/0/1
DATA Port:21 GPN:65 AFD:Disabled QoSMap:1 HW Queues: 168 - 175
DrainFast:Disabled PortSoftStart:0 - 900
----------------------------------------------------------
DTS Hardmax Softmax PortSMin GlblSMin PortStEnd
--- -------- -------- -------- --------- ---------
0 1 4 0 8 10000 7 800 3 300 2 10000
3850#show interfaces gigabitEthernet1/0/1 | in output drop
Input queue: 0/2000/0/0 (size/max/drops/flushes); Total output drops: 0
Le Softmax pour la file d'attente-0 peut aller jusqu'à 10 000 tampons et par conséquent, les pertes sont nulles.
Remarque : ce type de scénario n'est pas possible car d'autres interfaces peuvent également utiliser la mémoire tampon, mais cela peut certainement aider à réduire les pertes de paquets à un certain niveau.
La mémoire tampon logicielle maximale disponible pour une interface peut être augmentée avec cette commande. Cependant, vous devez également garder à l'esprit que celle-ci n'est disponible que si aucune autre interface n'utilise ces mémoires tampon.
Résumé
1. Lorsque vous créez plus de files d'attente, vous obtenez moins de mémoire tampon pour chaque file d'attente.
2. Le nombre total de mémoires tampon disponibles peut être augmenté avec la qos queue-softmax-multiplier <value>commande.
3. Si vous définissez seulement 1 classe par défaut, afin de modifier la mémoire tampon, tout le trafic tombe sous la file d'attente unique (qui inclut les paquets de contrôle). Notez que lorsque tout le trafic est placé dans une file d'attente, il n'y a pas de classification entre le trafic de contrôle et le trafic de données et que, en cas d'encombrement, le trafic de contrôle peut être abandonné. Il est donc recommandé de créer au moins 1 autre classe pour le trafic de contrôle. Les paquets de contrôle générés par le CPU vont toujours dans la file d'attente de première priorité même s'ils ne correspondent pas dans la carte-classe. Si aucune file d'attente de priorité n'est configurée, elle se dirige vers la première file d'attente de l'interface, qui est la file d'attente 0.
4. Avant l'ID de bogue Cisco CSCuu14019, les interfaces n'affichent pas de compteurs de « pertes de sortie ». Vous devez exécuter la show platform qos queue stats sortie pour vérifier les pertes.
5. Une demande d'amélioration, ID de bogue Cisco CSCuz86625 , a été soumise pour nous permettre de configurer le multiplicateur soft-max sans utiliser de politique de service.(Résolu dans les versions 3.6.6 et ultérieures)
Informations connexes
Révision | Date de publication | Commentaires |
---|---|---|
6.0 |
04-Dec-2023 |
Recertification |
4.0 |
02-Dec-2022 |
Ajout d'une URL pour dépanner les pertes de sortie sur les commutateurs Catalyst 9000 qui peuvent être utilisés pour 3850 exécutant 16.x.x et les logiciels ultérieurs |
1.0 |
28-Jul-2016 |
Première publication |