Introduction
Ce document décrit la vérification de l'unité de transmission maximale (MTU) sur les vNIC virtuelles vmxnet3 appliquées sur ESXi 6.7 mise à jour 2 et ultérieures.
Conditions préalables
Conditions requises
Cisco vous recommande de prendre connaissance des rubriques suivantes :
- Configurations de réseau de machines virtuelles VMWare dans ESXi
- Interface de ligne de commande (CLI) de Cisco Meeting Server (CMS)
Components Used
Les informations de ce document sont basées sur CMS qui s'exécute en tant que machine virtuelle.
The information in this document was created from the devices in a specific lab environment. All of the devices used in this document started with a cleared (default) configuration. Si votre réseau est en ligne, assurez-vous de bien comprendre l’incidence possible des commandes.
En particulier, ce document fait référence au CMS mais affecte toute machine virtuelle répondant aux exigences de flux :
- ESXi version 6.7 mise à jour 2 ou ultérieure
- carte vmxnet3 utilisée
- Modifications de MTU au niveau de la vNIC de la machine virtuelle
Informations générales
Dans ESXi version 6.7 mise à jour 2 et ultérieures, le comportement par défaut de la plate-forme est appliqué pour effectuer une vérification MTU sur le chemin de réception et n'autorisera pas les paquets qui sont plus grands que la taille MTU de la vNIC.
Avant cette version, cette vérification n'était pas appliquée et cela peut augmenter la probabilité de pertes de paquets lorsque la taille de MTU est modifiée sur la machine virtuelle (VM) qui utilise les vNIC vmxnet3.
Par exemple, si le vSwitch est configuré pour recevoir un MTU de 1 500 octets mais que le MTU de vNIC de la machine virtuelle est abaissé à 1 300 octets, et qu'un paquet supérieur à 1 300 octets est reçu, ce paquet est abandonné ou rejeté.
Problème : Perte potentielle de paquets lorsque la taille de MTU est réduite
Les environnements qui exécutent la machine virtuelle Cisco Meeting Server (ou d'autres applications qui modifient le MTU au niveau de la vNIC et utilisent la carte vmxnet3) sur ESXi version 6.7 mise à jour 2 et ultérieures peuvent rencontrer des problèmes de perte de paquets lorsque le MTU est abaissé en raison de ce changement de comportement par défaut.
La MTU est réduite avec l'interface de commande <interface> mtu <value> sur la configuration du processeur de gestion de carte mère (MMP) CMS qui définit ensuite la valeur sur la vNIC afin de réduire la latence des paquets dans le réseau.
Vous trouverez plus de détails sur ces modifications dans cet article de VMware.
Solution
Vous trouverez ci-dessous des options qui peuvent vous aider à résoudre ce problème.
Remarque : les options 1 et 2 nécessitent que l'environnement ESXi ait installé la version de correctif de ESXi670-201912001 afin que l'option soit disponible pour la modification de la configuration de vmxnet3 pour le contrôle MTU. Vous trouverez plus d'informations à ce sujet dans les notes de version de la version du correctif. Le texte ci-dessous fait référence.
"PR 2409342 : vous ne pouvez pas sélectionner pour désactiver le contrôle d'unité de transmission maximale (MTU) dans le serveur principal vmxnet3 pour que la longueur de paquet ne dépasse pas la MTU vNIC
Avec ESXi670-201912001, vous pouvez sélectionner pour désactiver le contrôle d'unité de transmission maximale (MTU) dans le serveur principal vmxnet3 pour que la longueur de paquet ne dépasse pas la MTU vNIC. Le comportement par défaut consiste à effectuer le contrôle MTU. Cependant, si vous utilisez vmxnet3, à la suite de cette vérification, vous pourriez voir une augmentation des paquets abandonnés. Pour plus d'informations, consultez l'article 75213 de la base de connaissances VMware.
Ce problème est résolu dans cette version."
Option 1 : Configuration à l’échelle de l’hôte
Comme indiqué précédemment, cette option nécessite l'installation de la version de correctif (ESXi670-201912001). Les détails ci-dessous sont extraits directement de la section de résolution du document VMware 75213.
paramètres système esxcli avancés set -o "/Net/vmxnet3NonTsoPacketGtMtuAllowed » -i 1
Note: Cette configuration s'applique à tous les vNI vmxnet3 (à l'échelle de l'hôte). Ce paramètre est ensuite appliqué à chaque machine virtuelle qui est sous tension après avoir effectué cette modification.
Option 2 : Configuration spécifique de vNIC
Comme indiqué précédemment, cette option nécessite l'installation de la version de correctif (ESXi670-201912001). Les détails ci-dessous sont extraits directement de la section de résolution du document VMware 75213.
"Utilisez ethernet0.rxAllowPktGtMtu = « 1 » dans le fichier vmx :
Où « ethernet0 » doit être remplacé par la vNic spécifique sur laquelle la configuration doit être appliquée.
Veuillez utiliser l'article de la base de connaissances VMware pour suivre les étapes suivantes sur Comment :
Modification des paramètres avancés de la machine virtuelle à l'aide du client vSphere (1016098) Ko. »
Option 3 : Solution
Pour l'option de contournement, vous avez la possibilité de rétablir la configuration MTU sur l'application/la machine virtuelle afin qu'elle soit configurée pour recevoir ce qui est accepté dans le réseau.
Par exemple, si le vSwitch est configuré pour recevoir une taille de MTU de 1500 et que la vNIC de la machine virtuelle doit donc être définie pour correspondre à ceci. Si l'environnement exécute CMS, vous devez définir le MTU de l'interface sur ce qui est attendu.
Exemple : iface a mtu 1500 configuré sur CMS MMP.
L'autre option consiste à s'assurer que le réseau est configuré de sorte que les paquets qui arrivent à la vNIC ne dépassent pas la valeur MTU définie pour la vNIC. Cela doit être fait sur l’ensemble du réseau pour s’assurer que la fragmentation est correctement définie.
Informations connexes