De documentatie van dit product is waar mogelijk geschreven met inclusief taalgebruik. Inclusief taalgebruik wordt in deze documentatie gedefinieerd als taal die geen discriminatie op basis van leeftijd, handicap, gender, etniciteit, seksuele oriëntatie, sociaaleconomische status of combinaties hiervan weerspiegelt. In deze documentatie kunnen uitzonderingen voorkomen vanwege bewoordingen die in de gebruikersinterfaces van de productsoftware zijn gecodeerd, die op het taalgebruik in de RFP-documentatie zijn gebaseerd of die worden gebruikt in een product van een externe partij waarnaar wordt verwezen. Lees meer over hoe Cisco gebruikmaakt van inclusief taalgebruik.
Cisco heeft dit document vertaald via een combinatie van machine- en menselijke technologie om onze gebruikers wereldwijd ondersteuningscontent te bieden in hun eigen taal. Houd er rekening mee dat zelfs de beste machinevertaling niet net zo nauwkeurig is als die van een professionele vertaler. Cisco Systems, Inc. is niet aansprakelijk voor de nauwkeurigheid van deze vertalingen en raadt aan altijd het oorspronkelijke Engelstalige document (link) te raadplegen.
In dit document wordt het proces beschreven om de maximale grootte van de wachtrij en het uitstekende I/O-stuurprogramma (IO) te configureren op een native Fibre Channel Network Interface Card-stuurprogramma (NFI). In de VMware ESXi 6.7-hypersupervisor is het Fibre Channel Network Interface Card-stuurprogramma voor alle Cisco-adapters vervangen door het nationale stuurprogramma.
De standaardwachtrijdiepte van de nfini-chauffeur is ingesteld op 32 en bij alle eerste releases van de nfini-chauffeur is er geen manier om de nfini-rijdiepte aan te passen. Dit beperkt alle maximale lege wachtrijdiepten en aanvragen voor diskettestumnummers tot 32. Het heeft ook problemen veroorzaakt bij het gebruik van vSphere Virtual Volumes omdat de aanbevolen rijdiepte 128 is. De effecten van deze limiet kunnen ook worden waargenomen bij VM's die een hogere werklast hebben en een grotere rijdiepte in het algemeen nodig hebben.
Bijdrage van Michael Baba, Josh Good en Alejandro Marino; Cisco TAC-engineers.
Verbetering gemaakt om de mogelijkheid toe te voegen om een parameter op de rijdiepte te te configureren: https://bst.cloudapps.cisco.com/bugsearch/bug/CSCvo09082
Om te beginnen met versie 4.0.0.35 van de nfini chauffeur, kunt u de "lun_wachtrij_deep_per_path" via de ESXi Opdrachtlijn Interface (CLI) aanpassen. Deze stuurprogramma-versie kan handmatig op de ESXi-host worden geïnstalleerd als deze nog niet op de beheerserver staat.
De nfini-stuurprogramma 4.0.0.35 is te vinden in de UCS Blade Firmware-bundel 4.0.4 en kan ook afzonderlijk van VMware worden gedownload. Raadpleeg de pagina UCS Hardware and Software Compatibiliteit om het nieuwste aanbevolen stuurprogramma te krijgen voor uw specifieke hardware- en softwarecombinatie.
Ga als volgt te werk om de geïnstalleerde versie van het nationale stuurprogramma te controleren:
esxcli software vib list | grep nfnic
Je zou zoiets moeten zien:
[root@localhost:~] esxcli software vib list | grep nfnic nfnic 4.0.0.14-1OEM.670.1.28.10302608 Cisco VMwareCertified 2019-08-24 [root@localhost:~]
Als u geen uitvoer ziet, is het volgende stuurprogramma niet geïnstalleerd. Raadpleeg de pagina UCS Hardware and Software Compatibiliteit om te controleren of uw configuratie zou moeten zijn gebaseerd op het volgende of volgende stuurprogramma.
Gedetailleerde instructies om de laatste chauffeurs te installeren vallen buiten het bereik van deze gids. Raadpleeg de UCS driver Installatie voor Gemeenschappelijke besturingssystemen of de documentatie van VMware voor stapsgewijze instructies voor het upgraden van het stuurprogramma. Nadat het stuurprogramma is bijgewerkt, kunt u bovenstaande opdrachten gebruiken om de versie te controleren.
Nadat het juiste stuurprogramma is geïnstalleerd, kunnen we controleren of de modulparameters beschikbaar zijn om te configureren met:
esxcli system module parameters list -m nfnic
We kunnen in deze uitvoer zien dat de standaardwaarde is ingesteld op 32, maar we kunnen elke waarde vanaf 1-1024 configureren. Bij gebruik van vSphere Virtual Volumes wordt aanbevolen om deze waarde in te stellen op 128. We raden aan om VMware en uw opslagverkoper te bereiken voor andere specifieke aanbevelingen.
Uitvoer van monster:
[root@localhost:~] esxcli system module parameters list -m nfnic Name Type Value Description ------------------------ ----- ----- -------------------------------------------------------------- lun_queue_depth_per_path ulong nfnic lun queue depth per path: Default = 32. Range [1 - 1024] [root@localhost:~]
Om de parameter Diepte van de wachtrij te wijzigen, volgt de opdracht. In het onderstaande voorbeeld veranderen we het in 128, maar je waarde kan verschillen afhankelijk van je omgeving.
esxcli system module parameters set -m nfnic -p lun_queue_depth_per_path=128
Met behulp van het zelfde bevel als hierboven kunnen we de verandering verklaren is gemaakt:
[root@localhost:~] esxcli system module parameters list -m nfnic Name Type Value Description ------------------------ ----- ----- -------------------------------------------------------------- lun_queue_depth_per_path ulong 128 nfnic lun queue depth per path: Default = 32. Range [1 - 1024] [root@localhost:~]
We kunnen nu de uitstaande IO's op het Protocol-endpoint configureren om de bovenstaande wachtrijdiepte in overeenstemming te brengen (in ons voorbeeld 128) en vervolgens controleren of beide waarden zijn gewijzigd in 128.
OPMERKING: Mogelijk moet u de host opnieuw opstarten voordat u deze configuratie kunt wijzigen.
U kunt de wachtrijdiepte voor een specifiek apparaat als volgt wijzigen:
esxcli storage core device set -O 128 -d naa.xxxxxxxxx
U kunt de onderstaande opdracht gebruiken om een id van het apparaat te vinden:
esxcli storage core device list
U kunt de wijzigingen voor een specifiek apparaat als volgt bevestigen:
esxcli storage core device list -d naa.xxxxxxxxxx
Een voorbeeld met uitvoer. We kunnen zien dat de "Devices en wachtrijen" en "Nee van uitstaande IO's met concurrerende werelden:" beide nog 32 zijn.
[root@localhost:~] esxcli storage core device list -d naa.600a09803830462d803f4c6e68664e2d naa.600a09803830462d803f4c6e68664e2d Display Name: VMWare_SAS_STG_01 Has Settable Display Name: true Size: 2097152 Device Type: Direct-Access Multipath Plugin: NMP Devfs Path: /vmfs/devices/disks/naa.600a09803830462d803f4c6e68664e2d Vendor: NETAPP ...snip for length... Is Boot Device: false Device Max Queue Depth: 32 No of outstanding IOs with competing worlds: 32 Drive Type: unknown RAID Level: unknown Number of Physical Drives: unknown Protection Enabled: false PI Activated: false PI Type: 0 PI Protection Mask: NO PROTECTION Supported Guard Types: NO GUARD SUPPORT DIX Enabled: false DIX Guard Type: NO GUARD SUPPORT Emulated DIX/DIF Enabled: false
Nu veranderen we het in 128 voor dit apparaat
esxcli storage core device set -O 128 -d naa.600a09803830462d803f4c6e68664e2d
En bij het controleren van dezelfde output kunnen we "Devices en beperkingen van de wachtrij" en "Nee van uitstaande IO's met concurrerende werelden:" zien we nu allebei 128. Als de veranderingen niet onmiddellijk worden weerspiegeld, kan een herstart van de ESXi-host nodig zijn.
[root@localhost:~] esxcli storage core device list -d naa.600a09803830462d803f4c6e68664e2d naa.600a09803830462d803f4c6e68664e2d Display Name: VMWare_SAS_STG_01 Has Settable Display Name: true Size: 2097152 Device Type: Direct-Access Multipath Plugin: NMP Devfs Path: /vmfs/devices/disks/naa.600a09803830462d803f4c6e68664e2d Vendor: NETAPP ...snip for length... Is Boot Device: false Device Max Queue Depth: 128 No of outstanding IOs with competing worlds: 128 Drive Type: unknown RAID Level: unknown Number of Physical Drives: unknown Protection Enabled: false PI Activated: false PI Type: 0 PI Protection Mask: NO PROTECTION Supported Guard Types: NO GUARD SUPPORT DIX Enabled: false DIX Guard Type: NO GUARD SUPPORT Emulated DIX/DIF Enabled: false