起動パラメータファイルの作成
起動パラメータファイルは、起動する前に StarOS に設定項目を渡すための手段を提供します。通常、パラメータは、StarOS を正常にロードし、仮想スロット番号、VM のタイプ、NIC の割り当て、ネットワークボンディングの設定などの項目を指定するために必要です。
デフォルトでは、VPC-DI はハイパーバイザによって提供される順序で vNIC インターフェイスを割り当てます。特定の順序に従って手動で vNICs を設定するには、起動パラメータファイルを作成する必要があります。また、VNFM インターフェイスを有効にする場合も、起動パラメータファイルを作成する必要があります。
起動パラメータは複数の方法で送信され、すべての方式が同じパラメータ名と使用法を使用します。ブートパラメータファイルの最初の場所は、最初の VM ドライブの最初のパーティション(たとえば、 /boot1/param.cfg)にあります。検索された 2 番目の場所は、仮想 CD-ROM ドライブである設定ドライブ上にあります。OpenStack を使用している場合は、ターゲットの起動パラメータのファイル名を staros_param.cfg として指定します。OpenStack を使用していない場合は、ルートディレクトリに staros_param.cfg を使用して ISO イメージを作成し、この ISO を VM の最初の仮想 CD-ROM ドライブに接続します。
VM が起動すると、最初に CFE と呼ばれるブート前環境で param.cfg ファイルが解析されます。VM が Linux を開始すると、仮想 CD-ROM ドライブにアクセスして、 staros_param.cfg ファイルを解析します。/boot1/param.cfg ファイルに保存されている値と競合がある場合、staros_param.cfg のパラメータが優先されます。
起動パラメータファイルを作成しない場合は、デフォルトファイルが使用されます。起動パラメータファイルを作成する場合は、起動パラメータの設定 で説明されているすべてのパラメータを定義する必要があります。
起動パラメータファイルのフォーマット
起動パラメータファイルの構造は次のとおりです。
VARIABLE_NAME = VALUE
行区切りとして改行を使用して、1 行につき 1 つの変数を指定します(UNIX テキストファイル形式)。変数名と値は大文字と小文字が区別されません。無効な値は無視され、エラー通知が VM コンソールに表示されます。変数の値が重複している場合(同じ変数名に 2 つの異なる値が指定されている場合)、最後に定義された値が使用されます。
数値にゼロを埋める必要はありません。たとえば、PCI_ID は 0:1:1.0 の場合、0000:01:01.0 と同様に扱われます。
ネットワーク インターフェイス ロール
ネットワーク インターフェイスは、VM が CF または SF に使用されているかどうかに応じて、特定の役割を果たします。
すべてのシステム VM には、DI 内部ネットワークへのネットワーク インターフェイス接続が備わっています。このネットワークは、VPC-DI インスタンス内のすべての VM 同士をリンクします。このネットワークは VPC-DI インスタンスに非公開とする必要があります。また、このネットワークはシステムソフトウェアによって設定されます。
仮想ネットワーク機能(VNF)マネージャ(VNFM)が存在する場合は、それに接続されているネットワーク インターフェイスを設定するオプションがすべての VM に備わっています。このインターフェイスは、DHCP またはスタティック IP 割り当てを使用して設定でき、VNFM 以上のレベルのオーケストレータとの通信に使用されます。このインターフェイスは、メインアプリケーションが起動する前に有効になります。
CF では、1 つの追加インターフェイスが管理ネットワーク インターフェイスに接続します。このインターフェイスは通常、StarOS で設定され、Day 0 設定に含まれている必要があります。管理インターフェイスは、メインの StarOS 設定ファイルを使用してスタティックアドレスの割り当てをサポートします。
SF では、追加の 0 ~ 12 個のネットワーク インターフェイスがサービスポートとして機能します。これらのインターフェイスは、StarOS によって設定されます。通常、これらのポートは VNF インフラストラクチャ(VNFI)のトランクポートとして設定されます。
インターフェイス ロール |
説明 |
---|---|
DI_INTERFACE |
VM のすべてのタイプに必要な DI 内部ネットワークへのインターフェイス |
MGMT_INTERFACE |
CF VM 上の管理ポートへのインターフェイス |
SERVICE#_INTERFACE |
SF VM のサービスポート番号 #(# は 1 ~ 12) |
VNFM_INTERFACE |
VNFM またはオーケストレータへのオプションのネットワーク インターフェイス(VM のすべてのタイプで有効) |
(注) |
VIRTIO のインターフェイスは DI_INTERFACE ロールと SERVICE#_INTERFACE ロールに使用できますが、推奨されません。 |
ネットワーク インターフェイス ID
デフォルトでは、VPC-DI VM によって検出された最初の NIC には、DI 内部ネットワークロールが割り当てられます。追加ポートは、SF の CF またはサービスポートの管理インターフェイスとして機能します。デフォルトでは、インターフェイスは VNFM インターフェイスとして使用されません。
VPC-DIハイパーバイザによって提供される順序で vNIC インターフェイスを割り当てます。ハイパーバイザの CLI や GUI にリストされている vNIC の順序が、ハイパーバイザが VM に提供する方法と同じであることは保証できません。
VPC-DI が vNIC を検出する順序は PCI バスの列挙順に従い、準仮想デバイスも PCI バスで表されます。PCI バスは、同じレベルの追加デバイスの前にブリッジが探索される深さ優先の方法で列挙されます。すべてのネットワーク インターフェイスのタイプが同じ場合、PCI トポロジを認識するだけで vNIC の正しい順序を取得できます。ネットワーク インターフェイスのタイプが異なる場合、その順序は PCI トポロジに加えて VM 内のデバイスドライバのロード順序に依存します。デバイスドライバのロード順序は、ソフトウェアのリリース順と同じである保証はありませんが、一般的には準仮想デバイスがパススルーデバイスよりも優先されます。
NIC を識別するために使用できる方式はいくつかあります。
-
MAC アドレス:インターフェイスの MAC アドレス
-
仮想 PCI ID
-
結合インターフェイス:ネットワークデバイスのボンディングを使用すると、ネットワーク インターフェイスはスレーブ インターフェイス ロールとして機能するように識別されます。ボンドのスレーブインターフェイスは、MAC、PCI ID、またはインターフェイスタイプを使用して識別されます。
-
インターフェイスタイプおよびインスタンス番号
仮想 PCI ID
PCI バス上のデバイスは、ドメイン、バス、デバイス、および機能番号と呼ばれる一意のタプルによって識別されます。これらの識別子は、いくつかの方法で識別できます。
ゲスト内では、lspci ユーティリティによって次のようにバスの設定が表示されます。
# lspci
00:00.0 Host bridge: Intel Corporation 440FX - 82441FX PMC [Natoma] (rev 02)
00:01.0 ISA bridge: Intel Corporation 82371SB PIIX3 ISA [Natoma/Triton II]
00:01.1 IDE interface: Intel Corporation 82371SB PIIX3 IDE [Natoma/Triton II]
00:01.2 USB controller: Intel Corporation 82371SB PIIX3 USB [Natoma/Triton II] (rev 01)
00:01.3 Bridge: Intel Corporation 82371AB/EB/MB PIIX4 ACPI (rev 03)
00:02.0 VGA compatible controller: Cirrus Logic GD 5446
00:03.0 System peripheral: Intel Corporation 6300ESB Watchdog Timer
00:04.0 Unclassified device [00ff]: Red Hat, Inc Virtio memory balloon
00:05.0 Ethernet controller: Red Hat, Inc Virtio network device
00:06.0 Ethernet controller: Red Hat, Inc Virtio network device
この仮想バスのドメイン、バス、デバイス、および機能番号を次に示します。
回線 |
ドメイン |
バス |
デバイス |
機能 |
---|---|---|---|---|
00:00.0 Host bridge: Intel Corporation 440FX - 82441FX PMC [Natoma] (rev 02) |
0 |
0 |
0 |
0 |
00:01.0 ISA bridge: Intel Corporation 82371SB PIIX3 ISA [Natoma/Triton II] |
0 |
0 |
1 |
0 |
00:01.1 IDE インターフェイス:Intel Corporation 82371SB PIIX3 IDE [Natoma/Triton II] |
0 |
0 |
1 |
1 |
00:01.2 USB コントローラ:Intel Corporation 82371SB PIIX3 USB [Natoma/Triton II] (rev 01) |
0 |
0 |
1 |
2 |
00:01.3 ブリッジ:Intel Corporation 82371AB/EB/MB PIIX4 ACPI (rev 03) |
0 |
0 |
1 |
3 |
00:02.0 VGA 互換コントローラ:Cirrus Logic GD 5446 |
0 |
0 |
2 |
0 |
00:03.0 システム周辺機器:Intel Corporation 6300ESB ウォッチドッグタイマー |
0 |
0 |
3 |
0 |
00:04.0 未分類のデバイス [00ff]:Red Hat、Inc Virtio メモリバルーニング |
0 |
0 |
4 |
0 |
00:05.0 イーサネットコントローラ:Red Hat、Inc Virtio ネットワークデバイス |
0 |
0 |
5 |
0 |
00:06.0 イーサネットコントローラ:Red Hat、Inc Virtio ネットワークデバイス |
0 |
0 |
6 |
0 |
libvirt ベースの仮想マシンの場合は、virsh dumpxml コマンドから仮想 PCI バストポロジを取得できます。libvirt スキーマでは、デバイス番号に slot という用語が使用されることに注意してください。これは、前の例で使用した仮想マシンにおける xml の説明のスニペットです。
<interface type='bridge'>
<mac address='52:54:00:c2:d0:5f'/>
<source bridge='br3043'/>
<target dev='vnet0'/>
<model type='virtio'/>
<driver name='vhost' queues='8'/>
<alias name='net0'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x05' function='0x0'/>
</interface>
<interface type='bridge'>
<mac address='52:54:00:c3:60:eb'/>
<source bridge='br0'/>
<target dev='vnet1'/>
<model type='virtio'/>
<alias name='net1'/>
<address type='pci' domain='0x0000' bus='0x00' slot='0x06' function='0x0'/>
</interface>
インターフェイスタイプおよびインスタンス番号
ここで NIC は、Linux デバイスドライバの名前(virtio_net、vmxnet3、ixgbe、i40e など)とそのインスタンス番号を使用して、そのタイプによって識別されます。インスタンス番号は、そのタイプのインターフェイスの PCI 列挙順に基づいています。インスタンス番号 1 から始まります。インターフェイスタイプは、パススルーインターフェイスと SR-IOV 仮想機能だけでなく、両方の準仮想タイプを識別するために使用できます。PCI バス上のデバイスの PCI 列挙の順序は、ホスト OS 上のlspci ユーティリティで確認できます。
たとえば、次のゲスト PCI トポロジの CF は、virtio_net インターフェイス番号 1 が 00:05.0 のイーサネットコントローラであり、virtio_net インターフェイス番号 2 が 00:06.0 のイーサネットコントローラであることを示しています。出力は、ゲストで実行された lspci コマンドからのものです 。
# lspci
00:00.0 Host bridge: Intel Corporation 440FX - 82441FX PMC [Natoma] (rev 02)
00:01.0 ISA bridge: Intel Corporation 82371SB PIIX3 ISA [Natoma/Triton II]
00:01.1 IDE interface: Intel Corporation 82371SB PIIX3 IDE [Natoma/Triton II]
00:01.2 USB controller: Intel Corporation 82371SB PIIX3 USB [Natoma/Triton II] (rev 01)
00:01.3 Bridge: Intel Corporation 82371AB/EB/MB PIIX4 ACPI (rev 03)
00:02.0 VGA compatible controller: Cirrus Logic GD 5446
00:03.0 System peripheral: Intel Corporation 6300ESB Watchdog Timer
00:04.0 Unclassified device [00ff]: Red Hat, Inc Virtio memory balloon
00:05.0 Ethernet controller: Red Hat, Inc Virtio network device
00:06.0 Ethernet controller: Red Hat, Inc Virtio network device
サポートされている Linux ドライバの完全なリストを次に示します。
タイプ |
PCI ベンダー/デバイス ID |
ドライバ名 |
||
---|---|---|---|---|
VIRTIO(KVM 用の準仮想 NIC) |
0x10af / 0x1000 |
virtio_net |
||
VMXNET3(VMware 用の準仮想 NIC) |
0x15ad / 0x07b0 |
vmxnet3 |
||
Intel 10 ギガビットイーサネット |
0x8086 / 0x10b6 0x8086 / 0x10c6 0x8086 / 0x10c7 0x8086 / 0x10c8 0x8086 / 0x150b 0x8086 / 0x10dd 0x8086 / 0x10ec 0x8086 / 0x10f1 0x8086 / 0x10e1 0x8086 / 0x10db 0x8086 / 0x1508 0x8086 / 0x10f7 0x8086 / 0x10fc 0x8086 / 0x1517 0x8086 / 0x10fb 0x8086 / 0x1507 0x8086 / 0x1514 0x8086 / 0x10f9 0x8086 / 0x152a 0x8086 / 0x1529 0x8086 / 0x151c 0x8086 / 0x10f8 0x8086 / 0x1528 0x8086 / 0x154d 0x8086 / 0x154f 0x8086 / 0x1557 |
ixgbe |
||
Intel 10 ギガビット NIC 仮想機能 |
0x8086 / 0x10ed 0x8086 / 0x1515 |
ixgbevf |
||
Cisco UCS NIC |
0x1137 / 0x0043 0x1137 / 0x0044 0x1137 / 0x0071 |
enic |
||
Mellanox ConnectX-5
|
0x15b3 / 0x1017 0x15b3 / 0x1018 |
mlx5_core |
||
Intel XL 710 ファミリ NIC(PF) |
0x8086 / 0x1572(40 ギガ) 0x8086 / 0x1574(40 ギガ) 0x8086 / 0x1580(40 ギガ) 0x8086 / 0x1581(40 ギガ) 0x8086 / 0x1583(40 ギガ) 0x8086 / 0x1584(40 ギガ) 0x8086 / 0x1585(40 ギガ) 0x8086 / 0x158a(25 ギガ) 0x8086 / 0x158b(25 ギガ) |
i40e** |
||
Intel XL 710 ファミリ NIC 仮想機能 |
0x8086 / 0x154c |
i40evf |
* * 注:i40eドライバの使用時に、ホスト上で作成された SRIOV VF に対して MAC アドレスの割り当てが動的に行われないという既知の問題が存在します。StarOS VM を起動するには、MAC アドレスの割り当てが必要です。回避策として、MAC アドレスの割り当てはホストから設定する必要があります。詳細は次のリンクを参照してください。https://www.intel.com/content/dam/www/public/us/en/documents/technology-briefs/xl710-sr-iov-config-guide-gbe-linux-brief.pdf
起動パラメータの設定
起動パラメータファイルを作成しない場合は、デフォルトファイルが使用されます。起動パラメータファイルを作成する場合は、このタスクで説明されているすべてのパラメータを定義する必要があります。
始める前に
VM インターフェイスにおけるインターフェイス識別子の決定の詳細については、ネットワーク インターフェイス ロールおよび ネットワーク インターフェイス ID を参照してください。
手順
ステップ 1 |
CARDSLOT=slot-number slot_number は、スロット番号または VM を示す 1 ~ 32 の整数です。CF スロットには 1 または 2 を指定できます。SF スロットの範囲は 3 ~ 48 です。 |
ステップ 2 |
CARDTYPE=card-type card-type は、VM が CF か SF かを識別します。
|
ステップ 3 |
interface-role_INTERFACE=interface-id interface-role の有効な値は次のとおりです。
たとえば、DI_INTERFACE=interface-id です。 インターフェイスロールの詳細については、ネットワーク インターフェイス ロールを参照してください 。 interface-id の有効な値は次のとおりです。
インターフェイス識別子の決定については、ネットワーク インターフェイス IDを参照してください。 例:この例では、MAC アドレスでインターフェイスを識別します。
この例では、ゲスト PCI アドレスでインターフェイスを識別します。
この例では、インターフェイスのタイプ(1 番目の virtio インターフェイス)でインターフェイスを識別します。
例:この例では、インターフェイスをネットワーク ボンド インターフェイスとして識別します。次に、MAC アドレス、PCI 識別子、およびインターフェイスタイプを使用してインターフェイスを識別する例を示します。
|
ネットワーク インターフェイス ボンディングの設定
システムは、ネットワーク インターフェイスのペアをアクティブとスタンバイの結合インターフェイスに設定することをサポートしています。一度に 1 つのインターフェイスだけがアクティブになり、障害の検出は物理リンクの損失に限定されます。このタスクを使用して、結合インターフェイスを設定します。
すべてのボンディングの変数名は、interface-role _BOND 形式を使用します。インターフェイスロールについては、ネットワーク インターフェイス ロール を参照してください。
始める前に
このタスクで説明されているすべての起動パラメータはオプションです。これらのパラメータが必要な場合は、起動パラメータの設定 で説明されている必須のパラメータとともに、起動パラメータファイルに追加してください。
手順
ステップ 1 |
interface-role _BOND_PRIMARY=interface-id 特定のインターフェイスが時間の大半をアクティブにするように設定している場合は、プライマリ スレーブ インターフェイスを設定します。デフォルトの結合設定では、プライマリスレーブは選択されません。 インターフェイスロールについては、ネットワーク インターフェイス ロール を参照してください。インターフェイス識別子については、ネットワーク インターフェイス ID を参照してください 。
例:次の例では、MAC アドレスを使用してプライマリインターフェイスを指定します。
次に、PCI 識別子を使用してプライマリインターフェイスを指定する例を示します。
次の例では、インターフェイスタイプの識別子を使用してプライマリインターフェイスを指定します。 例:
|
||
ステップ 2 |
interface-role _BOND_MII_POLL = poll-interval MII がリンク検出に使用される場合に使用するポーリング間隔(ミリ秒単位)を指定します。ポーリング間隔は 0 ~ 1000 の範囲で指定できます。デフォルトは 100 です。 |
||
ステップ 3 |
interface-role _BOND_MII_UPDELAY=slave-enable-delay リンクの検出に MII が使用されている場合は、リンクの障害後にスレーブインターフェイスを有効にする前にリンクが安定するまでの待機時間を指定します。リンク状態は、最初に検出されたときにバウンスできます。この遅延により、インターフェイスを使用する前にリンクを安定させることができます。これにより、結合インターフェイスに対してアクティブなスレーブの過剰なフリップが回避されます。 スレーブの有効化遅延は、MII ポーリング間隔の倍数である必要があります。値はミリ秒単位で、デフォルトは 0 です。 |
||
ステップ 4 |
interface-role _BOND_MII_DOWNDELAY=slave-disable-delay オプションです。この機能を使用すると、リンク検出に MII が使用されている場合に、スレーブインターフェイスがダウンしていることを宣言する前に、ボンドが待機するようになります。スレーブの無効化遅延は、MII ポーリング間隔の倍数である必要があります。値はミリ秒単位で、デフォルトは 0 です。 |
VNFM インターフェイスの設定
仮想ネットワーク機能マネージャ(VNFM)インターフェイスは、各 VM と VNFM の間で通信するように設計されています。このインターフェイスはメインのアプリケーションの前に起動され、起動パラメータのみを使用して設定できます。デフォルトでは、VNFM インターフェイスは無効になっています。
VNFM インターフェイスを設定するには、次のタスクを実行します。
始める前に
このタスクで説明されているすべての起動パラメータはオプションです。これらのパラメータが必要な場合は、起動パラメータの設定 で説明されている必須のパラメータとともに、起動パラメータファイルに追加してください。
手順
ステップ 1 |
VNFM_IPV4_ENABLE={true | false} VNFM インターフェイスを有効にします。 |
ステップ 2 |
VNFM_CARTRIDGE_AGENT={true | false} カートリッジエージェントを有効にします。VNFM がカートリッジエージェントを使用している場合は、これを有効にする必要があります。 |
ステップ 3 |
VNFM_IPV4_DHCP_ENABLE={true | false} VNFM 上で DHCP を有効にします。 |
ステップ 4 |
VNFM_IPV4_ADDRESS=x.x.x.x DHCP が使用されていない VNFM の IP アドレスを指定します。 |
ステップ 5 |
VNFM_IPV4_NETMASK=x.x.x.x DHCP が使用されていない VNFM の IP アドレスのネットマスクを指定します。 |
ステップ 6 |
VNFM_IPV4_GATEWAY=x.x.x.x DHCP が使用されていない VNFM の IP アドレスのゲートウェイを指定します。 |
VNFM インターフェイスオプション
(注) |
これらの設定オプションは任意です。 |
仮想ネットワーク機能マネージャ(VNFM)インターフェイスは、各 VM と VNFM の間で通信するように設計されています。VNFM インターフェイスはメインアプリケーションの前に初期化するため、インターフェイスを設定できるのは起動パラメータのみとなります。
デフォルトでは、VNFM インターフェイスは無効になっています。
VNFM IPv4 インターフェイスの有効化
デフォルト値は [False](無効)です。
変数 |
有効な値 |
---|---|
VNFM_IPV4_ENABLE |
True または False |
IPv4 DHCP クライアントの設定
変数 |
有効な値 |
---|---|
VNFM_IPV4_DHCP_ENABLE |
True または False |
IPv4 スタティック IP の設定
(注) |
IPv4 DHCP クライアントが有効になっている場合、スタティック設定パラメータは無視されます。 |
変数 |
有効な値 |
---|---|
VNFM_IPV4_ADDRESS |
x.x.x.x |
VNFM_IPV4_NETMASK |
x.x.x.x |
VNFM_IPV4_GATEWAY |
x.x.x.x |
VNFM IPv6 インターフェイスを有効にします。
変数 |
有効な値 |
---|---|
VNFM_IPV6_ENABLE |
True または False |
IPv6 スタティック IP 設定の有効化
変数 |
有効な値 |
---|---|
VNFM_IPV6_STATIC_ENABLE |
True または False |
True に設定すると、次の項に示すように、スタティック IP パラメータの設定がインターフェイスに適用されます。False に設定すると、インターフェイスはステートレス自動設定(RFC4862)と DHCPv6 の両方を使用してインターフェイスのアドレスを設定しようとします。
IPv6 スタティック IP の設定
(注) |
「VNFM_IPV6_ENABLE」パラメータ値が false に設定されている場合、スタティック設定パラメータは無視されます。IPv6 アドレスフィールドは、RFC 5952 に準拠している必要があります。プレフィックスは /64 で固定されています。 |
変数 |
有効な値 |
---|---|
VNFM_IPV6_ADDRESS |
x:x:x:x:x:x:x:x |
VNFM_IPV6_GATEWAY |
x:x:x:x:x:x:x:x |
DI ネットワーク VLAN の設定
DI ネットワークには、使用可能な一意の分離ネットワークが必要です。パススルーインターフェイスを使用する場合、カスタマーネットワークでの VPC-DI インスタンスの分離を容易にするために、VLAN ID を設定できます。オプションとして、ホストに専用ポートがある場合は、DI ネットワーク VLAN をホストまたは L2 スイッチでタグ付けすることもできます。
VLAN を設定するには、このタスクを実行します。
始める前に
このタスクで説明されているすべての起動パラメータはオプションです。これらのパラメータが必要な場合は、起動パラメータの設定 で説明されている必須のパラメータとともに、起動パラメータファイルに追加してください。
手順
DI_Internal_VLANID=vlan-id 内部 DI ネットワークの VLAN ID を指定します。値の範囲は 1 ~ 4094 です。 例:
|
IFTASK の調整可能なパラメータの設定
デフォルトでは、DPDK は CPU コアの 30% を内部フォワーダタスク (IFtask)のプロセスに割り当てます。これらの起動パラメータを使用して、IFTASK に割り当てられたリソースを設定できます。IFTASK の CPU コア割り当てに関する情報を表示するには、show cpu info と show cpu verbose コマンドを使用します。
(注) |
これらは、細心の注意を払って設定する必要があるオプションのパラメータです。 |
手順
ステップ 1 |
(オプション)IFTASK_CORES=percentage-of-cores IFTASK に割り当てる CPU コアの割合を指定します。値の範囲は 0 ~ 100パーセントです。デフォルトは 30 です。 |
||
ステップ 2 |
(オプション)MCDMA_THREAD_DISABLE=percentage-of-iftask-cores MCDMA と VNPU の分割を使用するのではなく、すべてのコアで PMD を実行するには、MCDMA_THREAD_DISABLE パラメータを 1 に設定します。 |
||
ステップ 3 |
(オプション)IFTASK_SERVICE_TYPE=value サービスメモリを計算しサービス固有の機能を有効にするために展開するサービスタイプを指定します。次のサービスタイプを指定できます。
デフォルトは 0 です。 |
||
ステップ 4 |
(オプション)IFTASK_CRYPTO_CORES=value IFTASK_SERVICE_TYPE が「2」(EPDG)に設定されている場合、このパラメータは、暗号処理に割り当てる iftask コアの割合を指定します。値の範囲は 0 ~ 50パーセントですが、専用のコアの上限は 4 です。デフォルトは 0 です。
|
||
ステップ 5 |
(オプション)IFTASK_DISABLE_NUMA_OPT=value 複数の NUMA ノードがホストによって VM に提供されている場合でも、この設定を使用して NUMA 最適化を無効にします。このオプションは、NUMAの最適化が何らかの理由で望ましくない場合に設定できます。
NUMA の最適化は、次の場合を除き、デフォルトで有効になっています。
|
||
ステップ 6 |
(オプション)IFTASK_VNPU_TX_MODE=value Ultra M 展開のコンピューティングノードには、28 個のコアがあります。これらのコアのうち 2 つは、ホストで使用するために予約されています。26 個のコアを使用すると、MCDMA 機能を実行するために使用されるコア間で MCDMA チャネルが均等に分散されます。 この設定を有効にすると、iftask 内の MCDMA 機能のコアは MCDMA コアおよび VNPU TX ルックアップコアとして均等に分割されます。
|
||
ステップ 7 |
(オプション)MULTI_SEG_MBUF_ENABLE=value リリース 21.6 以降のデフォルトでは、システムは Ixgbe pf/vf ドライバのすべてのメモリプールで、サイズの小さいバッファを使用したマルチセグメントの送受信の使用を有効にします。この機能により、IFTASK の全体的なメモリサイズが削減され、小規模な展開に適したものになります。
|
例
[local]mySystem# show cloud hardware iftask 4
Card 4:
Total number of cores on VM: 24
Number of cores for PMD only: 0
Number of cores for VNPU only: 0
Number of cores for PMD and VNPU: 3
Number of cores for MCDMA: 4
Number of cores for Crypto 0
Hugepage size: 2048 kB
Total hugepages: 3670016 kB
NPUSHM hugepages: 0 kB
CPU flags: avx sse sse2 ssse3 sse4_1 sse4_2
Poll CPU's: 1 2 3 4 5 6 7
KNI reschedule interval: 5 us
最大 IFtask スレッドサポートの改善
機能の概要と変更履歴
要約データ
該当製品または機能エリア |
すべて |
該当プラットフォーム |
VPC-DI |
機能のデフォルト |
有効、常時オン |
このリリースでの関連する変更点 |
N/A |
関連資料 |
VPC-DI システム管理ガイド |
マニュアルの変更履歴
重要 |
リリース 21.2 および N5.1 よりも前に導入された機能の改訂履歴の詳細は示していません。 |
改訂の詳細 |
リリース |
---|---|
このリリース以降、サポートされる IFtask スレッド設定の最大数は 22 コアに増えました。 |
21.8 |
最初の導入。 |
21.2 よりも前 |
変更された機能
設定されている(/tmp/iftask.cfg 内)DPDK 内部フォワーダ(IFTask)スレッドの数が 14 コアを超えている場合、IFTask はパケットをドロップするか、またはエラーを表示します。
以前の動作:現在、IFtask スレッド設定の最大数は 14 コアのみに限定されています。
新しい動作:リリース 21.8 以降、サポートされる IFtask スレッドの最大数が 22 コアに増加しました。
MTU サイズの設定
デフォルトでは、IFTASK プロセスは最大インターフェイス MTU を次のように設定します。
-
サービスインターフェイス:2,100 バイト
-
DI ネットワーク インターフェイス:7,100 バイト
これらのデフォルトを変更するには、param.cfg ファイルで次のパラメータを設定します。
パラメータ名 |
範囲 |
デフォルト値 |
---|---|---|
DI_INTERFACE_MTU= |
576-9100 |
7100 |
SERVICE_INTERFACE_MTU= |
576-9100 |
2100 |
ジャンボフレームをサポートしていないシステムの MTU サイズの設定については、サポート対象 MTU を超えるトラフィックのサポートの設定を参照してください。
サポート対象 MTU を超えるトラフィックのサポートの設定
デフォルトでは、システムが動作するにはジャンボフレームのサポートが必要です。インフラストラクチャがジャンボフレームをサポートしていない場合でも、システムを実行できます。ただし、起動パラメータファイルで DI 内部ネットワークの MTU を 1500 に指定する必要があります。これにより、IFTASK が、サポートされている MTU を超える DI ネットワークトラフィックを処理できるようになります。
始める前に
このタスクで説明されているすべての起動パラメータはオプションです。これらのパラメータが必要な場合は、起動パラメータの設定 で説明されている必須のパラメータとともに、起動パラメータファイルに追加してください。
手順
DI_INTERFACE_MTU=1500 ソフトウェアがジャンボフレームを適切に処理できるように、DI 内部ネットワークがジャンボフレームをサポートしないことを指定します。 |
起動パラメータファイルの例
この例では、2 つの VIRTIO インターフェイスを備えたスロット 1 の CF の起動パラメータファイルを示しています。
CARDSLOT=1
CARDTYPE=0x40010100
DI_INTERFACE=TYPE:enic-1
MGMT_INTERFACE=TYPE:virtio_net-2
この例では、3 つの VIRTIO インターフェイスを備えたスロット 3 の SF の起動パラメータファイルを示しています。
CARDSLOT=3
CARDTYPE=0x42020100
DI_INTERFACE=TYPE:enic-1
SERVICE1_INTERFACE=TYPE:enic-3
SERVICE2_INTERFACE=TYPE:enic-4
この例では、パススルー NIC、ボンディングが設定された CF、および VLAN 上に DI 内部ネットワークがある CF の起動パラメータファイルを示しています。
CARDSLOT=1
CARDTYPE=0x40010100
DI_INTERFACE=BOND:TYPE:enic-1,TYPE:enic-2
MGMT_INTERFACE=BOND:TYPE:ixgbe-3,TYPE:ixgbe-4
DI_INTERNAL_VLANID=10