VMware ESX の展開

前提条件とガイドライン

VMware ESX で Nexus ダッシュボード クラスタを展開する前に、次の手順を実行する必要があります。

  • ファクターから ESX が拡張性とサービス要件をサポートしていることを確認します。

    スケールとサービスのサポートと共同ホスティングは、クラスタのフォーム ファクターと、展開する予定の特定のサービスによって異なります。Nexus ダッシュボード キャパシティ プラン二ング ツールを使用して、仮想フォーム ファクタが展開要件を満たすことを確認できます。


    (注)  


    一部のサービス (Nexus Dashboard Fabric Controller など) は、1 つ以上の特定のユース ケースに対して単一の ESX 仮想ノードのみを必要とする場合があります。その場合、キャパシティ プランニング ツールで要件が示されるので、次のセクションの追加のノード展開手順をスキップできます。


  • 前提条件:Nexus Dashboard に記載されている一般的な前提条件を確認して完了します。

    この文書は、ベースとなる Nexus ダッシュボードクラスタを最初に展開する方法について説明するものである点に留意してください。追加ノード(セカンダリまたはスタンバイなど)で既存のクラスタを拡張する場合は、代わりにCisco Nexus ダッシュボード ユーザー ガイドの「インフラストラクチャの管理」の章を参照してください。これは、Nexus ダッシュボード UI またはオンラインでCisco Nexus ダッシュボード ユーザー ガイドから利用できます。

  • 展開予定のサービスのリリース ノートに説明されている追加の前提条件を確認し、条件を満たすようにしてください。

  • Nexus ダッシュボード VM に使用される CPU ファミリが AVX 命令セットをサポートしていることを確認します。

  • VMware ESXで展開する場合、2種類のノードを展開できます。

    • データノード:追加のリソースを必要とする特定のサービス向けに設計された、より高いシステム要件を持つノード プロファイル。

    • アプリケーション ノード:ほとんどのサービスに使用できる、リソース フットプリントが小さいノード プロファイル。


    (注)  


    一部の大規模な Nexus Dashboard ファブリックコントローラの展開では、追加のセカンダリ ノードが必要になる場合があります。NDFC クラスタにセカンダリノードを追加する予定の場合には、OVA-App プロファイルを使用してすべてのノード(最初の 3 ノードのクラスタと追加のセカンダリ ノード)を展開できます。詳細なスケール情報は、使用しているリリースの Cisco Nexus Dashboard ファブリック コントローラの検証済みスケーラビリティ ガイドで入手できます。


    十分なシステム リソースをもつことを確認します。

    表 1. 導入要件

    データノードの要件

    アプリケーションノードの要件

    • VMware ESXi 7.0、7.0.1、7.0.2、7.0.3、8.0.2

    • vCenter を使用して展開する場合、VMware vCenter 7.0.1、7.0.2、7.0.3、8.0.2

    • 各 VM には次のものが必要です。

      • 少なくとも 2.2 GHz の物理予約された 32 個の vCPU

      • 物理予約された 128GB の RAM

      • データ ボリューム用の 3TB SSD ストレージとシステム ボリューム用の追加の 50GB

        データノードは、次の最小パフォーマンス要件を満たすストレージに展開する必要があります。

        • SSD は、データストアに直接接続するか、RAID ホストバスアダプタ(HBA)を使用している場合は JBOD モードで接続する必要があります。

        • SSD は、混合使用/アプリケーション用に最適化する必要があります(読み取り最適化ではありません)。

        • 4K ランダム読み取り IOPS:93000

        • 4K ランダム書き込み IOPS:31000

    • 各Nexus Dashboardノードは、異なるESXiサーバーに展開することを推奨します。

    • VMware ESXi 7.0、7.0.1、7.0.2、7.0.3、8.0.2

    • vCenter を使用して展開する場合、VMware vCenter 7.0.1、7.0.2、7.0.3、8.0.2

    • 各 VM には次のものが必要です。

      • 少なくとも 2.2 GHz の物理予約された 16 個の vCPU

      • 物理予約された 64GB の RAM

      • データ ボリューム用に 500GB HDD または SSD ストレージ、システム ボリューム用に追加の 50GB

        一部のサービスでは、アプリ ノードをより高速な SSD ストレージに展開する必要がありますが、他のサービスでは HDD をサポートしています。Nexus ダッシュボード キャパシティ プランニング ツールをチェックして、正しいタイプのストレージを使用していることを確認してください。

        (注)  

         

        Nexus Dashboard リリース3.0(1i) および Nexus Dashboard Insightsリリース6.3(1)以降では、Insights サービスにOVA-Appノード プロファイルを使用できます。ただし、Insights のホスティングに使用されるノード VM を展開する場合は、デフォルトの 500 GB のディスク要件から 1536 GB に変更する必要があります。

    • 各 Nexus ダッシュボードノードは、異なる ESXi サーバに展開することを推奨します。

  • クラスタ ノードのデータ インターフェイスの VLAN ID を設定する場合は、仮想ゲスト VLAN タギング(VGT)モードの vCenter のデータ インターフェイス ポート グループで VLAN 4095 を有効にする必要があります。

    Nexus Dashboard データ インターフェイスの VLAN ID を指定する場合、パケットはその VLAN ID を持つ Dot1q タグを伝送する必要があります。vSwitch のポート グループに明示的な VLAN タグを設定し、Nexus Dashboard VM の VNIC にアタッチすると、vSwitch は、パケットをその VNIC に送信する前に、アップリンクからのパケットから Dot1q タグを削除します。vND ノードは Dot1q タグを想定しているため、すべての VLAN を許可するには、データ インターフェイス ポート グループで VLAN 4095 を有効にする必要があります。

  • 各ノードの VM を展開したら、次のセクションの展開手順で説明されているように、VMware ツールの定期的な時刻同期が無効になっていることを確認します。

  • VMware vMotion は Nexus ダッシュボード クラスタ ノードではサポートされていません。

  • VMware 分散リソース スケジューラ (DRS) は、Nexus ダッシュボード クラスタ ノードではサポートされていません。

    ESXi クラスタ レベルで DRS を有効にしている場合は、次のセクションで説明するように、展開時に Nexus ダッシュボード VM に対して明示的に無効にする必要があります。

  • コンテンツ ライブラリによる展開はサポートされていません。

  • Nexus ダッシュボードはプラットフォーム インフラストラクチャであるため、すべてのサービスを停止することはできません。

    つまり、デバッグ目的などで、仮想マシンのスナップショットを作成する場合、スナップショットではすべての Nexus ダッシュボード サービスが実行されている必要があります。

  • ノードを ESXi に直接展開するか、vCenter を使用して展開するかを選択できます。

    vCenter を使用して展開する場合は、VMware vCenter を使用している Nexus ダッシュボードの展開 で説明されている手順に従います。

    ESXi に直接展開する場合は、VMware ESXi での Nexus ダッシュボードの展開 で説明されている手順に従います。


    (注)  


    OVA-App ノード プロファイルを使用して Nexus Dashboard Insights を展開する場合は、vCenter を使用して展開する必要があります。

    Nexus Dashboard Insightsには、OVA-Appノード プロファイルのデフォルト値よりも大きなディスク サイズが必要です。OVA-App ノードプロファイルを使用して NDI を展開する場合は、VM の展開時に OVA-App ノードのデフォルトのディスク サイズを 500GB から 1.5TB に変更する必要があります。ディスク サイズのカスタマイズは、VMware vCenter を介して展開する場合にのみサポートされます。Insights の詳細な要件については、Nexus Dashboard Capacity Planningツールを参照してください。


VMware vCenter を使用している Nexus ダッシュボードの展開

ここでは、VMware vCenter を使用して Cisco Nexus ダッシュボード クラスタを展開する方法について説明します。ESXi に直接展開する場合は、代わりに VMware ESXi での Nexus ダッシュボードの展開 で説明されている手順に従ってください。

始める前に

手順


ステップ 1

Cisco Nexus Dashboard OVAイメージを取得します。

  1. [ソフトウェア ダウンロード(Software Download)] ページを参照します。

    https://software.cisco.com/download/home/286327743/type/286328258/

  2. 左側のサイドバーから、ダウンロードする Nexus ダッシュボードのリリースバージョンを選択します。

  3. Nexus ダッシュボード OVA イメージの横にあるダウンロードをクリックします(nd-dk9. <version>.ova)。

ステップ 2

VMware vCenter にログインします。

vSphereクライアントのバージョンによっては、設定画面の場所と順序が若干異なる場合があります。次の手順では、VMware vSphere Client 7.0を使用した導入の詳細を示します。

ステップ 3

新しい VM 展開を開始します。

  1. VM を展開する ESX ホストを右クリックします。

  2. [OVFテンプレートの展開(Deploy OVF Template)] を選択します。

    [Deploy OVF Template] ウィザードが表示されます。

ステップ 4

[OVF テンプレートの選択(Select an OVF template)] 画面で、OVAイメージを指定します。

  1. イメージの場所を指定します。

    環境内の Web サーバでイメージをホストしている場合は、[URL] を選択し、イメージの URL を指定します。

    イメージがローカルの場合は、[ローカル ファイル(Local file)] を選択し、[ファイルの選択(Choose Files)] をクリックしてダウンロードしたOVAファイルを選択します。

  2. [次へ(Next)] をクリックして続行します。

ステップ 5

[名前とフォルダの選択(Select a name and folder)] 画面で、VM の名前と場所を入力します。

  1. 仮想マシンの名前を入力します。

    たとえば、nd-ova-node1 です。

  2. 仮想マシンのストレージ場所を選択します。

  3. [次へ(Next)] をクリックして、続行します。

ステップ 6

[コンピューティング リソースの選択(Select a compute resource)] 画面で、ESX ホストを選択します。

  1. 仮想マシンの vCenter データセンターと ESX ホストを選択します。

  2. [次へ(Next)] をクリックして、続行します。

ステップ 7

[詳細の確認(Review details)] 画面で、[次へ(Next)] をクリックして続行します。

ステップ 8

[設定] 画面で、展開するノードプロファイルを選択します。

  1. ユースケースの要件に基づいて、アプリまたはデータ ノード プロファイルを選択します。

    ノードプロファイルの詳細については、「前提条件とガイドライン」を参照してください。

  2. [次へ(Next)] をクリックして、続行します。

ステップ 9

[ストレージの選択(Select storage)] 画面で、ストレージ情報を入力します。

  1. [仮想ディスク フォーマットの選択(Select virtual disk format)] ドロップダウンから [シック プロビジョニング(Thick Provisioning)] を選択します。

  2. [この仮想マシンのストレージ DRS を無効にする(Disable Storage DRS for this virtual machine)] チェックボックスをオンにします。

    Nexus DashboardはVMware DRSをサポートしていません。ESXi クラスタ レベルで DRS が有効になっている場合は、[この仮想マシンのストレージ DRS を無効にする(Disable Storage DRS for this virtual machine)] オプションをオンにすることをお勧めします。

  3. 仮想マシンのデータストアを選択します。

    ノードごとに一意のデータストアを推奨します。

  4. [次へ(Next)] をクリックして、続行します。

ステップ 10

[ネットワークの選択] 画面で、Nexus ダッシュボードの管理およびデータ ネットワークの VM ネットワークを選択し、[次へ] をクリックして続行します。

Nexus ダッシュボードクラスタには 2 つのネットワークが必要です。

  • fabric0 は、Nexus ダッシュボードクラスタのデータ ネットワークに使用されます

  • mgmt0 は、Nexus ダッシュボードクラスタの管理ネットワークに使用されます。

これらのネットワークの詳細については、「展開の概要と要件」の章の「前提条件とガイドライン」を参照してください。

ステップ 11

[テンプレートのカスタマイズ(Customize template)] 画面で、必要な情報を入力します。

  1. ノードのデータ ボリュームのサイズを指定します。

    デフォルト値は、展開するノードのタイプに基づいて事前に入力されます。アプリケーションノードには単一の500 GBディスクがあり、データノードには単一の 3TB ディスクがあります。データ ボリュームに加えて、2 つ目の 50GB のシステム ボリュームも構成されますが、カスタマイズすることはできません。

    (注)  

     

    ノードのカスタム ディスク サイズを指定する場合は、VM の展開時に指定する必要があります。ノードの起動後のディスクのサイズ変更は、Nexus Dashboard ではサポートされていません。

    OVA-App ノードプロファイルを使用して Nexus Dashboard Insights を展開する場合は、データディスクサイズをデフォルトの 500GB 値から 1536GB に変更する必要があります。クラスタのサイジング、システム リソース要件、およびノード プロファイルのサポートの詳細については、Nexus Dashboard Capacity Planningを参照してください。

  2. パスワードを入力して確認します。

    このパスワードは、各ノードの rescue-user アカウントに使用されます。

    (注)  

     

    すべてのノードに同じパスワードを指定する必要があります。同じパスワードを指定しないと、クラスタの作成に失敗します。

  3. 管理ネットワークの IP アドレスとネットマスクを入力します。

  4. 管理ネットワークの IP ゲートウェイを入力します。

  5. [次へ(Next)] をクリックして次に進みます。

ステップ 12

[完了準備(Ready to complete)] 画面で、すべての情報が正しいことを確認し、[終了(Finish)] をクリックして最初のノードの展開を開始します。

ステップ 13

以前のステップを繰り返し、2 番目と 3 番目のノードを展開します。

(注)  

 

単一のノードクラスタを展開している場合は、この手順をスキップできます。

最初のノードの VM 展開が完了するのを待つ必要はありません。他の 2 つのノードの展開を同時に開始できます。2 番目と 3 番目のノードを展開する手順は、最初のノードの場合と同じです。

ステップ 14

VM の展開が完了するまで待ちます。

ステップ 15

VMware ツールの定期的な時刻同期が無効になっていることを確認してから、VM を起動します。

時刻の同期を無効にするには、次の手順を実行します。

  1. VM を右クリックして、[設定の編集(Edit Settings)] を選択します。

  2. [設定の編集(Edit Settings)] ウィンドウで、[VMオプション(VM Options)] タブを選択します。

  3. [VMware ツール(VMware Tools)] カテゴリを展開し、[ホストとゲスト時刻の同期(Synchronize guest time with host)] オプションをオフにします。

ステップ 16

ブラウザを開き、https://<node-mgmt-ip> に移動して、GUI を開きます。

残りの設定ワークフローは、ノードの GUI の 1 つから実行します。展開したノードのいずれか 1 つを選択して、ブートストラッププロセスを開始できます。他の 2 つのノードにログインしたり、これらを直接構成したりする必要はありません。

前の手順で入力したパスワードを入力し、[ログイン(Login)] をクリックします。

ステップ 17

[クラスタの詳細(Cluster Details)] を入力します。

[クラスタ起動(Cluster Bringup)] ウィザードの [クラスタの詳細(Cluster Details)] 画面で、次の情報を入力します。

  1. Nexus ダッシュボード クラスタの [クラスタ名(Cluster Name)] を入力します。

    クラスタ名は、 RFC-1123 の要件に従う必要があります。

  2. (オプション)クラスタの IPv6 機能を有効にする場合は、[IPv6 を有効にする(Enable IPv6)] チェックボックスをオンにします。

  3. [+DNS プロバイダの追加(+Add DNS Provider)] をクリックして、1 つ以上の DNS サーバを追加します。

    情報を入力した後、チェックマーク アイコンをクリックして保存します。

  4. (オプション)[+DNS 検索ドメインの追加(+Add DNS Search Domain )] をクリックして、検索ドメインを追加します。

    情報を入力した後、チェックマーク アイコンをクリックして保存します。

  5. (オプション)NTP サーバー認証を有効にする場合には、[NTP 認証(NTP Authentication)] チェックボックスをオンにし、[NTP キーの追加(Add NTP Key)]をクリックします。

    次のフィールドで、以下の情報を提供します。

    • NTP キー:Nexus ダッシュボードと NTP サーバ間の NTP トラフィックを認証するために使用される暗号キー。次の手順で NTP サーバーを定義します。複数の NTP サーバで同じ NTP キーを使用できます。

    • キー ID:各 NTP キーに一意のキー ID を割り当てる必要があります。この ID は、NTP パケットの検証時に使用する適切なキーを識別するために使用されます。

    • 認証タイプ:このリリースでは、MD5SHA、および AES128CMAC 認証タイプがサポートされています。

    • このキーが信頼できるかどうかを選択します。信頼できないキーは NTP 認証に使用できません。

    (注)  

     

    情報を入力した後、チェックマーク アイコンをクリックして保存します。

    NTP 認証の要件とガイドラインの完全なリストについては、前提条件とガイドライン を参照してください。

  6. [+ NTP ホスト名/IP アドレスの追加(+Add NTP Host Name/IP Address)] をクリックして、1 つ以上の NTP サーバを追加します。

    次のフィールドで、以下の情報を提供します。

    • NTP ホスト:IP アドレスを指定する必要があります。完全修飾ドメイン名(FQDN)はサポートされていません。

    • キー ID:このサーバーの NTP 認証を有効にする場合は、前の手順で定義した NTP キーのキー ID を指定します。

      NTP 認証が無効になっている場合、このフィールドはグレー表示されます。

    • この NTP サーバーを [優先(Preferred)] にするかどうかを選択します。

    情報を入力した後、チェックマーク アイコンをクリックして保存します。

    (注)  

     

    ログインしているノードに IPv4 アドレスのみが設定されているが、前の手順で [IPv6 を有効にする(Enable IPv6)] をオンにして NTP サーバーの IPv6 アドレスを指定した場合は、次の検証エラーが表示されます。

    これは、ノードに IPv6 アドレスがまだなく(次の手順で指定します)、NTP サーバーの IPv6 アドレスに接続できないためです。

    この場合、次の手順の説明に従って他の必要な情報の入力を完了し、[次へ(Next)] をクリックして次の画面に進み、ノードの IPv6 アドレスを入力します。

    追加の NTP サーバーを指定する場合は、[+NTP ホストの追加(+Add NTP Host)] を再度クリックし、このサブステップを繰り返します。

  7. [プロキシ サーバー(Proxy Server)] を指定し、[検証(Validate)] をクリックします。

    Cisco Cloud に直接接続できないクラスタの場合は、接続を確立するためにプロキシ サーバを構成することをお勧めします。これにより、ファブリック内の非適合ハードウェアおよびソフトウェアにさらされるリスクを軽減できます。

    [+無視するホストを追加(+Add Ignore Host)] をクリックして、プロキシをスキップする 1 つ以上の IP アドレス通信を提供することもできます。

    プロキシ サーバーでは、次の URL が有効になっている必要があります。

    dcappcenter.cisco.com
    svc.intersight.com
    svc.ucs-connect.com
    svc-static1.intersight.com
    svc-static1.ucs-connect.com

    プロキシ設定をスキップする場合は、[プロキシをスキップ(Skip Proxy)] をクリックします。

  8. (オプション) プロキシ サーバで認証が必要な場合は、[プロキシで認証が必要(Authentication required for Proxy)][はい(Yes)] に変更し、ログイン資格情報を指定します。

  9. (オプション) [詳細設定(Advanced Settings)] カテゴリを展開し、必要に応じて設定を変更します。

    詳細設定では、次の設定を行うことができます。

    • カスタム App NetworkService Network を提供します。

      アプリケーション オーバーレイ ネットワークは、Nexus ダッシュボードで実行されるアプリケーションのサービスで使用されるアドレス空間を定義します。このフィールドには、デフォルトの 172.17.0.1/16 値が事前に入力されています。

      サービス ネットワークは、Nexus ダッシュボードとそのプロセスで使用される内部ネットワークです。このフィールドには、デフォルトの 100.80.0.0/16 値が事前に入力されています。

      以前に [IPv6 を有効にする(Enable IPv6)] オプションをオンにした場合は、アプリケーション ネットワークとサービス ネットワークの IPv6 サブネットを定義することもできます。

      アプリケーションおよびサービスネットワークについては、このドキュメントの前の 前提条件とガイドライン の項で説明します。

  10. [次へ(Next)] をクリックして続行します。

ステップ 18

[ノードの詳細(Node Details)] 画面で、最初のノードの情報を更新します。

前の手順の初期ノード構成時に現在ログインしているノードの管理ネットワークと IP アドレスを定義しましたが、他のプライマリノードを追加し、クラスタを作成する進む前に、ノードのデータ ネットワーク情報も指定する必要があります。

  1. 最初のノードの横にある [編集(Edit)]ボタンをクリックします。

    ノードの[シリアル番号(Serial Number)][管理ネットワーク(Management Network)]情報、および[タイプ(Type)]が自動的に入力されます。ただし、他の情報は手動で入力する必要があります。

  2. ノードの [名前(Name)] を入力します。

    ノードの 名前 はホスト名として設定されるため、 RFC-1123 の要件に従う必要があります。

  3. [タイプ(Type)] ドロップダウンから [プライマリ(Primary)] を選択します。

    クラスタの最初の 3 つのノードは [プライマリ( Primary)] に設定する必要があります。サービスの共同ホスティングや、より大規模なスケールを有効にする必要がある場合は、後の手順でセカンダリ ノードを追加します。

  4. [データ ネットワーク(Data Network)] エリアで、ノードのデータ ネットワークを提供します。

    データ ネットワークの IP アドレス、ネットマスク、およびゲートウェイを指定する必要があります。オプションで、ネットワークの VLAN ID を指定することもできます。ほとんどの導入では、[VLAN ID] フィールドを空白のままにできます。

    前の画面で IPv6 機能を有効にした場合は、IPv6 アドレス、ネットマスク、およびゲートウェイも入力する必要があります。

    (注)  

     

    IPv6 情報を提供する場合は、クラスタ ブートストラップ プロセス中に行う必要があります。後で IP 構成を変更するには、クラスタを再展開する必要があります。

    クラスタ内のすべてのノードは、 IPv4 のみ、IPv6 のみ、またはデュアル スタック IPv4/IPv6 のいずれかで構成する必要があります。

  5. (オプション)クラスタが L3 HA モードで展開されている場合は、データ ネットワークの [BGP を有効にする(Enable BGP)] をオンにします。

    Insights やファブリック コントローラなどの、一部のサービスで使用される永続的な IP 機能には、BGP 構成が必要です。この機能については、前提条件とガイドライン と『Cisco Nexus Dashboard ユーザーガイド』の「永続的な IP アドレス」セクションで詳しく説明されています。

    (注)  

     

    BGP をこの時点で、またはクラスタの展開後に Nexus ダッシュボード GUI で有効にすることができます。

    BGP を有効にする際、次の情報も入力する必要があります。

    • このノードの ASN(BGP 自律システム番号)。

      すべてのノードに同じ ASN を構成することも、ノードごとに異なる ASN を構成することもできます。

    • 純粋な IPv6 の場合、このノードのルータ ID

      ルータ ID は、1.1.1.1 などの IPv4 アドレスである必要があります。

    • ピアの IPv4 または IPv6 アドレスとピアの ASN を含む BGP ピアの詳細

  6. [Save]をクリックして、変更内容を保存します。

ステップ 19

[ノードの詳細(Node Details)] 画面で、[ノードの追加(Add Node)] をクリックして、クラスタに 2 番目のノードを追加します。

単一ノード クラスタを展開する場合は、この手順をスキップします。

  1. [展開の詳細(Deployment Details)] エリアで、2 番目のノードに [管理 IP アドレス(Management IP Address)] および [パスワード(Password)] を指定します。

    ノードの初期構成手順で、管理ネットワーク情報とパスワードを定義しました。

  2. [検証(Validate)] をクリックして、ノードへの接続を確認します。

    接続が検証されると、ノードのシリアル番号管理ネットワーク情報が自動的に入力されます。

  3. ノードの [名前(Name)] を入力します。

  4. [タイプ(Type)] ドロップダウンから [プライマリ(Primary)] を選択します。

    クラスタの最初の 3 つのノードは [プライマリ( Primary)] に設定する必要があります。サービスの共同ホスティングや、より大規模なスケールを有効にする必要がある場合は、後の手順でセカンダリ ノードを追加します。

  5. [データ ネットワーク(Data Network)] エリアで、ノードのデータ ネットワークを提供します。

    データ ネットワークの IP アドレス、ネットマスク、およびゲートウェイを指定する必要があります。オプションで、ネットワークの VLAN ID を指定することもできます。ほとんどの導入では、[VLAN ID] フィールドを空白のままにできます。

    前の画面で IPv6 機能を有効にした場合は、IPv6 アドレス、ネットマスク、およびゲートウェイも入力する必要があります。

    (注)  

     

    IPv6 情報を提供する場合は、クラスタ ブートストラップ プロセス中に行う必要があります。後で IP 構成を変更するには、クラスタを再展開する必要があります。

    クラスタ内のすべてのノードは、 IPv4 のみ、IPv6 のみ、またはデュアル スタック IPv4/IPv6 のいずれかで構成する必要があります。

  6. (任意)必要に応じて、データ ネットワークの BGP を有効にします

    Insights やファブリック コントローラなどの、一部のサービスで使用される永続的な IP 機能には、BGP 構成が必要です。この機能については、前提条件とガイドライン と『Cisco Nexus Dashboard ユーザーガイド』の「永続的な IP アドレス」セクションで詳しく説明されています。

    (注)  

     

    BGP をこの時点で、またはクラスタの展開後に Nexus ダッシュボード GUI で有効にすることができます。

    BGP を有効にする際、次の情報も入力する必要があります。

    • このノードの ASN(BGP 自律システム番号)。

      すべてのノードに同じ ASN を構成することも、ノードごとに異なる ASN を構成することもできます。

    • 純粋な IPv6 の場合、このノードのルータ ID

      ルータ ID は、1.1.1.1 などの IPv4 アドレスである必要があります。

    • ピアの IPv4 または IPv6 アドレスとピアの ASN を含む BGP ピアの詳細

  7. [Save]をクリックして、変更内容を保存します。

  8. クラスタの最後の(3 番目の)プライマリ ノードでこの手順を繰り返します。

ステップ 20

(オプション)前の手順を繰り返して、追加のセカンダリ ノードまたはスタンバイ ノードに関する情報を入力します。

(注)  

 

クラスタで複数のサービスを同時に有効にするか、より高いスケールをサポートするには、展開時に十分な数のセカンダリ ノードを提供する必要があります。特定のユースケースに必要な追加のセカンダリノードの詳しい数については、 Nexus Dashboard クラスタ サイジング ツールを参照してください

スタンバイ ノードを今すぐ追加するか、クラスタの展開後に追加するかを選択できます。

ステップ 21

[ノードの詳細(Node Details)] ページで、入力した情報を確認し、[次へ(Next)] をクリックして続行します。

ステップ 22

クラスタのデプロイメント モードを選択します。

  1. 有効にするサービスを選択します。

    リリース 3.1(1) より前では、クラスタの初期展開が完了した後に、個々のサービスをダウンロードしてインストールする必要がありました。今では、初期インストール時にサービスを有効にするように選択できます。

    (注)  

     

    クラスタ内のノードの数によっては、一部のサービスまたは共同ホスティングのシナリオがサポートされない場合があります。必要な数のサービスを選択できない場合は、[戻る(Back)] をクリックし、前の手順で十分な数のセカンダリ ノードを指定したことを確認します。

  2. [永続サービスIP/プールの追加(Add Persistent Service IPs/Pools)] をクリックして、Insights またはファブリック コントローラ サービスに必要な 1 つ以上の永続 IP を指定します。

    永続的 IP の詳細については、ユーザー ガイドの前提条件とガイドラインのセクションを参照してください。

  3. [次へ(Next)] をクリックして続行します。

ステップ 23

[サマリー(Summary)] 画面で設定情報を見直して確認し、[保存(Save)] をクリックしてクラスタを構築します。

ノードのブート ストラップとクラスタの起動中に、全体的な進捗状況と各ノードの個々の進捗状況がUIに表示されます。ブートストラップの進行状況が表示されない場合は、ブラウザでページを手動で更新し、ステータスを更新してください。

クラスタが形成され、すべてのサービスが開始されるまでに最大 30 分かかる場合があります。クラスタの設定が完了すると、ページが Nexus ダッシュボード GUI にリロードされます。

ステップ 24

クラスタが健全であることを検証します。

クラスタが形成され、すべてのサービスが開始されるまでに最大 30 分かかる場合があります。

クラスタが使用可能になったら、ノードの管理 IP アドレスのいずれかを参照してアクセスできます。admin ユーザーのデフォルト パスワードは、最初のノードに選択した rescue-user のパスワードと同じです。この間、UI は上部に「サービスのインストールが進行中です。Nexus Dashboard の設定タスクは現在無効になっています」という意味のバナーを表示します。

すべてのクラスタが展開され、すべてのサービスが開始されたら、[概要(Overview)] ページでクラスタが正常であることを確認できます。

または、SSH を使用し、rescue-user として、ノード展開中に指定したパスワードを使っていずれかのノードにログインし、acs health コマンドを実行してクラスタの状態を確認できます。

  • クラスタが収束している間、次の出力が表示されることがあります。

    $ acs health
    k8s install is in-progress
    $ acs health
    k8s services not in desired state - [...]
    $ acs health
    k8s: Etcd cluster is not ready
  • クラスタが稼働している場合は、次の出力が表示されます。

    $ acs health
    All components are healthy

VMware ESXi での Nexus ダッシュボードの展開

ここでは、VMware ESXi で Cisco Nexus ダッシュボード クラスタを展開する方法について説明します。vCenter を使用して展開する場合は、代わりに VMware ESXi での Nexus ダッシュボードの展開 で説明されている手順に従ってください。

始める前に

手順


ステップ 1

Cisco Nexus Dashboard OVAイメージを取得します。

  1. [ソフトウェア ダウンロード(Software Download)] ページを参照します。

    https://software.cisco.com/download/home/286327743/type/286328258/

  2. 左側のサイドバーから、ダウンロードする Nexus ダッシュボードのリリースバージョンを選択します。

  3. Nexus ダッシュボード OVA イメージの横にあるダウンロードをクリックします(nd-dk9. <version>.ova)。

ステップ 2

VMware ESXi にログインします。

ESXiサーバのバージョンによっては、設定画面の場所と順序が若干異なる場合があります。次の手順では、VMware ESXi 7.0を使用した導入の詳細を示します。

ステップ 3

ホストを右クリックし、[VM の作成/登録(Create/Register VM)] を選択します。

ステップ 4

[作成タイプの選択(Select creation type)] 画面で、[OVF または OVA ファイルから仮想マシンを展開する(Deploy a virtual machine from an OVF or OVA file)] を選択し、[次へ(Next)] をクリックします。

ステップ 5

[OVF と VMDK ファイルの選択(Select OVF and VMDK files)] 画面で、最初の手順でダウンロードした仮想マシン名(nd-ova-node1 など)とOVAイメージを入力し、[次へ(Next)] をクリックします。

ステップ 6

[ストレージの選択(Select storage)] 画面で、VM のデータストアを選択し、[次へ(Next)] をクリックします。

ステップ 7

[OVF と VMDK ファイルの選択(Select OVF and VMDK files)] 画面で、最初の手順でダウンロードした仮想マシン名(nd-node1 など)とOVAイメージを入力し、[次へ(Next)] をクリックします。

ステップ 8

[展開オプション(Deployment options)] を指定します。

[展開オプション(Deployment options)] 画面で、次の情報を入力します。

  • [ネットワーク マッピング(Network mappings)] ドロップダウンから、Nexus Dashboard の管理(mgmt0)およびデータ(fabric0)インターフェイスのネットワークを選択します。

    Nexus Dashboard ネットワークについては、前提条件:Nexus Dashboard で説明しています。

  • [展開タイプ(Deployment type)] ドロップダウンから、ノード プロファイル([アプリケーション(App)] または [データ(Data)])を選択します。

    ノード プロファイルについては、前提条件とガイドライン を参照してください。

  • [ディスク プロビジョニング タイプ(Disk provisioning type)] で、[シック(Thick)] を選択します。

  • [自動的に電源をオンにする(Power on automatically)] オプションを無効にします。

ステップ 9

[完了準備(Ready to complete)] 画面で、すべての情報が正しいことを確認し、[終了(Finish)] をクリックして最初のノードの展開を開始します。

ステップ 10

以前のステップを繰り返し、2 番目と 3 番目のノードを展開します。

(注)  

 

単一のノードクラスタを展開している場合は、この手順をスキップできます。

最初のノードの展開が完了するのを待つ必要はありません。他の 2 つのノードの展開を同時に開始できます。

ステップ 11

VM の展開が完了するまで待ちます。

ステップ 12

VMware ツールの定期的な時刻同期が無効になっていることを確認してから、VM を起動します。

時刻の同期を無効にするには、次の手順を実行します。

  1. VM を右クリックして、[設定の編集(Edit Settings)] を選択します。

  2. [設定の編集(Edit Settings)] ウィンドウで、[VMオプション(VM Options)] タブを選択します。

  3. [VMware ツール(VMware Tools)] カテゴリを展開し、[ホストとゲスト時刻の同期(Synchronize guest time with host)] オプションをオフにします。

ステップ 13

ノードのコンソールのいずれかを開き、ノードの基本情報を設定します。

  1. 初期設定を開始します。

    初回セットアップユーティリティの実行を要求するプロンプトが表示されます。

    [ OK ] Started atomix-boot-setup.
           Starting Initial cloud-init job (pre-networking)...
           Starting logrotate...
           Starting logwatch...
           Starting keyhole...
    [ OK ] Started keyhole.
    [ OK ] Started logrotate.
    [ OK ] Started logwatch.
    
    Press any key to run first-boot setup on this console...
  2. admin パスワードを入力して確認します。

    このパスワードは、rescue-user SSH ログインおよび初期 GUI パスワードに使用されます。

    (注)  

     

    すべてのノードに同じパスワードを指定する必要があります。指定しない場合、クラスタ作成に失敗します。

    Admin Password:
    Reenter Admin Password:
  3. 管理ネットワーク情報を入力します。

    Management Network:
      IP Address/Mask: 192.168.9.172/24
      Gateway: 192.168.9.1
  4. 最初のノードのみ、「クラスタ リーダー」として指定します。

    クラスタ リーダー ノードにログインして、設定を完了し、クラスタの作成を完了します。

    Is this the cluster leader?: y
  5. 入力した譲歩をレビューし、確認します。

    入力した情報を変更するかどうかを尋ねられます。すべてのフィールドが正しい場合は、n を選択して続行します。入力した情報を変更する場合は、y を入力して基本設定スクリプトを再起動します。

    Please review the config
    Management network:
      Gateway: 192.168.9.1
      IP Address/Mask: 192.168.9.172/24
    Cluster leader: no
    
    Re-enter config? (y/N): n

ステップ 14

以前のステップを繰り返し、追加のノードを展開します。

単一のノードクラスタを展開している場合は、この手順をスキップできます。

マルチノードク ラスタの場合は、2 つの追加のプライマリ ノードと、特定のユースケースで必要なだけのセカンダリ ノードを展開する必要があります。必要なノードの総数は、 Nexus Dashboard キャパシティ プランニング ツールで確認できます。

最初のノードの設定が完了するのを待つ必要はありません。他の 2 つのノードの設定を同時に開始できます。

(注)  

 

すべてのノードに同じパスワードを指定する必要があります。指定しない場合、クラスタ作成に失敗します。

追加のノードを展開する手順は同じですが、クラスタ リーダーではないことを示す必要がある点が異なります。

ステップ 15

ブラウザを開き、https://<node-mgmt-ip> に移動して、GUI を開きます。

残りの設定ワークフローは、ノードの GUI の 1 つから実行します。展開したノードのいずれか 1 つを選択して、ブートストラッププロセスを開始できます。他の 2 つのノードにログインしたり、これらを直接構成したりする必要はありません。

前の手順で入力したパスワードを入力し、[ログイン(Login)] をクリックします。

ステップ 16

[クラスタの詳細(Cluster Details)] を入力します。

[クラスタ起動(Cluster Bringup)] ウィザードの [クラスタの詳細(Cluster Details)] 画面で、次の情報を入力します。

  1. Nexus ダッシュボード クラスタの [クラスタ名(Cluster Name)] を入力します。

    クラスタ名は、 RFC-1123 の要件に従う必要があります。

  2. (オプション)クラスタの IPv6 機能を有効にする場合は、[IPv6 を有効にする(Enable IPv6)] チェックボックスをオンにします。

  3. [+DNS プロバイダの追加(+Add DNS Provider)] をクリックして、1 つ以上の DNS サーバを追加します。

    情報を入力した後、チェックマーク アイコンをクリックして保存します。

  4. (オプション)[+DNS 検索ドメインの追加(+Add DNS Search Domain )] をクリックして、検索ドメインを追加します。

    情報を入力した後、チェックマーク アイコンをクリックして保存します。

  5. (オプション)NTP サーバー認証を有効にする場合には、[NTP 認証(NTP Authentication)] チェックボックスをオンにし、[NTP キーの追加(Add NTP Key)]をクリックします。

    次のフィールドで、以下の情報を提供します。

    • NTP キー:Nexus ダッシュボードと NTP サーバ間の NTP トラフィックを認証するために使用される暗号キー。次の手順で NTP サーバーを定義します。複数の NTP サーバで同じ NTP キーを使用できます。

    • キー ID:各 NTP キーに一意のキー ID を割り当てる必要があります。この ID は、NTP パケットの検証時に使用する適切なキーを識別するために使用されます。

    • 認証タイプ:このリリースでは、MD5SHA、および AES128CMAC 認証タイプがサポートされています。

    • このキーが信頼できるかどうかを選択します。信頼できないキーは NTP 認証に使用できません。

    (注)  

     

    情報を入力した後、チェックマーク アイコンをクリックして保存します。

    NTP 認証の要件とガイドラインの完全なリストについては、前提条件とガイドライン を参照してください。

  6. [+ NTP ホスト名/IP アドレスの追加(+Add NTP Host Name/IP Address)] をクリックして、1 つ以上の NTP サーバを追加します。

    次のフィールドで、以下の情報を提供します。

    • NTP ホスト:IP アドレスを指定する必要があります。完全修飾ドメイン名(FQDN)はサポートされていません。

    • キー ID:このサーバーの NTP 認証を有効にする場合は、前の手順で定義した NTP キーのキー ID を指定します。

      NTP 認証が無効になっている場合、このフィールドはグレー表示されます。

    • この NTP サーバーを [優先(Preferred)] にするかどうかを選択します。

    情報を入力した後、チェックマーク アイコンをクリックして保存します。

    (注)  

     

    ログインしているノードに IPv4 アドレスのみが設定されているが、前の手順で [IPv6 を有効にする(Enable IPv6)] をオンにして NTP サーバーの IPv6 アドレスを指定した場合は、次の検証エラーが表示されます。

    これは、ノードに IPv6 アドレスがまだなく(次の手順で指定します)、NTP サーバーの IPv6 アドレスに接続できないためです。

    この場合、次の手順の説明に従って他の必要な情報の入力を完了し、[次へ(Next)] をクリックして次の画面に進み、ノードの IPv6 アドレスを入力します。

    追加の NTP サーバーを指定する場合は、[+NTP ホストの追加(+Add NTP Host)] を再度クリックし、このサブステップを繰り返します。

  7. [プロキシ サーバー(Proxy Server)] を指定し、[検証(Validate)] をクリックします。

    Cisco Cloud に直接接続できないクラスタの場合は、接続を確立するためにプロキシ サーバを構成することをお勧めします。これにより、ファブリック内の非適合ハードウェアおよびソフトウェアにさらされるリスクを軽減できます。

    [+無視するホストを追加(+Add Ignore Host)] をクリックして、プロキシをスキップする 1 つ以上の IP アドレス通信を提供することもできます。

    プロキシ サーバーでは、次の URL が有効になっている必要があります。

    dcappcenter.cisco.com
    svc.intersight.com
    svc.ucs-connect.com
    svc-static1.intersight.com
    svc-static1.ucs-connect.com

    プロキシ設定をスキップする場合は、[プロキシをスキップ(Skip Proxy)] をクリックします。

  8. (オプション) プロキシ サーバで認証が必要な場合は、[プロキシで認証が必要(Authentication required for Proxy)][はい(Yes)] に変更し、ログイン資格情報を指定します。

  9. (オプション) [詳細設定(Advanced Settings)] カテゴリを展開し、必要に応じて設定を変更します。

    詳細設定では、次の設定を行うことができます。

    • カスタム App NetworkService Network を提供します。

      アプリケーション オーバーレイ ネットワークは、Nexus ダッシュボードで実行されるアプリケーションのサービスで使用されるアドレス空間を定義します。このフィールドには、デフォルトの 172.17.0.1/16 値が事前に入力されています。

      サービス ネットワークは、Nexus ダッシュボードとそのプロセスで使用される内部ネットワークです。このフィールドには、デフォルトの 100.80.0.0/16 値が事前に入力されています。

      以前に [IPv6 を有効にする(Enable IPv6)] オプションをオンにした場合は、アプリケーション ネットワークとサービス ネットワークの IPv6 サブネットを定義することもできます。

      アプリケーションおよびサービスネットワークについては、このドキュメントの前の 前提条件とガイドライン の項で説明します。

  10. [次へ(Next)] をクリックして続行します。

ステップ 17

[ノードの詳細(Node Details)] 画面で、最初のノードの情報を更新します。

前の手順の初期ノード構成時に現在ログインしているノードの管理ネットワークと IP アドレスを定義しましたが、他のプライマリノードを追加し、クラスタを作成する進む前に、ノードのデータ ネットワーク情報も指定する必要があります。

  1. 最初のノードの横にある [編集(Edit)]ボタンをクリックします。

    ノードの[シリアル番号(Serial Number)][管理ネットワーク(Management Network)]情報、および[タイプ(Type)]が自動的に入力されます。ただし、他の情報は手動で入力する必要があります。

  2. ノードの [名前(Name)] を入力します。

    ノードの 名前 はホスト名として設定されるため、 RFC-1123 の要件に従う必要があります。

  3. [タイプ(Type)] ドロップダウンから [プライマリ(Primary)] を選択します。

    クラスタの最初の 3 つのノードは [プライマリ( Primary)] に設定する必要があります。サービスの共同ホスティングや、より大規模なスケールを有効にする必要がある場合は、後の手順でセカンダリ ノードを追加します。

  4. [データ ネットワーク(Data Network)] エリアで、ノードのデータ ネットワークを提供します。

    データ ネットワークの IP アドレス、ネットマスク、およびゲートウェイを指定する必要があります。オプションで、ネットワークの VLAN ID を指定することもできます。ほとんどの導入では、[VLAN ID] フィールドを空白のままにできます。

    前の画面で IPv6 機能を有効にした場合は、IPv6 アドレス、ネットマスク、およびゲートウェイも入力する必要があります。

    (注)  

     

    IPv6 情報を提供する場合は、クラスタ ブートストラップ プロセス中に行う必要があります。後で IP 構成を変更するには、クラスタを再展開する必要があります。

    クラスタ内のすべてのノードは、 IPv4 のみ、IPv6 のみ、またはデュアル スタック IPv4/IPv6 のいずれかで構成する必要があります。

  5. (オプション)クラスタが L3 HA モードで展開されている場合は、データ ネットワークの [BGP を有効にする(Enable BGP)] をオンにします。

    Insights やファブリック コントローラなどの、一部のサービスで使用される永続的な IP 機能には、BGP 構成が必要です。この機能については、前提条件とガイドライン と『Cisco Nexus Dashboard ユーザーガイド』の「永続的な IP アドレス」セクションで詳しく説明されています。

    (注)  

     

    BGP をこの時点で、またはクラスタの展開後に Nexus ダッシュボード GUI で有効にすることができます。

    BGP を有効にする際、次の情報も入力する必要があります。

    • このノードの ASN(BGP 自律システム番号)。

      すべてのノードに同じ ASN を構成することも、ノードごとに異なる ASN を構成することもできます。

    • 純粋な IPv6 の場合、このノードのルータ ID

      ルータ ID は、1.1.1.1 などの IPv4 アドレスである必要があります。

    • ピアの IPv4 または IPv6 アドレスとピアの ASN を含む BGP ピアの詳細

  6. [Save]をクリックして、変更内容を保存します。

ステップ 18

[ノードの詳細(Node Details)] 画面で、[ノードの追加(Add Node)] をクリックして、クラスタに 2 番目のノードを追加します。

単一ノード クラスタを展開する場合は、この手順をスキップします。

  1. [展開の詳細(Deployment Details)] エリアで、2 番目のノードに [管理 IP アドレス(Management IP Address)] および [パスワード(Password)] を指定します。

    ノードの初期構成手順で、管理ネットワーク情報とパスワードを定義しました。

  2. [検証(Validate)] をクリックして、ノードへの接続を確認します。

    接続が検証されると、ノードのシリアル番号管理ネットワーク情報が自動的に入力されます。

  3. ノードの [名前(Name)] を入力します。

  4. [タイプ(Type)] ドロップダウンから [プライマリ(Primary)] を選択します。

    クラスタの最初の 3 つのノードは [プライマリ( Primary)] に設定する必要があります。サービスの共同ホスティングや、より大規模なスケールを有効にする必要がある場合は、後の手順でセカンダリ ノードを追加します。

  5. [データ ネットワーク(Data Network)] エリアで、ノードのデータ ネットワークを提供します。

    データ ネットワークの IP アドレス、ネットマスク、およびゲートウェイを指定する必要があります。オプションで、ネットワークの VLAN ID を指定することもできます。ほとんどの導入では、[VLAN ID] フィールドを空白のままにできます。

    前の画面で IPv6 機能を有効にした場合は、IPv6 アドレス、ネットマスク、およびゲートウェイも入力する必要があります。

    (注)  

     

    IPv6 情報を提供する場合は、クラスタ ブートストラップ プロセス中に行う必要があります。後で IP 構成を変更するには、クラスタを再展開する必要があります。

    クラスタ内のすべてのノードは、 IPv4 のみ、IPv6 のみ、またはデュアル スタック IPv4/IPv6 のいずれかで構成する必要があります。

  6. (任意)必要に応じて、データ ネットワークの BGP を有効にします

    Insights やファブリック コントローラなどの、一部のサービスで使用される永続的な IP 機能には、BGP 構成が必要です。この機能については、前提条件とガイドライン と『Cisco Nexus Dashboard ユーザーガイド』の「永続的な IP アドレス」セクションで詳しく説明されています。

    (注)  

     

    BGP をこの時点で、またはクラスタの展開後に Nexus ダッシュボード GUI で有効にすることができます。

    BGP を有効にする際、次の情報も入力する必要があります。

    • このノードの ASN(BGP 自律システム番号)。

      すべてのノードに同じ ASN を構成することも、ノードごとに異なる ASN を構成することもできます。

    • 純粋な IPv6 の場合、このノードのルータ ID

      ルータ ID は、1.1.1.1 などの IPv4 アドレスである必要があります。

    • ピアの IPv4 または IPv6 アドレスとピアの ASN を含む BGP ピアの詳細

  7. [Save]をクリックして、変更内容を保存します。

  8. クラスタの最後の(3 番目の)プライマリ ノードでこの手順を繰り返します。

ステップ 19

(オプション)前の手順を繰り返して、追加のセカンダリ ノードまたはスタンバイ ノードに関する情報を入力します。

(注)  

 

クラスタで複数のサービスを同時に有効にするか、より高いスケールをサポートするには、展開時に十分な数のセカンダリ ノードを提供する必要があります。特定のユースケースに必要な追加のセカンダリノードの詳しい数については、 Nexus Dashboard クラスタ サイジング ツールを参照してください

スタンバイ ノードを今すぐ追加するか、クラスタの展開後に追加するかを選択できます。

ステップ 20

[ノードの詳細(Node Details)] ページで、入力した情報を確認し、[次へ(Next)] をクリックして続行します。

ステップ 21

クラスタの展開モードを選択します。

  1. 有効にするサービスを選択します。

    リリース 3.1(1) より前では、クラスタの初期展開が完了した後に、個々のサービスをダウンロードしてインストールする必要がありました。今では、初期インストール時にサービスを有効にするように選択できます。

    (注)  

     

    クラスタ内のノードの数によっては、一部のサービスまたは共同ホスティングのシナリオがサポートされない場合があります。必要な数のサービスを選択できない場合は、[戻る(Back)] をクリックし、前の手順で十分な数のセカンダリ ノードを指定したことを確認します。

    クラスタの展開後に展開モードを変更することはできないため、このドキュメントの前の章で説明されているサービス固有の前提条件をすべて満たしていることを確認する必要があります。

  2. ファブリック コントローラまたは Insights を含む展開モードを選択した場合は、[永続サービス IP/プールの追加(Add Persistent Service IPs/Pools)] をクリックして、Insights またはファブリック コントローラ サービスに必要な 1 つ以上の永続 IP を指定します。

    永続 IP の詳細については、 前提条件とガイドライン セクションおよびサービス固有の要件の章を参照してください。

  3. [次へ(Next)] をクリックして続行します。

ステップ 22

[概要(Summary)] 画面で設定情報をレビューして確認し、[保存(Save)] をクリックし、[続行(Continue)] をクリックして正しい展開モードを確認し、クラスタの構築を続行します。

ノードのブート ストラップとクラスタの起動中に、全体的な進捗状況と各ノードの個々の進捗状況がUIに表示されます。ブートストラップの進行状況が表示されない場合は、ブラウザでページを手動で更新し、ステータスを更新してください。

クラスタが形成され、すべてのサービスが開始されるまでに最大 30 分かかる場合があります。クラスタの設定が完了すると、ページが Nexus ダッシュボード GUI にリロードされます。

ステップ 23

クラスタが健全であることを検証します。

クラスタが形成され、すべてのサービスが開始されるまでに最大 30 分かかる場合があります。

クラスタが使用可能になったら、ノードの管理 IP アドレスのいずれかを参照してアクセスできます。admin ユーザーのデフォルト パスワードは、最初のノードに選択した rescue-user のパスワードと同じです。この間、UI は上部に「サービスのインストールが進行中です。Nexus Dashboard の設定タスクは現在無効になっています」という意味のバナーを表示します。

すべてのクラスタが展開され、すべてのサービスが開始されたら、[概要(Overview)] ページでクラスタが正常であることを確認できます。

または、SSH を使用し、rescue-user として、ノード展開中に指定したパスワードを使っていずれかのノードにログインし、acs health コマンドを実行してクラスタの状態を確認できます。

  • クラスタが収束している間、次の出力が表示されることがあります。

    $ acs health
    k8s install is in-progress
    $ acs health
    k8s services not in desired state - [...]
    $ acs health
    k8s: Etcd cluster is not ready
  • クラスタが稼働している場合は、次の出力が表示されます。

    $ acs health
    All components are healthy

(注)  

 
There may be an issue during the bootstrap process on 3-node vND (ESX) clusters which can cause the 'acs health' command to show the following error: 'k8s: services not in desired state - aaamgr,cisco-intersightdc,eventmonitoring,infra-kafka,kafka,mongodb,sm,statscollect'

Cisco TAC に連絡し、オープン バグ ID CSCwf65557 を参照してケースをオープンし、各ノードで回避策コマンドを実行するための root アクセスを要求します。

ステップ 24

Nexus Dashboard とサービスを展開したら、設定と操作の記事の説明に従って各サービスを設定できます。