Cisco Nexus Dashboard Infrastructure Management, Release 3.0.x

Tech Article
 
Last updated: 2024 年 9 月 4 日
PDF
Is this helpful? Feedback

システム設定

The System Settings GUI screen allows you to configure a number of options specific to the Nexus Dashboard cluster and its nodes. このGUI画面には、Nexus Dashboardクラスタに存在する可能性のある問題に関する情報も表示されます。

504688.jpg
Figure 1. システム設定
  1. The Multi-cluster Connectivity tab allows you to connect multiple clusters together for a single pane of glass view and administration of the clusters and their sites, services, and configurations.

    詳細については、[マルチクラスタ接続]を参照してください。

  2. エラーと警告のタイルには、クラスタ内の既存の問題の数が表示されます。You can click Expand to see the full list of specific issues.

  3. To configure a proxy for the Nexus Dashboard, click the Edit icon in the Proxy Configuration tile.

    オンプレミスとクラウドサイトの組み合わせや企業ネットワーク内でのNexus Dashboardクラスタの展開など、特定の展開シナリオでは、インターネットとクラウドサイトへのプロキシを介したアクセスが必要な場合があります。

    note.svg

    このリリースでは、単一のプロキシサーバーの追加がサポートされています。


    Nexus ダッシュボードは 2 つのメイン ルート テーブルを使用することに注意してください。1 つは管理ネットワーク用、もう 1 つはデータ ネットワーク用です。デフォルトでは、発信元 IP アドレスのルーティング テーブルが使用されます。つまり、Nexus Dashboardは、プロキシを使用しようとしているPOD/サービスのルーティングテーブルからプロキシに到達しようとします。

    たとえば、プロキシを構成し、Nexus ダッシュボードからインターサイト接続を確立してから、クラスタで実行されているインターサイト サービスから AppD 統合を構成しようとすると、AppD ホストに到達できないことを示すエラーが表示される場合があります。これは、プロキシが管理インターフェースからしかアクセスできないために発生します。このような場合、以下の「管理ネットワークまたはデータ ネットワーク ルート」で説明されているように、プロキシ IP アドレスの管理ネットワーク ルートを追加する必要もあります。

    プロキシサーバーを追加するには、次の手順を実行します。

    1. Click +Add Server in the proxy configuration window.

    2. From the Type dropdown, select the type of traffic that you want to be proxied.

    3. In the Server field, provide the full address for the proxy server including the port if required.

      For example http://proxy.company.com:80.

    4. If the server requires login credentials, provide the Username and Password.

    5. (Optional) Click Add Ignore Host to provide any hosts that will ignore the proxy.

      クラスタがプロキシをバイパスして直接通信する1つ以上のホストを追加できます。

  4. To add one or more Management Network or Data Network routes, click the Edit icon in the Routes tile.

    ここでは、管理インターフェイスまたはデータインターフェイスのスタティックルートを定義できます。For example, adding 10.195.216.0/21 as a Data Network route will cause all traffic destined to that subnet to transit out of the data network interface.

    • To add a management network route, click Add Management Network Routes and provide the destination subnet.

    • To add a data network route, click Add Data Network Routes and provide the destination subnet.

  5. To configure Network Scale, click the Edit icon in the Network Scale tile.

    note.svg

    このリリースでは、これらの設定は Nexus Dashboard Insights サービスにのみサービスにのみ影響します。他のサービスはこれらの設定を考慮せず、それぞれの検証済みスケーラビリティ ガイドに記載されているスケール制限をサポートします。
    Modifying the network scale requires a restart of the Insights service.


    1. *[サイトの数(Number of Sites)]*フィールドに、この Nexus Dashboard クラスタが管理する、展開のサイトの目標数を入力します。

    2. *[スイッチの数(Number of Switches)]*フィールドに、展開するスイッチ ノードの目標数を指定します。

    3. In the Flows per second field, provide the target number of flows for your Nexus Dashboard Insights service.

  6. To add one or more External Service Pools, click the Edit icon in the External Service Pools tile.

    これにより、別のNexus Dashboardノードに再配置された場合でも、同じIPアドレスを保持する必要があるサービスに永続IPアドレスを提供できます。

    For detailed information and configuration steps, see [Persistent IP Addresses].

  7. To configure NTP settings, click the Edit icon in the NTP tile.

    デフォルトでは、Nexus Dashboardクラスタの展開時に設定したNTPサーバがここに表示されます。

    You can provide additional NTP servers by clicking +Add NTP Server.

    You can remove existing NTP server by clicking the Delete icon next to it. 少なくとも1つのNTPサーバをクラスタに設定する必要があることに注意してください。

  8. To configure DNS settings, click the Edit icon in the DNS tile.

    デフォルトでは、Nexus Dashboardクラスタの展開時に設定したDNSサーバと検索ドメインがここに表示されます。

    You can provide additional DNS servers and search domains by clicking +Add a Provider or +Add a Search Domain respectively.

    You can remove existing DNS server by clicking the Delete icon next to it.

  9. To provide one or more syslog servers to stream event logs to, click the Edit icon in the Syslog tile.

    In the Syslog dialog that opens, click +Add Remote Destinations to add a new server. 次に、サーバーの IP アドレス、プロトコル、およびポート番号を指定し、この時点でこの syslog サーバーへのストリーミングを有効にするかを選択します。

    For more information, see [Event Analytics].

  10. To configure Network-Attached Storage (NAS), click the Edit icon in the Network-Attached Storage tile.

    リリース 3.0(1) 以降では、クラスタで実行されているサービスで使用できる Nexus Dashboard レベルで NAS サーバーを追加できます。

    note.svg

    This release supports only NFSv3 remote storage.


    NAS を追加するには、次の手順を実行します。

    1. Click +Add Network-Attached Storage in the NAS configuration window.

    2. Choose whether Nexus Dashboard has Read Only or Read Write access to this server.

    3. Provide the Name for the NAS server.

    4. (オプション)[説明 (Description)] を入力します。

    5. Provide the IP address used to connect to the server.

    6. Specify the Port used to establish the connection if it is different from the default port 2049.

    7. Provide the Export Path to a directory on the NAS server where information will be stored or read.

    8. Specify the Alert Threshold.

    9. Specify the storage Limit.

      これにより、Nexus Dashboard がサーバーで要求できるストレージの量が制限されます。You can provide the values in Mibibytes or Gibibytes, for example 300Mi or 10Gi.

    10. From the Allowed Apps dropdown, select which Nexus Dashboard services can access this storage.

永続IPアドレス

別のNexus Dashboardノードに再配置された場合でも、同じIPアドレスを保持する必要があるサービスに永続IPアドレスを提供できます。

Nexus ダッシュボード インサイトは、ファブリック内のスイッチからアプリケーションにデータをストリーミングするために、サービス(SNMPトラップと syslog など)を必要とします。このために、スイッチにIPアドレスが設定されます。通常、サービスの再配置時にIPアドレスが変更された場合、サービスはスイッチの新しいIPアドレスを再設定します。

このIP再設定の影響がファブリックスイッチに及ぶのを回避するために、サービスはサービスのIPアドレスを保持するように要求できます。その場合、サービスに割り当てることができる一連のIPアドレスを定義してこれに対応する必要があります。

サービスに永続IPアドレスが必要な場合、以下で説明するように十分な数のIPアドレスが定義されるまで、Nexus Dashboardでそのサービスを有効にすることはできません。

note.svg

この機能は、NDFCファブリックを使用するNexus Dashboard Insightsでのみサポートされています。さらに、レイヤ2機能のみ(管理およびデータサブネットの一部として構成されたIP)を使用していて、Nexus DashboardがVMware ESXに展開されている場合は、https://kb.vmware.com/s/article/1004099で説明されているように、管理およびデータ ネットワーク インターフェイス ポートグループの両方で無差別モードを有効にする必要があります。


リリース2.2(1)より前のバージョンでは、この機能は、すべてのノードが同じレイヤ3ネットワークの一部であり、永続IPがノードの管理ネットワークまたはデータネットワークの一部として定義されているクラスタでのみサポートされていました。ここで、アプリケーションは、Gratuitous ARPやネイバー探索などのレイヤ2メカニズムを使用して、レイヤ 3ネットワーク内で永続IPをアドバタイズします。

リリース2.2(1)以降、この機能は、異なるレイヤ3ネットワークにクラスタノードを展開する場合でもサポートされます。この場合、永続IPは、"レイヤ3モード" と呼ばれるBGPを介して各ノードのデータリンクからアドバタイズされます。IPは、ノードの管理サブネットまたはデータサブネットと重複してはなりません。永続IPがデータネットワークおよび管理ネットワークの外部にある場合、この機能はデフォルトでレイヤ3モードで動作します。 IPがそれらのネットワークの一部である場合、機能はレイヤ2モードで動作します。

永続IPのガイドラインと制限事項

サービスの永続IPを設定する場合、次を実行します。

  • 一部のサービスはこの機能をサポートしていないか、追加のガイドラインが必要であるため、展開する予定のサービスのマニュアルを確認してください。

    現時点では、永続的な IP は、Nexus Dashboard Insights および NexusNexus Dashboard Fabric Controller でサポートされています。サービス固有のドキュメントは、次のリンクで見つけることができます。

  • 次の条件が当てはまる限り、動作するモードを選択できます。

    • レイヤ2モードで動作することを選択した場合、ノードは同じデータネットワークおよび管理ネットワークの一部である必要があります。

    • If you choose to operate in Layer 3 mode, all nodes must have BGP configuration provided either during cluster deployment or after as described in [Enabling BGP On All Nodes].

    • 2つのモードを切り替えることができます。その場合、特定のモードの既存のサービスを完全に削除する必要があり、新しいモードに対応する新しい永続IPを設定する必要があります。

  • レイヤ3モードで1つ以上の永続IPを設定し、クラスタの設定をバックアップする場合、この機能に必要なBGP設定はバックアップに保存されません。

    そのため、そのクラスタにレイヤ3の永続IPを含むクラスタの設定を復元する前に、すべてのクラスタノードに対してBGPを設定する必要があります。設定のインポート前にBGPが設定されていない場合、インポートは失敗します。

すべてのノードでBGPを有効にする

レイヤ3モードで動作する場合は、クラスタ内のすべてのノードに対してBGPを有効にして設定する必要があります。If you already configured BGP for each node during cluster deployment or if you want to operate in Layer 2 mode instead, you can skip this section and simply provide one or more persistent IPs from the nodes' management and data subnets, as described in [Configuring Persistent IPs]. レイヤ 2 モードでの動作を選択した場合は、すべてのノードが同じレイヤ 3 ネットワークの一部である必要があることに注意してください。レイヤ3モードでの動作を選択した場合は、このセクションで説明されているように、IPv4またはIPv6の永続IPアドレスをアドバタイズするために、少なくとも1つのBGPピアがすべてのクラスタノードで設定されている必要があります。

はじめる前に
  • アップリンクピアルータが、クラスタノードのレイヤ3ネットワーク全体でアドバタイズされた永続IPを交換できることを確認します。

  • サービスが永続IPアドレスを要求すると、サービスが実行されているノード上のBGPを介してデータリンクからアドバタイズされたルートが、サービスのライフサイクル全体を通じて維持されます。

ノードでBGPを設定するには、次を実行します。

  1. Navigate to your Nexus Dashboard’s Admin Console.

  2. 左側のナビゲーション メニューから、[システムリソース(System Resources)] > [ノード(Nodes)] を選択します。

  3. Click the Actions (…​) menu next to one of the nodes and choose Edit.

  4. In the Edit Node screen, turn on Enable BGP.

  5. In the ASN field, provide the autonomous system number for the node.

  6. Click +Add IPv4 BGP Peer or +Add IPv6 BGP Peer to provide peer IP address information.

    1. In the Peer Address field, provide the IPv4 or IPv6 address of the peer router for this node.

      Multi-hop BGP peering is not supported, so you must ensure that the Peer Address is part of the node’s data subnet.

    2. In the Peer ASN field, provide the autonomous system number of the peer router.

      EBGPのみがサポートされているため、ノードASNとピアASNが異なることを確認する必要があります。

    3. *[保存 (Save)]*をクリックして、変更内容を保存します。

  7. クラスタ内のすべてのノードに対してこれらの手順を繰り返します。

    クラスタ内のすべてのノードでBGPを設定する必要があります。

    すべてのノードに同じASNを設定することも、ノードごとに異なるASNを設定することもできます。

永続IPの設定

はじめる前に
  • すべての永続IPについては、レイヤ2またはレイヤ3のいずれかのアプローチを使用する必要があります。 2つのアプローチを組み合わせることはサポートされていません。

    すべてのノードが同じレイヤ3ネットワーク内にある場合は、この機能にレイヤ2モードまたはレイヤ3モードのいずれかを使用することを選択できます。The two modes are described in [Persistent IP Addresses].

    ノードが異なるレイヤ3ネットワークにいる場合は、ノードの管理サブネットまたはデータサブネットと重複しないように永続IPを設定する必要があります。

  • If the nodes in your cluster belong to different Layer 3 networks, you must have BGP enabled and configured as described in [Enabling BGP On All Nodes].

  • 永続IPを使用するサービスが別のノードに再配置されている間、一時的なトラフィックの中断が発生する可能性があります。

    中断時間は、次の要因によって異なります。

    • ノード障害が検出される時間

    • サービスが別のノードに再スケジュールされる時間

    • レイヤ2モードの場合、サービスの外部IPが、GARP(IPv4)経由またはネイバー探索(IPv6)経由で、スケジュールされたノードからアドバタイズされる時間

    • レイヤ3モードの場合、サービスの外部IPが、BGP経由でスケジュールされたノードからアドバタイズされる時間

1つ以上の永続IPアドレスを提供するには、次を実行します。

  1. Navigate to your Nexus Dashboard’s Admin Console.

  2. From the left navigation menu, select Admin > System Settings.

  3. In the External Service Pools tile, click the Edit icon.

  4. In the External Service Pools screen that opens, click +Add IP Address to add one or more IP addresses for the management or data networks.

    永続IPを編集するときは、次のルールが適用されます。

    • クラスタ内のすべてのノードが同じレイヤ 3ネットワークにいる場合、次のいずれかを選択できます。

      • レイヤ2モード。この場合、管理サービス用に追加するIPアドレスは管理サブネットの一部である必要があり、データサービスのIPアドレスはデータサブネットの一部である必要があります。

      • レイヤ3モード。この場合、追加するIPアドレスは、ノードの管理サブネットまたはデータサブネットと重複することはできません。この場合、"管理サービスIP" 下のIPの追加はサポートされていないため、GUIの "データサービスIP" カテゴリにIPを追加する必要があります。

    • IPv4またはIPv6 IPアドレスのいずれかを指定する必要があります。両方を指定することはできません。

    • プレフィックスなしで個々のIPアドレスを1つずつ追加する必要があります。 IPアドレスの範囲の追加はサポートされていません。

    • 以前に定義されたIPは削除できますが、1つ以上のサービスで現在使用されているIPを削除することはできません。

マルチクラスタ接続

複数の Nexus Dashboard クラスタ間の接続を確立して、すべてのクラスタに簡単にアクセスできるだけでなく、接続されている任意のクラスタで実行中のサイトやサービスにアクセスすることもできます。

2番目のクラスタを追加すると、クラスタのグループが形成されます。グループの作成元のクラスタは "プライマリ" クラスタとなり、グループ内の他のクラスタには適用されない多くの固有の特性を持ちます。

  • すべての追加クラスタを接続するには、プライマリクラスタを使用する必要があります。

  • グループからクラスタを削除するには、プライマリクラスタを使用する必要があります。

  • Nexus Dashboard をアップグレードする場合は、グループ内の他のクラスタよりも先にプライマリ クラスタをアップグレードする必要があります。

マルチクラスタ接続を確立しても、グループ内にあるすべてのクラスタの情報が格納された単一データベースは作成されません。すべてのクラスタは独自の設定データベースを保持すると同時に、グループ内の他のすべてのクラスタのプロキシとして機能できます。アクションやリクエストがどのクラスタから送信されたか、またはどのクラスタに送信されるかは関係ありません。

ガイドラインと制約事項

マルチクラスタ接続を設定する場合は、次のガイドラインが適用されます。

  • このリリースでは、物理または仮想(ESX)フォームファクタのみを使用して展開されたクラスタ間のマルチクラスタ接続がサポートされます。

    つまり、物理的な Nexus Dashboard クラスタを仮想(ESX)クラスタに追加することはできますが、仮想(KVM)またはクラウドクラスタを同じグループに含めることはできません。

  • 一緒に接続できるクラスタの数やすべてのクラスタのサイトの数など、サポートされているスケール制限については、ご使用のリリースの Nexus Dashboard リリース ノート を参照してください。

  • 接続は、マルチクラスタ接続を介して接続されるすべてのクラスタのすべてのノード間で確立する必要があります。

  • 一緒に接続する予定のクラスタにオンボーディングされたサイトの名前は、それらのクラスタ全体で一意である必要があります。

    異なるクラスタ間でサイト名が重複すると、DNS解決が失敗する可能性があります。

  • マルチクラスタ接続を確立するために使用するプライマリ クラスタは、グループ内の他のクラスタと同じまたはそれ以降のリリースの Nexus Dashboard を実行している必要があります。

    つまり、リリース 3.0.1 を実行しているプライマリ クラスタから、リリース 2.2.1 を実行しているNexus Dashboard クラスタに接続することはできません。

  • 相互に接続されている複数のクラスタをアップグレードする場合は、最初に主クラスタをアップグレードする必要があります。

  • 接続されたクラスタグループ内の任意のクラスタから、同じバージョンまたは以前のバージョンのNexus Dashboardを実行している場合にのみ、他のクラスタを表示できます。

    In other words, if cluster1 is running release 2.3.1 and cluster2 is running release 2.2.1, you can view cluster2 from cluster1 but not vice versa.

  • マルチクラスタ接続は、リモートユーザーに対してのみサポートされます。

    If you connect multiple clusters, but then login to one of the clusters as a local admin user, you will only be able to view and manage the local cluster into which you logged in.

    グループ内のすべてのクラスタを表示および管理するには、すべてのクラスタで構成されているリモートユーザーとしてログインする必要があります。

  • 各クラスタのNexusダッシュボードInsightsサービスは、グループ内の任意のクラスタにある他のInsightsサービスのサイトグループを表示できます。

    ただし、サイトグループを作成する場合、各Insightsサービスでは、サービスのみがインストールされている同じクラスタにオンボードされているサイトを追加できます。

  • Nexus Dashboard Orchestratorサービスは、サービスがインストールされている同じクラスタにオンボーディングされているサイトのみをサポートします。

複数のクラスタの接続

はじめる前に
  • You must have familiarized yourself with the information provided in the [Guidelines and Limitations] section.

  • 接続するすべてのクラスタでリモート認証とユーザを設定しておく必要があります。

    Multi-Cluster connectivity is supported for remote users only, so you must configure the same remote user with admin privieleges for all clusters. 詳細については、[リモート認証]を参照してください。

別のクラスタに接続するには、次の手順を実行します。

  1. プライマリとして指定するクラスタのNexus Dashboard GUIにログインします。

  2. 2番目のクラスタを追加します。

    1. From the main navigation menu, select Admin > System Settings.

    2. In the main pane, select the Multi-Cluster Connectivity tab.

    3. [クラスタの接続(Connect Cluster)] をクリックします。

  3. クラスタ情報を入力します。

    1. 情報フィールドに、追加するクラスタのホスト名またはIPアドレスと認証情報を入力します。

      対象クラスタ内にあるいずれか1つのノードの管理IPアドレスのみを指定する必要があります。他のノード情報は、接続の確立後に自動的に同期されます。

    2. 次に [保存(Save)] をクリックします。

      指定するユーザーには、追加するクラスタの管理者権限が必要です。ユーザーのログイン情報は、追加のクラスタへの接続を最初に確立するときに1回使用されます。最初の接続が確立された後、その後のすべての通信は安全なキーを介して行われます。安全なキーは、各クラスタをグループに追加するときにプロビジョニングされます。

      追加するクラスタは、既存のクラスタグループに属していてはなりません。

  4. グループに追加するNexus Dashboardクラスタが他にもあれば、この手順を繰り返します。

    After multiple clusters are added to the group, you can see their status in the Cluster Configuration > Multi-Cluster Connectivity page.

    Note that while you can view and manage any cluster from any other cluster as long as they are part of the same multi-cluster group, you can only add and remove clusters from the group when viewing the primary cluster.

The Multi-Cluster Connectivity page displays all clusters that are part of the multi-cluster group. The Connect Cluster button is shown only when viewing the primary cluster. To modify the cluster group, you need to navigate to the primary cluster as described in [Navigating Between Clusters], at which point the Connect Cluster button becomes available:

504689.jpg
Figure 2. プライマリクラスタと非プライマリクラスタ
  1. The Cluster: <name> dropdown in the main navigation menu shows the cluster you are currently viewing.

    このドロップダウンから別のクラスタを選択できます。新しいウィンドウが開き、同じグループ内の別のクラスタに移動できます。

    note.svg

    While the 2.x releases of Nexus Dashboard allowed you to view and manage any cluster from any other cluster as long as they were part of the same multi-cluster group, relese 3.0.1 changed this behavior. You can now easily navigate between clusters by picking a specific cluster from the Cluster dropdown in the main navigation pane, but you cannot manage or configure another cluster directly from the one where you are logged in.


  2. The Primary label indicates the group’s primary cluster.

    クラスタの追加や削除など、クラスタグループに変更を加えるには、このクラスタを表示する必要があります。

  3. The Local label indicates the cluster you logged into.

    これは、ブラウザのURLフィールドにアドレスが表示されるクラスタです。If you navigate to a different cluster as mentioned above, the browser URL and the Local label will not change.

クラスタの切断

既存のグループからクラスタを切断するには、次の手順を実行します。

  1. プライマリクラスタのNexus Dashboard GUIにログインします。

    グループに対するクラスタの追加と削除は、プライマリクラスタから実行する必要があります。

  2. From the main navigation menu, select Admin > System Settings.

  3. In the main pane, select the Multi-Cluster Connectivity tab.

  4. From the Actions (…​) menu for the cluster you want to remove, select Disconnect Cluster

  5. 確認ウィンドウで、[OK] をクリックします。

追加の物理ノードの展開

クラスタの初期展開については、『https://www.cisco.com/c/en/us/td/docs/dcn/nd/2x/deployment/cisco-nexus-dashboard-deployment-guide-2x.html[Cisco Nexus Dashboard 展開ガイド]』を参照してください。The following sections describe how to deploy an additional physical node so you can add it as a worker or standby node.

note.svg

既存のクラスタにノードを追加する場合、追加ノードは、クラスタ内にある残りのノードと同じフォーム ファクタ(例えば、物理または仮想)である必要があります。このリリースは、異なるフォームファクタのノードを持つクラスタには対応していません。


追加ノードを展開した後、そのロールに基づいてそのノードを登録し、クラスタに追加できます。

物理ノードの前提条件とガイドライン

  • Ensure that you have reviewed and completed the general prerequisites described in the [Platform Overview], especially the network and fabric connectivity sections.

  • Ensure that you have Reviewed and complete any additional prerequisites described in the Release Notes for the services you have deployed.

    Some services may have additional caveats for worker and standby nodes. サービス固有のドキュメントは、次のリンクで見つけることができます。

  • For maximum number of worker and standby nodes in a single cluster, see the Nexus Dashboard Release Notes for your release.

  • サポートされているハードウェアを使用していること、およびサーバーがラックに取り付けられて接続されていることを確認してください。

    物理アプライアンス フォーム ファクタは、UCS-C220-M5 および UCS-C225-M6 の元の Nexus ダッシュボード プラットフォーム ハードウェアでのみサポートされます。次の表に、サーバの物理的アプライアンス サーバの PID と仕様を示します。

    Table 1. サポートされる UCS-C220-M5 ハードウェア
    PID ハードウェア

    SE-NODE-G2

    - UCS C220 M5 シャーシ

    - 2x 10コア2.2G Intel Xeon Silver CPU

    - 256 GB の RAM

    - 4 X 25 G 仮想インターフェイスカード 1455

    - 2.4TB HDD X 4

    - 400 GB SSD

    - 1.2 TB NVMeドライブ

    - 1050W 電源装置

    Table 2. サポートされる UCS-C225-M6 ハードウェア
    PID ハードウェア

    ND-NODE-G4

    - UCS C225 M6 シャーシ

    - 2.8GHz AMD CPU

    - 256 GB の RAM

    - 2.4TB HDD X 4

    - 960GB SSD

    - 1.6TB NVME ドライブ

    - Intel X710T2LG 2x10 GbE(銅)

    - Intel E810XXVDA2 2x25/10 GbE(光ファイバ)

    - 1050W 電源装置

    note.svg

    上記のハードウェアは、Nexus Dashboard ソフトウェアのみをサポートします。他のオペレーティングシステムがインストールされている場合、そのノードはNexus Dashboardノードとして使用できなくなります。


  • Cisco Integrated Management Controller(CIMC)のサポートされているバージョンを実行していることを確認します。

    The minimum supported and recommended versions of CIMC are listed in the "Compatibility" section of the Release Notes for your Nexus Dashboard release.

  • ハードウェアが既存のクラスタと同じNexus Dashboardリリースを実行していることを確認します。

    新しいノードで以前のリリースを実行している場合は、[手動アップグレード]の説明に従って、現在のリリースに手動でアップグレードする必要があります。

    何らかの理由で手動アップグレードを実行できない場合は、[ノードの再イメージ化]の説明に従って、ソフトウェアを再インストールできます。

物理ノードの展開

上記のすべての前提条件を完了したら、ノードを接続してノード固有の電源をオンにします。

ノードの展開が完了したら、クラスタに追加できます。

VMware ESXでの追加の仮想ノードの展開

クラスタの初期展開については、『https://www.cisco.com/c/en/us/td/docs/dcn/nd/2x/deployment/cisco-nexus-dashboard-deployment-guide-2x.html[Cisco Nexus Dashboard 展開ガイド]』を参照してください。The following sections describe how to deploy an additional node in VMware ESX so you can add it as a worker or standby node.

note.svg

既存のクラスタにノードを追加する場合、追加ノードはクラスタ内の残りのノードと同じフォームファクタ(物理または仮想)である必要があります。このリリースは、異なるフォームファクタのノードを持つクラスタには対応していません。


追加ノードを展開した後、そのロールに基づいてそのノードを登録し、クラスタに追加できます。

ESX ノードの前提条件とガイドライン

  • Ensure that you reviewed and completed the general prerequisites described in the [Platform Overview], especially the network and fabric connectivity sections.

  • VMware ESXで展開する場合は、vCenterを使用して展開するか、ESXiホストに直接展開するかを選択できます。

    詳細については、次のいずれかのセクションを参照してください。

  • VMware ESXで展開する場合は、次の2種類のノードを展開できます。

    • データノード: Nexus Dashboard Insightsなどのデータ集約型アプリケーション向けに設計されたノードプロファイル

    • アプリケーションノード: Nexus Dashboard Orchestratorなどの非データ集約型アプリケーション向けに設計されたノードプロファイル

      Table 3. サポート対象ハードウェア
      Nexus Dashboard バージョン データノードの要件 アプリケーションノードの要件

      Release 3.0.1

      VMWare ESXi 7.0、7.0.1、7.0.2、7.0.3

      vCenter を使用して展開する場合、VMware vCenter 7.0.1、7.0.2、7.0.3

      各 VM には次のものが必要です。

      • 32 vCPUs with physical reservation of at least 2.2GHz

      • 物理予約された 128GB の RAM

      • データ ボリューム用の 3TB SSD ストレージとシステム ボリューム用の追加の 50GB

        Data nodes must be deployed on storage with the following minimum performance requirements:

        • SSDは、データストアに直接接続するか、RAID HBAのJBODモードで接続する必要があります。

        • SSDは、混合使用/アプリケーション用に最適化が必要です(読み取り最適化ではありません)。

        • 4Kランダム読み取りIOPS:93000

        • 4Kランダム書き込みIOPS:31000

      各Nexus Dashboardノードは、異なるESXiサーバーに展開推奨。

      VMWare ESXi 7.0、7.0.1、7.0.2、7.0.3

      vCenter を使用して展開する場合、VMware vCenter 7.0.1、7.0.2

      各 VM には次のものが必要です。

      • 少なくとも 2.2 GHz の物理予約された 16 個の vCPU

      • 物理予約された 64GB の RAM

      • データ ボリューム用に 500GB HDD または SSD ストレージ、システム ボリューム用に追加の 50GB

        Some services require App nodes to be deployed on faster SSD storage while other services support HDD.https://www.cisco.com/c/dam/en/us/td/docs/dcn/tools/nd-sizing/index.html[Nexus ダッシュボード キャパシティ プランニング] ツールをチェックして、正しいタイプのストレージを使用していることを確認してください。

      各 Nexus ダッシュボードノードは、異なる ESXi サーバに展開することを推奨します。

vCenterを使用したESXノードの展開

はじめる前に

ESX ノードの前提条件とガイドラインに記載されている要件とガイドラインを満たしていることを確認します。

ここでは、vCenterを使用してVMware ESXiで追加のCisco Nexus Dashboardノードを展開する方法について説明します。

  1. Cisco Nexus Dashboard OVAイメージを取得します。

    1. [ソフトウェア ダウンロード(Software Download)] ページを参照します。

      https://software.cisco.com/download/home/286327743/type/286328258/

    2. ダウンロードするNexusダッシュボードのバージョンを選択します。

    3. Click the Download icon next to the Nexus Dashboard OVA image (nd-dk9.<version>.ova).

  2. VMware vCenter にログインします。

    vSphereクライアントのバージョンによっては、設定画面の場所と順序が若干異なる場合があります。

  3. 新しい VM 展開を開始します。

    503090.jpg
    1. 展開するESXホストを右クリックします。

    2. [OVFテンプレートの展開…​]を選択します。

      The Deploy OVF Template wizard appears.

  4. In the Select an OVF template screen, provide the OVA image, then click Next.

    503932.jpg
    1. 画像を提供します。

      If you hosted the image on a web server in your environment, select URL and provide the URL to the image.

      If your image is local, select Local file and click Choose Files to select the OVA file you downloaded.

    2. [次へ(Next)] をクリックして続行します。

  5. [名前とフォルダの選択(Select a name and folder)] 画面で、VM の名前と場所を入力します。

    503933.jpg
    1. 仮想マシンの名前を入力します。

    2. 仮想マシンのストレージ場所を選択します。

    3. Click Next to continue

  6. [コンピューティング リソースの選択(Select a compute resource)] 画面で、ESX ホストを選択します。

    503934.jpg
    1. 仮想マシンの vCenter データセンターと ESX ホストを選択します。

    2. Click Next to continue

  7. [詳細の確認(Review details)] 画面で、[次へ(Next)] をクリックして続行します。

  8. [設定] 画面で、展開するノードプロファイルを選択します。

    503935.jpg
    1. ユースケースの要件に基づいて、アプリ`または`データ ノード プロファイルを選択します。

    2. For more information about the node profiles, see [Prerequisites and Guidelines for ESX Nodes].

    3. Click Next to continue

  9. [ストレージの選択(Select storage)] 画面で、ストレージ情報を入力します。

    503936.jpg
    1. [仮想ディスクフォーマットの選択]ドロップダウンリストから [シック プロビジョニング(Lazy Zeroed)] を選択します。

    2. 仮想マシンのデータストアを選択します。

      ノードごとに一意のデータストアを推奨します。

    3. Click Next to continue

  10. [ネットワークの選択] 画面で、Nexus ダッシュボードの管理およびデータ ネットワークの VM ネットワークを選択し、[次へ] をクリックして続行します。

    Nexus ダッシュボードクラスタには 2 つのネットワークが必要です。

    • fabric0 is used for the Nexus Dashboard cluster’s Data Network

    • mgmt0 は、Nexus ダッシュボードクラスタの管理ネットワークに使用されます。

    これらのネットワークの詳細については、「ネットワーク接続」を参照してください。

  11. [テンプレートのカスタマイズ(Customize template)] 画面で、必要な情報を入力します。

    503937.jpg
    1. ノードのデータディスク容量を指定します。

      必要なデータ ボリュームにはデフォルト値を使用することを推奨します。

      デフォルト値は、展開するノードのタイプに基づいて事前に入力されます。アプリケーションノードには単一の500 GBディスクがあり、データノードには単一の 3TB ディスクがあります。

      データ ボリュームに加えて、2 つ目の 50GB のシステム ボリュームも設定されますが、カスタマイズすることはできません。

    2. *パスワード*を入力して確認します。

      This password is used for the rescue-user account on each node. すべてのノードに同じパスワードを設定することを推奨しますが、2 番目と 3 番目のノードに異なるパスワードを指定することもできます。

    3. Provide the Management Network IP address, netmask.

    4. *管理ネットワーク*の IP ゲートウェイを入力します。

    5. [次へ(Next)]* *をクリックして次に進みます。

  12. In the Ready to complete screen, verify that all information is accurate and click Finish to begin deploying the node.

  13. VMの展開が完了したら、VMの電源をオンにします。

  14. Add the node as primary or standby.

    ノードを展開したら、クラスタに追加できます。

ESXiでのESXノードの直接展開

はじめる前に

ESX ノードの前提条件とガイドラインに記載されている要件とガイドラインを満たしていることを確認します。

ここでは、vCenterを使用してVMware ESXiで追加のCisco Nexus Dashboardノードを展開する方法について説明します。

  1. Cisco Nexus Dashboard OVAイメージを取得します。

    1. [ソフトウェア ダウンロード(Software Download)] ページを参照します。

      https://software.cisco.com/download/home/286327743/type/286328258/

    2. ダウンロードするNexusダッシュボードのバージョンを選択します。

    3. Click the Download icon next to the Nexus Dashboard OVA image (nd-dk9.<version>.ova).

  2. VMware ESXi にログインします。

    ESXiサーバのバージョンによっては、設定画面の場所と順序が若干異なる場合があります。

  3. ホストを右クリックし、[VM の作成/登録(Create/Register VM)] を選択します。

  4. [作成タイプの選択(Select creation type)] 画面で、[OVF または OVA ファイルから仮想マシンを展開する(Deploy a virtual machine from an OVF or OVA file)] を選択し、[次へ(Next)] をクリックします。

  5. In the Select OVF and VMDK files screen, provide the virtual machine name (for example, nd-node-worker1) and the OVA image you downloaded in the first step, then click Next.

  6. [Select storage] 画面で、VM のデータストアを選択し、[Next] をクリックします。

  7. In the Select OVF and VMDK files screen, provide the virtual machine name (for example, nd-node-worker1) and the OVA image you downloaded in the first step, then click Next.

  8. [展開オプション(Deployment options)] 画面で、[ディスク プロビジョニング:シック(Disk Provisioning:Thick)] を選択し、[自動化をオン(Power on automatic)] オプションをオフにして、[次へ(Next)] をクリックして続行します。

    ネットワークは2つあり、fabric0はデータネットワークに使用され、mgmt0は管理ネットワークに使用されます。

  9. [完了準備(Ready to complete)] 画面で、すべての情報が正しいことを確認し、[終了(Finish)] をクリックして最初の ノードの展開を開始します。

  10. VMの展開が終了するまで待ち、VMwareツールの定期的な時刻同期が無効になっていることを確認してから、VMを起動します。

    時刻の同期を無効にするには、次の手順を実行します。

    1. ノードのVMを右クリックして[設定の編集]を選択します。

    2. [設定の編集]ウィンドウで、[VMオプション]タブを選択します。

    3. [VMwareツール]カテゴリを展開し、[ホストとゲスト時刻の同期]オプションのチェックボックスをオフにします。

  11. ノードのコンソールを開き、ノードの基本情報を設定します。

    1. 初期設定を開始します。

      You will be prompted to run the first-time setup utility:

      [ OK ] Started atomix-boot-setup.
      Starting Initial cloud-init job (pre-networking)...
      Starting logrotate...
      Starting logwatch...
      Starting keyhole...
      [ OK ] Started keyhole.
      [ OK ] Started logrotate.
      [ OK ] Started logwatch.
      Press any key to run first-boot setup on this console...
    2. adminパスワードを入力し、確認します。

      このパスワードは、レスキューユーザーがSSHログインする際、およびこのノードをクラスタに追加する際に使用します。

      管理者パスワード:
      管理者パスワードの再入力:
    3. 管理ネットワーク情報を入力します。

      Management Network:
      IP Address/Mask: 192.168.9.172/24
      Gateway: 192.168.9.1
    4. 入力した譲歩をレビューし、確認します。

      入力した情報を変更するかどうかを尋ねられます。すべてのフィールドが正しい場合は、n を選択して続行します。

      If you want to change any of the entered information, enter y to re-start the basic configuration script.

      Please review the config
      Management network:
      Gateway: 192.168.9.1
      IP Address/Mask: 192.168.9.172/24
      Re-enter config? (y/N): n
  12. Add the node as primary or standby.

    ノードを展開したら、クラスタに追加できます。

Linux KVMでの追加の仮想ノードの展開

クラスタの初期展開については、『https://www.cisco.com/c/en/us/support/data-center-analytics/nexus-dashboard/products-installation-guides-list.html[Cisco Nexus Dashboard 展開ガイド]』を参照してください。The following sections describe how to deploy an additional node in Linux KVM so you can add it as a standby node.

note.svg

既存のクラスタにノードを追加する場合、追加ノードはクラスタ内の残りのノードと同じフォームファクタ(物理または仮想)である必要があります。このリリースは、異なるフォームファクタのノードを持つクラスタには対応していません。


After you deploy an additional node, you can add it to the cluster as a standby node as described in Managing Standby Nodes..

KVMノードの前提条件とガイドライン

  • Ensure that you reviewed and complete the general prerequisites described in the [Platform Overview], especially the network and fabric connectivity sections.

  • VMに十分なリソースがあることを確認します。

    Table 4. サポート対象ハードウェア
    Nexus Dashboardバージョン VMの要件

    Release 2.2.x

    • サポートされている Linux 流通:

      • Nexus Dashboard Orchestrator の場合、CentOS Linux に展開する必要があります

      • Nexus ダッシュボード ファブリック コントローラの場合、CentOS または Red Hat Enterprise Linux に展開する必要があります。

    • カーネルと KVM のサポートされているバージョン:

      • Kernel 3.10.0-957.el7.x86_64 or later

      • KVM libvirt-4.5.0-23.el7_7.1.x86_64 or later

    • 16 vCPU

    • 64 GB の RAM

    • 500 GB のディスク

      各ノードには専用のディスク パーティションが必要です。

    • ディスクの I/O 遅延は 20 ミリ秒以下である必要があります。次のコマンドを使用して、I / O 遅延を確認できます。

      fio --rw=write --ioengine=sync --fdatasync=1 --directory=test-data_with_se --size=22m --bs=2300 --name=mytest And confirm that the 99.00th=[<value>] in the fsync/fdatasync/sync_file_range section is under 20ms.

    • 各Nexus Dashboardノードは、異なるKVMサーバーに展開することを推奨します。

KVMノードの展開

はじめる前に

Ensure that you meet the requirements and guidelines described in [Prerequisites and Guidelines for KVM Nodes].

ここでは、Linux KVMで追加のCisco Nexus Dashboardノードを展開する方法について説明します。

  1. Cisco Nexus ダッシュボード イメージをダウンロードします。

    1. [ソフトウェア ダウンロード(Software Download)] ページを参照します。

      https://software.cisco.com/download/home/286327743/type/286328258

    2. 左側のサイドバーで、ダウンロードするNexus Dashboardのバージョンを選択します。

    3. Download the Cisco Nexus Dashboard image for Linux KVM (nd-dk9.<version>.qcow2).

  2. ノードをホストするLinux KVMサーバーにイメージをコピーします。

    クラスタを最初に展開するときなど、すでにイメージをコピーしている場合は、同じベースイメージを使用してこの手順をスキップできます。次の手順は、イメージを /home/nd-base ディレクトリにコピーしたことを前提としています。

    You can use scp to copy the image, for example:

    # scp nd-dk9.<version>.qcow2 root@<kvm-host-ip>:/home/nd-base
  3. ノードに必要なディスクイメージを作成します。

    You will create a snapshot of the base qcow2 image you downloaded and use the snapshots as the disk images for the node’s VM. また、ノードごとに 2 番目のディスクイメージを作成する必要があります。

    1. KVM ホストに root ユーザとしてログインします。

    2. ノードのスナップショット用のディレクトリを作成します。

      The following steps assume you create the snapshot in the /home/nd-node1 directory.

      # mkdir -p /home/nd-node1/
      # cd /home/nd-node1
    3. スナップショットを作成します。

      In the following command, replace /home/nd-base/nd-dk9.<version>.qcow2 with the location of the base image you created in the previous step.

      # qemu-img create -f qcow2 -b /home/nd-base/nd-dk9.<version>.qcow2 /home/<node-name>/nd-node1-disk1.qcow2

      The following steps assume you are adding nd-node4.

    4. ノードの追加ディスクイメージを作成します。

      Each node requires two disks: a snapshot of the base Nexus Dashboard qcow2 image and a second 500GB disk.

      # quemu-img create -f qcow2 /home/nd-node1/nd-node4-disk2.qcow2 500G

      次の手順に進む前に、

      • /home/nd-node4/nd-node4-disk1.qcow2, which is a snapshot of the base qcow2 image you downloaded in Step 1.

      • /home/nd-node4/nd-node4-disk2.qcow2, which is a new 500GB disk you created.

  4. 最初のノードの VM を作成します。

    CLI または KVM GUI を使用して、次の構成で VM を作成できます:

    • 16 vCPU

    • 64GB の RAM

    • オペレーティング システムの種類を linux2020 に設定 * virtio に設定されたネットワーク デバイス モデル * バス 0x00 とスロット 0x03 にマップされた管理インターフェイスと、バス 0x00 とスロット 0x04 にマップされたデータ インターフェイス
      NOTE: Nexus Dashboard expects the Management interface to be connected to bus 0x00 and slot 0x03 and the Data interface to bus 0x00 and slot 0x04. そうでない場合、クラスタはネットワークに接続できません。

    たとえば、CLI を使用して VM を作成するには:

    # virt-install --name <node-name> \
      --vcpus 16 --ram 64000 --osinfo linux2020 \
      --disk path=/home/nd-node4/nd-node4-disk1.qcow2 \
      --disk path=/home/nd-node4/nd-node4-disk2.qcow2 \
      --network bridge:br-oob,model=virtio,address.type=pci,address.domain=0,address.bus=0,address.slot=3 \
      --network bridge:br-vnd,model=virtio,address.type=pci,address.domain=0,address.bus=0,address.slot=4 \
      --noautoconsole --import
  5. ノードのコンソールを開き、ノードの基本情報を設定します。

    1. いずれかのキーを押して、初期設定を開始します。

      初回セットアップユーティリティの実行を要求するプロンプトが表示されます。

      [ OK ] Started atomix-boot-setup.
      Starting Initial cloud-init job (pre-networking)...
      Starting logrotate...
      Starting logwatch...
      Starting keyhole...
      [ OK ] Started keyhole.
      [ OK ] Started logrotate.
      [ OK ] Started logwatch.
      Press any key to run first-boot setup on this console...
    2. Enter and confirm the admin password.

      This password will be used for the rescue-user SSH login as well as the initial GUI password.

      Admin Password:
      Reenter Admin Password:
    3. 管理ネットワーク情報を入力します。

      Management Network:
      IP Address/Mask: 192.168.9.172/24
      Gateway: 192.168.9.1
    4. ノードが "クラスタリーダー" かどうかを尋ねられたら、"いいえ" を選択します。

      Since you are adding a worker or standby node, do not designate it as the cluster leader

      Is cluster leader?: n
    5. 入力した譲歩をレビューし、確認します。

      入力した情報を変更するかどうかを尋ねられます。If all the fields are correct, enter n to proceed. 入力した情報を変更する場合は、y を入力して基本設定スクリプトを再起動します。

      Please review the config
      Management network:
        Gateway: 192.168.9.1
        IP Address/Mask: 192.168.9.172/24
      Cluster leader: no
  6. 初期ブートストラップ処理が完了するまで待ちます。

    管理ネットワーク情報を入力して確認したら、最初のブートストラッププロセスが完了するまで待ちます。

    Please wait for system to boot: [#########################] 100%
    System up, please wait for UI to be online.
    
    System UI online, please login to https://192.168.9.172 to continue.
  7. Add the node to the cluster as primary or standby.

    ブートストラッププロセスが完了したら、クラスタに追加できます。

ワーカーノードの管理

既存の3ノードクラスタに複数のワーカーノードを追加して水平方向にスケーリングし、アプリケーションの共同ホスティングを実現できます。

アプリケーションの共同ホスティングとクラスタ サイジングの詳細については、このドキュメントの[プラットフォームの概要]セクションを参照してください。

note.svg

ワーカーノードは、AWSまたはAzureに展開されたNexus Dashboardクラスタのクラウドフォームファクタではサポートされません。


ワーカー ノードの追加

ここでは、ワーカーノードをクラスタに追加して水平スケーリングを可能にする方法について説明します。

はじめる前に

ワーカーノードを追加するには、次の手順を実行します。

  1. Cisco Nexus DashboardのGUIにログインします。

  2. メイン ナビゲーション メニューから、[システムリソース(System Resources)] > [ノード(Nodes)] を選択します。

  3. メインペインで、[ノードの追加(Add Node)] をクリックします。

    The Add Node screen opens.

  4. [ノードの追加(Add Node)] 画面で、ノードの情報を入力します。

    1. Provide the Name of the node.

    2. From the Type dropdown, select Worker.

    3. Provide the Credentials information for the node, then click Verify.

      物理ノードの場合、これはサーバーのCIMCのIPアドレス、ユーザー名、およびパスワードです。CIMCは、ノードの残りの情報を設定するために使用されます。

      For virtual nodes, this is the IP address and rescue-user password you defined for the node when deploying it.

    4. Provide the Management Network information.

      仮想ノードの場合、管理ネットワーク情報には、前のサブステップで指定したIPアドレスとログイン情報に基づいてノードから取得された情報が事前に入力されます。

      物理ノードの場合、ここで管理ネットワークのIPアドレス、ネットマスク、およびゲートウェイを指定する必要があります。

    5. Provide the Data Network information.

      データ ネットワークの IP アドレス、ネットマスク、およびゲートウェイを指定する必要があります。オプションで、ネットワークの VLAN ID を指定することもできます。ほとんどの導入では、[VLAN ID] フィールドを空白のままにできます。

    6. (任意)管理およびデータネットワークのIPv6情報を指定します。

      リリース2.1.1以降、Nexusダッシュボードは管理およびデータネットワークのデュアルスタックIPv4 / IPv6をサポートします。

      IPv6情報を入力する場合は、ノードの追加時に行う必要があります。

      クラスタ内のすべてのノードは、IPv4スタックまたはデュアル IPv4/IPv6スタックのいずれかで設定する必要があります。

  5. Click Save to add the node.

    設定がノードにプッシュされ、ノードがGUIのリストに追加されます。

  1. Nexus Dashboard Insightsアプリケーションを実行している場合は、アプリケーションを無効にしてから再度有効にします。

    新しいワーカーノードを追加した後、サービスを新しいノードに適切に配布するには、アプリケーションを無効にしてから再度有効にする必要があります。

ワーカー ノードの削除

はじめる前に
  • 既存のプライマリ ノードとクラスタが正常であることを確認します。

既存のワーカーノードを削除するには、次の手順を実行します。

  1. Cisco Nexus DashboardのGUIにログインします。

  2. メイン ナビゲーション メニューから、[システムリソース(System Resources)] > [ノード(Nodes)] を選択します。

  3. 削除するワーカーノードの横にあるチェックボックスをオンにします。

  4. From the Actions menu, choose Delete to delete the node.

スタンバイノードの管理

最大 2 つのスタンバイノードを追加できます。1 つ以上のマスターノードに障害が発生した場合に、障害が発生したマスターノードをスタンバイノードで置き換えることで、クラスタ機能を迅速に復元できます。

展開、初期設定、およびアップグレードに関しては、スタンバイノードはワーカーノードに似ています。ただし、ワーカーノードとは異なり、クラスタはワークロードにスタンバイノードを使用しません。

note.svg

スタンバイノードは、AWSまたはAzureに導入された単一ノードのクラスタではサポートされません。


次の2つのケースがサポートされます。

  • Single primary node failure

    UI を使用して、スタンバイノードを新しいプライマリ ノードに変換できます。

  • 2 つのプライマリ ノードの障害

    クラスタ機能を復元するには、いずれかのノードの手動フェールオーバーを実行する必要があります。次に、標準的手順を使用して2番目のノードをフェールオーバーします。

スタンバイノードの追加

ここでは、プライマリ ノードに障害が発生した場合にクラスタを簡単に回復できるように、クラスタにスタンバイ ノードを追加する方法について説明します。

はじめる前に
  • 既存のプライマリ ノードとクラスタが正常であることを確認します。

  • Prepare and deploy the new node as described in [Deploying Additional Physical Nodes], [Deploying Additional Virtual Nodes in VMware ESX], [Deploying ESX Node Directly in ESXi], or [Deploying Additional Virtual Nodes in Linux KVM].

    フェールオーバーできるのは同じタイプ(物理または仮想)のノード間のみであるため、交換が必要になる可能性のあるクラスタ内のノードと同じタイプのノードを展開する必要があります。In case of virtual nodes deployed in VMware ESX, which have two node profiles (OVA-app and OVA-data), you can failover only between nodes of the same profile.

  • 追加するノードの電源がオンになっていることを確認します。

  • 物理ノードを追加する場合は、ノードのCIMC IPアドレスとログイン情報があることを確認します。

    Nexus DashboardのGUIを使用して新しいノードを追加するには、CIMC情報を使用する必要があります。

  • 仮想ノードを追加する場合は、ノードの管理IPアドレスとログイン情報があることを確認します。

スタンバイノードを追加するには、次の手順を実行します。

  1. Cisco Nexus DashboardのGUIにログインします。

  2. メイン ナビゲーション メニューから、[システムリソース(System Resources)] > [ノード(Nodes)] を選択します。

  3. メインペインで、[ノードの追加(Add Node)] をクリックします。

    The Add Node screen opens.

  4. [ノードの追加(Add Node)] 画面で、ノードの情報を入力します。

    1. Provide the Name of the node.

    2. From the Type dropdown, select Standby.

    3. Provide the Credentials information for the node, then click Verify.

      物理ノードの場合、これはサーバーのCIMCのIPアドレス、ユーザー名、およびパスワードです。CIMCは、ノードの残りの情報を設定するために使用されます。

      For virtual nodes, this is the IP address and rescue-user password you defined for the node when deploying it.

    4. Provide the Management Network information.

      仮想ノードの場合、管理ネットワーク情報には、前のサブステップで指定したIPアドレスとログイン情報に基づいてノードから取得された情報が事前に入力されます。

      物理ノードの場合、ここで管理ネットワークのIPアドレス、ネットマスク、およびゲートウェイを指定する必要があります。

    5. Provide the Data Network information.

      データ ネットワークの IP アドレス、ネットマスク、およびゲートウェイを指定する必要があります。オプションで、ネットワークの VLAN ID を指定することもできます。ほとんどの導入では、[VLAN ID] フィールドを空白のままにできます。

    6. (任意)管理およびデータネットワークのIPv6情報を指定します。

      リリース2.1.1以降、Nexusダッシュボードは管理およびデータネットワークのデュアルスタックIPv4 / IPv6をサポートします。

      IPv6情報を入力する場合は、ノードの追加時に行う必要があります。

      クラスタ内のすべてのノードは、IPv4スタックまたはデュアル IPv4/IPv6スタックのいずれかで設定する必要があります。

  5. Click Save to add the node.

    設定がノードにプッシュされ、ノードがGUIのリストに追加されます。

Replacing Single Primary Node with Standby Node

This section describes failover using a pre-configured standby node. クラスタにスタンバイノードがない場合は、代わりに「トラブルシューティング」のセクションの1つで説明されている手順に従ってください。

はじめる前に
  • 少なくとも 2 つのプライマリ ノードが正常であることを確認します。

    If two of the primary nodes are unavailable, you will need to manually restore the cluster as described in Replacing Two Primary Nodes with Standby Nodes

  • Ensure that you have at least one standby node available in the cluster.

    Setting up and configuring standby nodes is described in [Adding Standby Nodes].

  • Ensure that the primary node you want to replace is powered off.

    note.svg

    You cannot re-add the primary node you are replacing back to the cluster after the failover is complete. If the primary node you replace is still functional and you want to re-add it to the cluster after the failover, you must factory reset or re-image it as described in Troubleshooting and add it as a standby or primary node only.


To failover a single primary node:

  1. Cisco Nexus DashboardのGUIにログインします。

  2. メイン ナビゲーション メニューから、[システムリソース(System Resources)] > [ノード(Nodes)] を選択します。

  3. Click the Actions (…​) menu next to the Inactive primary node that you want to replace.

  4. [フェールオーバー(Failover)] を選択します。

    Note that you must have a standby node already configured and added or the Failover menu option will not be available.

  5. In the Fail Over window that opens, select a standby node from the dropdown.

  6. Click Save to complete the failover.

    障害が発生したプライマリ ノードがリストから削除され、選択したスタンバイ ノードに置き換えられます。The status will remain Inactive while the services are being restored to the new primary node.

    It can take up to 10 minutes for all services to be restored, at which point the new primary node’s status will change to Active.

Replacing Two Primary Nodes with Standby Nodes

This section describes failover using a pre-configured standby node. クラスタにスタンバイノードがない場合は、代わりに「トラブルシューティング」のセクションの1つで説明されている手順に従ってください。

If only one of your primary nodes failed, you can use the GUI to replace it with a standby node as described in Replacing Single Primary Node with Standby Node.

ただし、2 つのプライマリ ノードが使用できない場合、クラスタがオフラインになります。この場合、UIを含むほとんどの操作が無効になり、クラスタに構成に変更を加えることができません。You can still SSH into the remaining primary node as the rescue-user, which is used to recover the cluster by manually failing over one of the failed primary nodes to a standby node. Once two primary nodes are available again, the cluster can resume normal operation, at which point you can recover the second primary node using the normal procedure.

はじめる前に
  • Ensure that you have at least one standby node available in the cluster.

    Setting up and configuring standby nodes is described in [Adding Standby Nodes].

  • Ensure that the primary nodes you want to replace are powered off.

    note.svg

    You cannot re-add the primary node you are replacing back to the cluster after the failover is complete. If the primary node you replace is still functional and you want to re-add it to the cluster after the failover, you must factory reset or re-image it as described in Troubleshooting and add it as a standby or primary node only.


  • Nexus Dashboard Fabric Controller (NDFC)サービスをクラスタにインストールした場合は、クラスタの回復後に復元できるように設定をバックアップする必要があります。

    The Fabric Controller service cannot recover from a two primary node failure of the Nexus Dashboard cluster where it is running. クラスタを回復した後、NDFCサービスを再インストールし、バックアップから設定を復元する必要があります。

2 つのプライマリノードをフェールオーバーするには、次の手順を実行します。

  1. Log in to the remaining primary node via CLI as rescue-user.

  2. フェールオーバーコマンドを実行します。

    次のコマンドで、<node1-data-ip>および<node2-data-ip>

    # acs failover --failedIP --failedIP
    note.svg

    最初のノードのみがフェールオーバーされますが、クラスタを回復するためには、内部的に指定した 2 番目に障害が発生したノードが必要です。``


    By default, the healthy primary node will automatically pick an available standby node and fail over the first failed node you provide (<node1-data-ip>) to it.

    特定のスタンバイノードを提供する場合は、<standby-node-data-ip>

       # acs failover --failedIP<node1-data-ip> --failedIP<node2-data-ip>  \
         --standbyIP<standby-node1-data-ip>
    ``
    . 操作を続行することを確定します。
    警告:フェールオーバーは中断を伴う操作になる可能性があるため、2 つのプライマリ ノードがハードウェア障害により動作しなくなった際に障害からクラスタを回復するための最終手段としてのみ実行してください。
    Proceed? (y/n): y

    The primary node will copy the configuration state to the standby node and both nodes will restart. ノードが起動してラスタが復元されるまでに最長30分かかる場合があります。You can check the progress by navigating to the primary node’s UI.

  3. フェールオーバーが完了するまで待ちます。

    正常なプライマリ ノードは構成状態をスタンバイ ノードにコピーし、両方のノードが再起動します。ノードが起動してクラスタが復元されるまでに最長 30 分かかる場合があります。マスターノードのUIに移動して、進行状況を確認できます。

  4. 必要に応じて、NDFCサービスを再インストールし、NDFC設定を復元します。

    We recommend fully recovering the cluster by replacing the 3rd primary node before any configuration changes. ただし、実稼働環境のNDFC設定をできるだけ早く回復する必要がある場合は、ここで実行できます。

    1. Using a browser, log in to one of the two active primary nodes of the ND cluster.

    2. NDFCサービスを無効にします。

      This is described in [Disabling Services].

    3. NDFCサービスを削除します。

      This is described in [Uninstalling Services].

    4. NDFC サービスを再インストールして、それを有効にします。

      This is described in [Services Management].

      この手順は、最初のサービス展開からすべてのインストールの前提条件が完了していることを前提としています。For detailed information on all NDFC requirements, see the Nexus Dashboard Fabric Controller Installation Guide for your release.

    5. バックアップからNDFC設定を復元します。

      This is described in the "Operations > Backup and Restore" chapter of the NDFC Fabric Controller Configuration Guide for your release.

    6. 次の手順に進む前に、NDFC サービスが稼働していることを確認します。

  5. クラスタがバックアップされたら、2 番目に障害が発生したプライマリ ノードをフェールオーバーします。

    At this point, you can use the standard procedure described in Replacing Single Primary Node with Standby Node. If you do not have a second standby node, you can add it to the cluster while it has only 2 primary nodes, as described in [Adding Standby Nodes].

    If you want re-add the same 2 primary nodes that had failed, you must factory reset or re-image them as described in Troubleshooting and only then add them as standby or primary nodes using the following steps:

    1. 障害が発生したプライマリ ノードをクラスタに再追加する前に、それらのノードが切断されていることを確認します。

      ND 管理インターフェイスとデータ インターフェイスの両方で接続を無効にする必要があります。仮想 ND の展開では、VM vNIC を無効または切断できます。物理 ND の展開では、ND 管理ネットワークおよびデータ ネットワークに接続されているインターフェイスをシャットダウンできます。

    2. Nexus Dashboard UI で、[システム リソースとノード(system resources and nodes)] ページに移動し、リストされている非アクティブなマスターノードをメモします。

      ページには、障害が発生したプライマリノードが「非アクティブ」として表示されます。クラスタに再度追加する最初のノードであるため、いずれかのノードをメモします。

    3. From the console of the node you noted in the previous substep, run acs reboot factory-reset command.

    4. Wait for node’s console to display "Press any key to run first-boot setup on this console".

    5. ノードのデータおよび管理インターフェイスのネットワーク接続が復元されていることを確認します。

      たとえば、仮想化された ND 展開の場合、それぞれの vNIC が無効/切断されている場合は、それらを有効にする必要があります。

    6. 前の手順で復元した機能している 2 ノード クラスタの Nexus Dashboard GUI で、非アクティブ ノードの [登録(Register)] を選択します。

      ノードがクラスタに完全に参加し、完全に機能する 3 ノード クラスタになるまでに数分かかる場合があります。

    7. ノードが登録されたら、post-recovery コマンドを実行します。

      rescue-user としてプライマリノードのいずれかにログインし、次のコマンドを実行します。

      curl -k `curl -k https://dcnm-fm.cisco-ndfc.svc:9443/fm/internal/resetobjectstore

      プロセスが完了するまでに最大 10 分かかり、完了すると次のメッセージが表示されます:

      Minio がリセットされました。NDFC を無効にしてから有効にして有効にしてください

    8. Finally, disable and re-enable the NDFC service from the Nexus Dashboard’s Admin Console to ensure the NDFC service is fully operational.

      note.svg

      ステップ 5 の後にイメージ管理ポリシーが作成された場合、ポリシー用にアップロードされたイメージは、NDFC の イメージ管理 UI から再アップロードする必要があります。Policies will reconcile with the newly uploaded images and do not need to be re-created.


  6. 3 ノードクラスタが完全に動作可能になったら、最後のノードをクラスタに再度追加します。

    After the cluster has been restored to a full 3-node cluster as described in the previous steps, add the last node as a standby node back to the cluster.

    If you want to re-add the old primary node back to the cluster, simply factory reset it and add it as a standby node as described in [Adding Standby Nodes].

スタンバイノードの削除

はじめる前に
  • 既存のプライマリ ノードとクラスタが正常であることを確認します。

既存のスタンバイノードを削除するには、次の手順を実行します。

  1. Cisco Nexus DashboardのGUIにログインします。

  2. メイン ナビゲーション メニューから、[システムリソース(System Resources)] > [ノード(Nodes)] を選択します。

  3. 削除するスタンバイノードの横にあるチェックボックスをオンにします。

  4. From the Actions menu, choose Delete to delete the node.

商標

このマニュアルに記載されている仕様および製品に関する情報は、予告なしに変更されることがあります。このマニュアルに記載されている表現、情報、および推奨事項は、すべて正確であると考えていますが、明示的であれ黙示的であれ、一切の保証の責任を負わないものとします。このマニュアルに記載されている製品の使用は、すべてユーザー側の責任となります。

対象製品のソフトウェア ライセンスと限定保証は、製品に添付された『Information Packet』に記載されており、これらは、参考資料によって本書に含まれています。添付されていない場合には、代理店にご連絡ください。

シスコが導入する TCP ヘッダー圧縮は、カリフォルニア大学バークレー校(UCB)により、UNIX オペレーティング システムの UCB パブリック ドメイン バージョンの一部として開発されたプログラムを適応したものです。All rights reserved. Copyright © 1981, Regents of the University of California.

ここに記載されている他のいかなる保証にもよらず、各社のすべてのマニュアルおよびソフトウェアは、障害も含めて「現状のまま」として提供されます。シスコおよび上記代理店は、商品性、特定目的適合、および非侵害の保証、もしくは取り引き、使用、または商慣行から発生する保証を含み、これらに限定することなく、明示または暗黙のすべての保証を放棄します。

いかなる場合においても、シスコおよびその供給者は、このマニュアルの使用または使用できないことによって発生する利益の損失やデータの損傷をはじめとする、間接的、派生的、偶発的、あるいは特殊な損害について、あらゆる可能性がシスコまたはその供給者に知らされていても、それらに対する責任を一切負わないものとします。

このマニュアルで使用している IP アドレスおよび電話番号は、実際のアドレスおよび電話番号を示すものではありません。マニュアルの中の例、コマンド出力、ネットワーク トポロジ図、およびその他の図は、説明のみを目的として使用されています。説明の中に実際の IP アドレスおよび電話番号が使用されていたとしても、それは意図的なものではなく、偶然の一致によるものです。

この製品のマニュアルセットは、偏向のない言語を使用するように配慮されています。このドキュメントセットでの偏向のない言語とは、年齢、障害、性別、人種的アイデンティティ、民族的アイデンティティ、性的指向、社会経済的地位、およびインターセクショナリティに基づく差別を意味しない言語として定義されています。製品ソフトウェアのユーザインターフェイスにハードコードされている言語、RFP のドキュメントに基づいて使用されている言語、または参照されているサードパーティ製品で使用されている言語によりドキュメントに例外が存在する場合があります。

Cisco および Cisco のロゴは、米国およびその他の国における Cisco およびその関連会社の商標を示します。シスコの商標の一覧は、http://www.cisco.com/go/trademarks で参照できます。記載されているサードパーティの商標は、それぞれの所有者に帰属します。「パートナー」という言葉が使用されていても、シスコと他社の間にパートナー関係が存在することを意味するものではありません。(1110R)

© 2017-2024 Cisco Systems, Inc. All rights reserved.


初版: 2023 年 1 月 31 日
最終更新日:2023 年 4 月 11 日

Americas Headquarters
Cisco Systems, Inc.
170 West Tasman Drive
San Jose, CA 95134-1706
USA
http://www.cisco.com
電話: 408 526-4000
0120-092-255 (フリーコール、携帯・PHS含む)
Fax:408 527-0883