新機能および変更された機能に関する情報
次の表は、この最新リリースまでの主な変更点の概要を示したものです。ただし、今リリースまでの変更点や新機能の一部は表に記載されていません。
Cisco APIC リリース 5.2(6) |
機能 |
---|---|
6.0(2) |
AWS を使用した仮想 APIC の展開のサポート。 |
概要
Cisco APIC リリース 6.0(2)以降では、クラスタ内のすべての APIC が仮想 APIC であるクラスタを展開できます。VMware vCenter を使用して ESXi に仮想 APIC を展開するか、パブリック クラウドに仮想 APIC を展開できます。このリリースでサポートされているパブリック クラウドは、Amazon Web Services(AWS)です。
このドキュメントでは、AWS を使用した仮想 APIC の展開について詳しく説明します。 VMware vCenter を使用して ESXi ホストに仮想 APIC を展開する方法の詳細については、[VMware vCenter を使用した仮想 APIC の展開(Deploying Virtual APIC Using VMware vCenter)]に関するドキュメントを参照してください。
この展開では、仮想 APIC クラスタは AWS パブリック クラウドで実行され、ファブリック スイッチはお客様の構内(オンプレミス)に展開されます。APIC は、レイヤ 3 ネットワークを介してファブリックにリモート接続されます。3 ノード クラスタが推奨されます。高可用性と冗長性を確保するために、3 つの APIC は AWS の 3 つの異なる可用性ゾーン(AZ)の下に展開されます。各 AZ には、異なるサブネットが必要です。
IPN は、直接接続またはサイト間 VPN を使用して AWS クラウドに接続できます。IPN を介して接続されたオンプレミス デバイスと AWS クラウド上の APIC クラスタの間に、10 Gbps の最小帯域幅があることを確認します。
直接接続とサイト間 VPN の詳細については、関連する [AWS ドキュメント(AWS documentation)] を参照してください。
注意事項と制約事項
AWS を使用して仮想 APIC を展開するためのガイドラインと制限は次のとおりです。
-
ファブリック スイッチは、Cisco APIC リリース 6.0(2)以降を実行している必要があります。リリース 6.0(2)より前のバージョンを実行しているファブリック スイッチは、自動ファームウェア アップデートを使用したファブリック検出中に、リリース 6.0(2)リリースに自動的にアップグレードできます。
-
混合モードはサポートされていません。つまり、クラスタのすべての APIC は同じタイプである必要があります。
-
AWS の仮想 APIC は、ESXi ホストの仮想 APIC でクラスタを形成できません。
-
AWS の仮想 APIC は、物理 APIC でクラスタを形成できません。
-
-
ESXi を使用して展開された仮想 APIC は AWS に移行できず、その逆も同様です (AWS から ESXi に展開されます)。AWS を使用して展開された仮想 APIC から物理 APIC への移行もサポートされていません。サポートされている移行シナリオについては、物理 APIC から仮想 APIC への移行セクションを参照してください。
-
AWS を使用して仮想 APIC(リリース 6.0(2))を展開した後は、Cisco APIC リリース 6.0(2)より前のリリースにダウングレードすることはできません。
-
スタンバイ APIC サポートなし(冗長性なし)。
物理 APIC クラスタの場合、スタンバイ APIC は、現用系クラスタと一緒のファームウェア バージョンだと確認するためファームウェア アップデートと一緒に自動的にアップデートされます。これにより、障害発生時の APIC の置き換えが可能になります。ただし、仮想 APIC クラスタの場合、ユーザーは必要に応じて同じバージョンの APIC のインスタンスを作成できるため、スタンバイ APIC は必要ありません。
-
クラスタとファブリックのセキュリティは、自己署名証明書を使用して提供されます。
-
AWS を使用して展開された仮想 APIC では、IPv6 はサポートされていません。
IPv6 は、契約によるインバンドおよびアウトオブバンド管理ではサポートされていません。
-
AWS の仮想 APIC ではアプリまたはアプリ インフラがサポートされていません。つまり、DC AppCenter から仮想 APIC(AWS を使用して展開)に外部 ACI アプリをダウンロードしてインストールすることはできません。事前にパッケージ化されたアプリのみがサポートされています。
AWS を使用して仮想化 APIC を展開します
この手順を使用して、AWS を使用して Cisco 仮想 APIC を展開します。
始める前に
前提条件:
-
Amazon アカウントにログインし、AWS の管理者アクセス権があることを確認します。
-
AWS アカウントがインスタンスの展開の制限を許可したことを確認します。AWS 管理コンソールのアカウント インスタンスの制限は、[サービス(Services)] > EC2> Limitsから確認できます。
本番環境の APIC クラスタには少なくとも 3 つの EC インスタンスが必要です。つまり、AWS アカウントは 3 つの追加の r6i.4xlarge EC2 インスタンスを起動できる必要があります。
以下の表は、AWS 上の仮想 APIC でサポートされているクラウド インスタンス タイプを示しています。
AWS EC2 インスタンス
vCPU
メモリ(4 GB RAM)
r6i.4xlarge(推奨)
16
128
r6i.8xlarge
32
256
-
スタックの作成に使用するネットワーク情報技術を作成します。次の情報技術を作成します。
-
VPC 識別子 - 仮想 APIC が展開される仮想プライベートクラウド(VPC)識別子。VPC 識別子 プレフィックスがオンプレミス デバイスの IP プレフィックスと競合していないことを確認します。
VPC 識別子がすでにある場合は、それを使用できます。新しい VPC の作成は必須ではありません。
-
サブネット識別子 — VPC のサブネット範囲。
高可用性のために、各可用性に 3 つのサブネット識別子を作成します。 1 つは帯域外管理、インフラおよび帯域内管理用です。3 ノード クラスタには 3 つの可用性ゾーンがあり、9 つのサブネット ID が必要です。展開手順で使用するので、手元に置いておいてください。各可用性ゾーンのサブネット識別子を明確に示します。
AZ1
APIC 1
OOB、インフラ、インバンド管理のサブネット識別子。
AZ2
APIC 2
OOB、インフラ、インバンド管理のサブネット識別子。
AZ3
APIC 3
OOB、インフラ、インバンド管理のサブネット識別子。
(注)
3 つのサブネットはすべて、1 つの APIC の 1 つの可用性ゾーンに属している必要があります。
VPC とサブネットの作成の詳細については、関連する [AWS ドキュメント(AWS documentation)]を参照できます。
例:
Vpc : vpc-062429c055a4a7416 Subnets: VPC: vapic-example1-vpc, AZ: AZ1 vapic-oob-az1-subnet: 10.1.0.0/28 GW: 10.1.0.1 vapic-infra-az1-subnet: 10.1.0.16/28 GW: 10.1.0.17 vapic-inb-az1-subnet: 10.1.0.128/28 GW: 10.1.0.129
作成の前提条件の構成を自動化するクラウド形成テンプレートの例については、その他の参考資料セクションを参照してください。
-
-
Amazon EC2 SSH キーペアを作成します。
-
画面の左上のエリアにある [サービス(Services)] リンクをクリックし、[EC2] リンクをクリックします。
[EC2 ダッシュボード (EC2 Dashboard)] 画面が表示されます。
-
EC2 ダッシュボード画面で、[キー ペア(Key Pair)] リンクをクリックします。
-
[キー ペアの作成(Create Key Pair)] 画面で、次の詳細を入力します。
-
キー ペアの一意の名前を入力します。そして、[作成(Create)]をクリックします。
-
AWS に保存されている公開キーを示す画面が表示されます。さらに、プライバシー強化メール (PEM) ファイルが、秘密キーとともにシステムにローカルにダウンロードされます。
-
秘密キー PEM ファイルをシステム上の安全な場所に移動し、場所をメモします。
すでにキー ペアを作成している場合は、それを使用できます。新しいキー ペアの作成は必須ではありません。
-
-
-
AWS クラウドとファブリック(オンプレミス デバイス)の間に 10 Gbps の帯域幅が必須です。
-
遅延耐性は最大 50 ミリ秒です。
手順
ステップ 1 |
左上の [サービス(Service)] 検索ボックスで、CloudFormation を検索します。仮想 APIC の展開に使用されるサービスは CloudFormation と呼ばれます。 |
||
ステップ 2 |
表示される AWS CloudFormation 画面で、Create Stack ボタンをクリックして CloudFormation スタックを作成します。 |
||
ステップ 3 |
表示されるスタックを作成画面で、次の詳細を入力します。
|
||
ステップ 4 |
[次へ(Next)] をクリックします。 |
||
ステップ 5 |
[スタックの詳細を指定(Specify stack details)] 画面で、次の詳細を入力します。
|
||
ステップ 6 |
[次へ(Next)] をクリックします。[スタック オプションを構成(Configure Stack Options)] ページが表示されます。 |
||
ステップ 7 |
[次へ(Next)] をクリックします。仮想 APIC の [レビュー(Review)] ページが表示されます。パラメータ ペインに表示される情報が正確であることを確認してください。 |
||
ステップ 8 |
[送信(Submit)] をクリックします。これにより、スタックの作成が開始されます。 スタック作成の進行状況は、[イベント(Events)] タブで確認できます。現在のステータスを表示するステータス列、CREATE_IN_PROGRESS を確認します。スタックの作成には約 8 ~ 10 分かかります。スタックが正常に作成されると、ステータス列に CREATE_COMPLETE のステータスが表示されます。 |
||
ステップ 9 |
[出力(Outputs)] タブを確認します。ここに表示されるパラメータを書き留めます。ここに表示される OOBMgmt IP アドレス(以下を参照)は、APIC クラスタのブリングアップ GUI を使用してノードを構成するときに必要です。 |
||
ステップ 10 |
AWS のホーム画面の [サービス(Services)] の横にある検索ボックスで、EC2 を検索します。 |
||
ステップ 11 |
[技術情報(Resource)] > [インスタンス(Instances)]. |
||
ステップ 12 |
新しく作成されたスタックの [ステータス チェック(Status Check)] 列を確認します。合格したチェックが表示されていることを確認します。 |
||
ステップ 13 |
上記の手順を繰り返して、クラスタ内に各ノードを作成します。たとえば、3 ノード クラスタを構築している場合は、上記の手順を 3 回実行します。 すべての APIC ノードで管理者パスワードが同じであることを確認します。また、APIC クラスタ ブリングアップ GUI に進む前に、各ノードの [ステータス チェック(Status Check)] 列に、新しく作成されたすべてのインスタンス(スタック)に合格したチェックが表示されていることを確認してください。 |
次のタスク
最初の起動とクラスタの起動については、Cisco APIC Getting Started GuideのGUI を使用した Cisco APIC クラスタの起動手順を参照してください。OOB 管理 IP アドレスを使用して、クラスタ起動 GUI にアクセスします。
(注) |
仮想 APIC AWS クラスタを拡張するには、最初のクラスターの起動後に、Cisco APIC GUI のノードの追加オプションを使用できます。[システム(System)] > [コントローラ(コントローラ)]に移動します。ナビゲーションウィンドウ内で、[コントローラ(Controllers)] > apic_controller_name > [ノードから見たクラスタ(Cluster as Seen by Node)] > [アクション(Action)] > [ノードを追加(Add Node)]を拡大します。 クラスタ サイズを増やしてノードをコミッショニングすることによるクラスタ拡張はサポートされていません。 |
レイヤ 3 接続された APIC クラスタと一緒に ACI ネットワークを作成
このセクションの手順では、作成された仮想 APIC クラスタ(クラウド上)とリモート ACI ファブリック間の接続を確立します。クラウド上の APIC クラスタは、DHCP リレーと、IPN によって提供される OSPF または BGP アンダーレイを使用して、ファブリック ノードを検出できます。
次のリストは、クラウド上の APIC クラスタを使用して ACI ネットワークを展開する手順の概要を示しています:
手順
ステップ 1 |
ファブリックに接続された IPN デバイスをプロビジョニングとAPIC クラスタに接続された IPN デバイスをプロビジョニング — これらの手順の説明に従って IPN を構成します。 |
ステップ 2 |
上記のように APIC クラスタを起動します。AWS を使用して仮想化 APIC を展開しますを参照してください。 |
ステップ 3 |
APIC クラスタのレイヤー 3 接続を構成して、IPN を介してファブリック ポッドと通信します。ファブリック ポッドへの接続を準備を参照してください。 |
ステップ 4 |
ファブリック ポッドを持ち上げます。ファブリックは、ファブリック検出と登録の概要で説明されているように、レイヤ 3 接続を介して APIC クラスタによって検出されます。 |
次のタスク
同様の方法で、追加のファブリック ポッドとリモート リーフ サイトを、レイヤ 3 で接続された APIC クラスタに接続できます。
APIC クラスタ接続をレイヤ 3 ネットワークへ展開するときのガイドラインと制限。
仮想レイヤ 3 接続の APIC クラスタを展開するときは、次のガイドラインと制限に従ってください。
-
すべての APIC クラスタ サイズは、レイヤ 3 で接続された APIC ポッドでサポートされます。
-
レイヤ 3 で接続された APIC ポッド内の APIC は、ファブリック ポッド内の APIC でクラスタを形成できません。このトポロジでは、ファブリック ポッドに APIC がないようにする必要があります。
-
レイヤ 3 で接続された APIC は、同じサブネットまたは異なるサブネットに配置できます。
-
APIC 間の遅延とファブリック ポッドとの遅延が 50 ミリ秒の往復時間(RTT)を超えないことを条件として、レイヤー 3 で接続された APIC を地理的に分散させることができます。これは、およそ最大 2,500 マイルの地理的距離に相当します。
-
IPN ネットワーク要件を満たすことができるデバイスはすべて IPN デバイスとして使用できますが、可能であれば、Cisco Nexus 9300 クラウド スケール ファミリのスイッチを展開することをお勧めします。これらは、実稼働環境で最も一般的に見られるデバイスであり、シスコの内部テストでより生産に検証されるデバイスでもあります。IPN デバイス要件の詳細については、[ACI マルチポッド ホワイト ペーパー(ACI Multi-Pod White Paper)]の「ポッド間接続の展開に関する考慮事項」を参照してください。
-
APIC サブネットは、OSPF または BGP ルートとしてスパインにアドバタイズする必要があります。OSPF/BGP アンダーレイがサポートされています。
-
APIC クラスタとファブリック ポッド間のすべてのコントロール プレーン トラフィックは IPN を通過するため、このトラフィックに QoS を構成することをお勧めします。このガイドの [QoS の構成(Configuring QoS)] セクションを参照してください。
-
レイヤ 3 ネットワークを介したファブリックへの APIC クラスタ接続は、次をサポートしません:
-
Kubernetes の ACI CNI(Redhat Openshift、SUSE/Rancher RKE、Ubuntu 上のアップストリーム Kubernetes)
-
Openstack 用の ACI ML2(Redhat Openstack、Canonical Openstack)
-
-
レイヤー 3 ネットワークを介したファブリックへの仮想 APIC AWS クラスタ接続は、デフォルトで許可モードをサポートします。
APIC クラスタに接続された IPN デバイスをプロビジョニング
このセクションでは、APIC クラスタ ポッドであるポッド 0 に接続された IPN デバイスの構成について説明します。この概要セクションのトポロジを参照すると、クラスタに面した IPN デバイスは IPN0 として示されています。推奨されるプラクティスとして、IPN0 は冗長性のために 2 つのデバイスで構成されます。各 APIC のファブリック インターフェイスは、2 つのデバイスにデュアルホーム接続されています。
次の構成例では、2 つの Cisco Nexus 9000 シリーズ スイッチ(IPN0a および IPN0b)が次の選択肢で構成されています:
-
VLAN 1500 は、APIC のインターフェイス VLAN として使用されます。
-
スイッチ インターフェイスは、レイヤ 2 トランク ポートとして構成されます。代わりに、APIC ファブリック インターフェイスが APIC セットアップ中に VLAN 0 を使用するように構成されている場合、インターフェイスはアクセス ポートである可能性があります。
-
どちらのスイッチも、APIC サブネットのデフォルト ゲートウェイ アドレスとして機能する単一の IP アドレスを共有するように HSRP を使用して設定されています。
-
APIC サブネットは、アンダーレイ プロトコルとして OSPF を使用してスパインにアドバタイズされます。代わりに、BGP アンダーレイを展開できます。
# Example configuration of IPN0a:
interface Vlan1500
no shutdown
vrf member IPN
ip address 172.16.0.252/24
ip ospf passive-interface
ip router ospf 1 area 0.0.0.0
hsrp version 2
hsrp 1500
ip 172.16.0.1
interface Ethernet1/1
switchport mode trunk
switchport trunk vlan 1500
spanning-tree port type edge trunk
# Example configuration of IPN0b:
interface Vlan1500
no shutdown
vrf member IPN
ip address 172.16.0.253/24
ip ospf passive-interface
ip router ospf 1 area 0.0.0.0
hsrp version 2
hsrp 1500
ip 172.16.0.1
interface Ethernet1/1
switchport mode trunk
switchport trunk vlan 1500
spanning-tree port type edge trunk
ファブリックに接続された IPN デバイスをプロビジョニング
このセクションでは、ファブリック ポッドに接続された IPN デバイスである MPod IPN の構成について説明します。IPN は APIC では管理されません。これは、次の情報が事前する必要があります。
-
ファブリック ポッドの背表紙に接続されているインターフェイスを設定します。
-
OSPF プロセスとエリア識別子を指定して、サブインターフェイスで OSPF(または BGP)を有効にします。
-
スパインに接続されている IPN インターフェイスで DHCP リレーを有効にします。
-
PIM をイネーブルにします。
-
PIM 双方向としてブリッジ ドメイン GIPo 範囲の追加(bidir)の範囲をグループ化(デフォルトでは 225.0.0.0/15)。
グループを bidir モードが機能の転送を共有ツリーのみ。
-
PIM として 239.255.255.240/28 を追加 bidir 範囲をグループ化します。
-
すべての背表紙に接続されたインターフェイスで PIM を有効にします。
(注) |
マルチキャストは、レイヤ 3 で接続された APIC クラスタを持つ単一のポッド ファブリックには必要ありませんが、マルチポッド ファブリックのポッド間で必要です。 |
(注) |
PIM bidir を展開する際には、どの時点であっても、特定のマルチキャスト グループ範囲に対して、1 つのアクティブな RP(ランデブー ポイント)を設定することだけが可能です。RP の冗長性が活用することで実現そのため、 ファントム RP 設定します。希薄モードの冗長性を提供するために使用するエニー キャストまたは MSDP メカニズムはのオプションではありませんマルチキャスト ソースの情報は、Bidir で利用可能なは不要であるため bidir 。 |
次のスイッチ構成の例は、MPod IPN として展開されたスイッチ用です。DHCP リレー設定により、APIC クラスタによるファブリックの検出が可能になります。ポッド間接続用の IPN での専用 VRF の展開はオプションですが、ベスト プラクティスとして推奨されます。代わりにグローバル ルーティング ドメインを使用することもできます。
Example: OSPF as the underlay protocol
feature dhcp
feature pim
service dhcp
ip dhcp relay
# Create a new VRF.
vrf context overlay-1
ip pim rp-address 12.1.1.1 group-list 225.0.0.0/15 bidir
ip pim rp-address 12.1.1.1 group-list 239.255.255.240/28 bidir
interface Ethernet1/54.4 #spine connected interface
mtu 9150
encapsulation dot1q 4
vrf member overlay-1
ip address 192.168.0.1/30
ip ospf network point-to-point
ip router ospf infra area 0.0.0.0
ip dhcp relay address 172.16.0.2 #infra address of APIC 1
ip dhcp relay address 172.16.0.3 #infra address of APIC 2
ip dhcp relay address 172.16.0.4 #infra address of APIC 3
no shutdown
interface loopback29
vrf member overlay-1
ip address 12.1.1.2/30
router ospf infra
vrf overlay-1
router-id 29.29.29.29
Example: BGP as the underlay protocol
router bgp 65010
vrf IPN
neighbor 192.168.0.2 remote-as 65001
address-family ipv4 unicast
disable-peer-as-check
BGP 構成では、各ポッドが同じ ASN を使用するため、マルチポッドに disable-peer-as-check
コマンドが必要です。
ファブリック ポッドへの接続を準備
ファブリック ポッド(ポッド 1)を起動する前に、IPN を介してファブリック ポッド内のスパインに接続できるように、レイヤ 3 で接続された APIC クラスタ(ポッド 0)を事前に構成する必要があります。これは、自動ファブリック検出に必要です。
始める前に
-
レイヤ 3 接続された仮想 APIC クラスタがファブリックとは別のセキュリティ ゾーンに展開されている場合は、必要なプロトコルとポートを許可するようにファイアウォールを構成します。
-
ファブリック ポッド スパインに接続されているポッド間ネットワーク(IPN)デバイスを構成します。
-
ファブリックの外部ルーティング プロファイルを構成します。
-
アンダーレイ プロトコルとして OSPF を使用している場合は、OSPF インターフェイス ポリシーを構成します。
手順
ステップ 1 |
レイヤ 3 接続クラスタ内の APIC の 1 つにログインします。 |
ステップ 2 |
を選択します。 |
ステップ 3 |
作業ウィンドウで、+ 記号をクリックします。 [ポッド TEP プールの設定(Set Up Pod TEP Pool)] ダイアログ ボックスが開きます。 |
ステップ 4 |
[ポッド TEP プールの作成(Set Up Pod TEP Pool)]ダイアログボックスで、次の手順を行います。
|
ステップ 5 |
ナビゲーション ペインで、[クイック スタート(Quick Start) を展開し、[ポッドの追加(Add Pod)] をクリックします。 |
ステップ 6 |
作業ペインで、[Add Pod] をクリックします。 |
ステップ 7 |
[Configure Interpod Connectivity STEP 1 > Overview] パネルで、ポッド間ネットワーク(IPN)接続の設定に必要なタスクを確認し、[Get Started] をクリックします。 |
ステップ 8 |
[Configure Interpod Connectivity STEP 2 > IP Connectivity] ダイアログボックスで、次の手順を実行します。 |
ステップ 9 |
[ポッド間接続構成 ステップ 3(Configure Interpod Connectivity STEP 3)] > [ルーティング プロトコル(Routing Protocols)] ダイアログボックスの [OSPF] エリアで、スパインを IPN インターフェイスへ OSPF を構成するために次の手順を実行します: |
ステップ 10 |
[ポッド間接続構成 ステップ 3(Configure Interpod Connectivity STEP 3)] > [ルーティング プロトコル(Routing Protocols)] ダイアログボックスの [BGP] エリアで、[デフォルトを使用(Use Defaults)] をチェックしたままにするか、チェックを外します。 デフォルトでは、[デフォルトを使用(Use Defaults)] チェックボックスはオフになっています。チェックボックスをオンにすると、Border Gateway Protocol(BGP)を構成するための GUI のフィールドが非表示になります。オフにした場合は、すべてのフィールドが表示されます。チェックボックスをオフにした場合は、次の手順を構成します。 |
ステップ 11 |
[次へ] をクリックします。 |
ステップ 12 |
[Configure Interpod Connectivity STEP 4 > External TEP] ダイアログボックスで、次の手順を実行します。 |
ステップ 13 |
[次へ(Next)] をクリックします。 [概要(Summary)] パネルが表示され、このウィザードで作成されたポリシーのリストが表示されます。ここでこれらのポリシーの名前を変更できます。
|
ステップ 14 |
[Finish] をクリックします。 |
次のタスク
次のセクションで要約されているように、APIC によるファブリック ノードの検出と登録をモニタします。
ファブリック検出と登録の概要
以下は、スイッチの登録および検出プロセスの概要です。
-
DHCP リレー エージェントとして機能する IPN は、DHCP 要求をスパインから APIC に転送します。
-
スパイン スイッチが APIC に表示されるようになり、[ファブリック メンバーシップ(Nodes Pending Registration)] 画面の [ノード保留中の登録(Nodes Pending Registration)] の下に表示されます。[ファブリック(Fabric)] > [インベントリ(Invertory)] > [ファブリック メンバーシップ(Fabric Membership)]に移動します。
-
APIC にスパイン スイッチを登録します。
-
APIC は、スパイン インターフェイスの IP アドレスを IPN に割り当て、スパインを含むファブリック ポッド用に構成された TEP プールから TEP IP を割り当てます。この時点で、スパインは ACI ファブリックに参加します。
-
スパインは、IPN がこのサブネットを学習できるように、OSPF または BGP を介して IPN に TEP サブネットをアドバタイズします。
-
スパインは、接続されたリーフ スイッチの DHCP リレー エージェントとして機能し、要求を APIC に転送します。
-
リーフ スイッチは APIC に表示され、[ファブリック(Fabric)] > [インベントリ(Inventory)] > [ファブリック メンバーシップ(Fabric Membership)] の [登録保留中のノード] のセクションに表示されます。
-
APIC でこれらのリーフ スイッチを手動で登録する必要があります。
-
リーフ スイッチが登録されると、APIC は TEP IP アドレスと DHCP 設定情報をリーフに転送し、リーフは ACI ファブリックに参加します。この検出プロセスを通じて、レイヤ 3 に接続された APIC クラスタは、ファブリック ポッド内のすべてのスイッチを検出します。
パスワードベース SSH ログイン
デフォルトでは、SSH のパスワード認証は AWS の仮想 APIC で無効になっています。公開キー認証を使用してSSH経由でログインできます。
仮想 APIC クラスタが起動して完全に適合したら、標準の Cisco APIC GUI を使用してパスワード認証を有効にできます。[ファブリック(Fabric)] > [ファブリック ポリシー(Fabric Policies)] > [ポリシー(Policies)] > [ポッド (Pod)] > [管理アクセス(Management Access)] に移動します。管理アクセス デフォルト ページの SSH ペインの [パスワード 認証状態(Password Auth State)] フィールドで、ドロップダウン リストから [有効化(Enabled)] を選択します (以前は [無効化(Disabled)] に設定されていました)。
CLI を使用したパスワード認証の有効化については、以下を参照してください。
aws-vapic# config
aws-vapic(config)# comm-policy default
aws-vapic(config-comm-policy)# ssh-service
aws-vapic(config-ssh-service)# passwd-auth-enable
aws-vapic(config-ssh-service)# exit
インバンド管理の構成
この手順を使用して、レイヤ 3 で接続された APIC クラスタのインバンド管理を構成します。
始める前に
レイヤ 3 接続された APIC クラスタを使用してインバンド管理を展開すると、インバンド管理 VRF(mgmt:inb)はスパインを介して IPN にルーティングされません。APIC のインバンド管理インターフェイスへの接続は、リーフ スイッチから構成された L3Out からルーティングする必要があります。この L3Out は、インバンド管理 VRF の mgmt テナントで構成する必要があります。
AWS での仮想 APIC のインバンド管理に関するガイドラインと制限事項
-
展開中に、各 APIC は、AWS によって割り当てられたインバンド管理インターフェイスと IP アドレスを使用します。インバンド管理インターフェイスは、無効化状態です。インバンド ポリシーが使用可能になると、インバンド管理インターフェイスが有効になります。
-
インバンド IP アドレスの構成は、ユーザーが変更することはできません。
手順
ステップ 1 |
APIC 上流に位置するスイッチを構成します。 例:
|
||
ステップ 2 |
通常のインバンド管理構成手順を使用して、インバンド管理用の APIC を構成します。
インバンド管理の設定の詳細については、[Cisco APIC と静的管理アクセス(Cisco APIC and Static Management Access )] テクニカル ノートの「Static In-band Management」の章を参照してください。 |
||
ステップ 3 |
上流に位置するスイッチ内で APIC インターフェイスを構成する。 APIC 接続インターフェイスはトランク インターフェイスである必要があります。APIC が 0 以外のインフラ VLAN で初期化された場合、次の例のようにインターフェイスを設定できます。
|
物理 APIC クラスタから AWS上 の仮想化 APIC クラスタへの移行
この手順を使用して、物理 APIC クラスタを AWS の仮想 APIC クラスタに移行します。移行は、両方の APIC(物理および仮想)がレイヤ 3 ネットワークを介して ACI ファブリックにリモート接続されている場合にのみサポートされます。
手順
ステップ 1 |
物理レイヤ 3 クラスタから構成をエクスポートします。 Cisco APIC GUI 上で [管理(Admin)] > [インポート/ エクスポート(Import/ Export)]に移動します。詳細な手順については、GUI を使用したエクスポート ポリシーの構成を参照してください。 |
ステップ 2 |
前に説明した展開手順 ( AWS を使用して仮想化 APIC を展開します) を使用し、AWS を使用して仮想 APIC クラスタを作成します。 物理 APIC と仮想 APIC で使用されるインフラ VLAN が同じであることを確認します。 |
ステップ 3 |
物理クラスタが正常かどうかを確認します。 |
ステップ 4 |
標準の Cisco APIC GUI 手順を使用して、構成を(物理 APIC から仮想 APIC に)インポートします。[GUI を使用してインポート ポリシーを構成(Configuring an Import Policy Using the GUI)]を参照します。
|
ステップ 5 |
AWS の新しいレイヤ 3 仮想 APIC クラスタに参加するには、すべてのファブリック ノードをクリーン リロードする必要があります。 |
ステップ 6 |
ACI ファブリック ノードから仮想クラスタに到達できるように、IPN は仮想 APIC のインフラ IP アドレスで手動で更新する必要があります。 |
その他の参考資料
このクラウド形成テンプレートは、Cisco 仮想 APIC(vAPIC)を起動するために必要な前提条件の構成の作成を自動化します。
Metadata:
"AWS::CloudFormation::Interface":
ParameterGroups:
- Label:
default: VAPIC Network configuration
Parameters:
- VPCCidrBlock
- AvailabilityZones
- NumberOfAZs
ParameterLabels:
VPCCidrBlock:
default: VPC CIDR
AvailabilityZones:
default: Availability Zones
NumberOfAZs:
default: Number of Availability Zones
Parameters:
VPCCidrBlock:
Description: VPC Cidr block used to launch VAPIC cluster
Type: String
AllowedPattern: "^(([0-9]|[1-9][0-9]|1[0-9]{2}|2[0-4][0-9]|25[0-5])\\.){3}([0])(\\/(24))$"
Default: 10.1.0.0/24
ConstraintDescription: "must be a valid IP unused VPC CIDR - x.x.x.x/24"
AvailabilityZones:
Description: >-
List of Availability Zones used to launch vAPIC nodes. Choose 3 AZs for high
availability. For regions that only supports 2 AZs, choose 2 AZs (2nd &
3rd vAPIC will be launched in the second AZ). Make sure that the value of the
NumberOfAZs parameter matches the number of selections
Type: "List<AWS::EC2::AvailabilityZone::Name>"
NumberOfAZs:
AllowedValues:
- "2"
- "3"
Default: "3"
Description: >-
Number of Availability Zones used to launch vAPIC cluster. This count must
match the number of AZ selections you make from the AvailabilityZones
parameter; otherwise, deployment will fail.
Type: String
Conditions:
IsAZ3Available: !Equals
- !Ref NumberOfAZs
- "3"
Resources:
VPC:
Type: AWS::EC2::VPC
Properties:
CidrBlock: !Ref VPCCidrBlock
EnableDnsSupport: true
EnableDnsHostnames: true
Tags:
- Key: Name
Value: !Sub ${AWS::StackName}-vapic-vpc
InternetGateway:
Type: AWS::EC2::InternetGateway
DependsOn: VPC
AttachGateway:
Type: AWS::EC2::VPCGatewayAttachment
Properties:
VpcId: !Ref VPC
InternetGatewayId: !Ref InternetGateway
# subnets
MgmtSubnet1:
Type: AWS::EC2::Subnet
Properties:
VpcId: !Ref VPC
AvailabilityZone: !Select
- "0"
- !Ref AvailabilityZones
CidrBlock: !Select [0, !Cidr [!Ref VPCCidrBlock, 9, 4]]
Tags:
- Key: Name
Value: !Sub ${AWS::StackName}-oob-mgmt-subnet-1
InfraSubnet1:
Type: AWS::EC2::Subnet
Properties:
VpcId: !Ref VPC
AvailabilityZone: !Select
- "0"
- !Ref AvailabilityZones
CidrBlock: !Select [3, !Cidr [!Ref VPCCidrBlock, 9, 4]]
Tags:
- Key: Name
Value: !Sub ${AWS::StackName}-infra-subnet-1
InbandSubnet1:
Type: AWS::EC2::Subnet
Properties:
VpcId: !Ref VPC
AvailabilityZone: !Select
- "0"
- !Ref AvailabilityZones
CidrBlock: !Select [6, !Cidr [!Ref VPCCidrBlock, 9, 4]]
Tags:
- Key: Name
Value: !Sub ${AWS::StackName}-inband-subnet-1
MgmtSubnet2:
Type: AWS::EC2::Subnet
Properties:
VpcId: !Ref VPC
AvailabilityZone: !Select
- "1"
- !Ref AvailabilityZones
CidrBlock: !Select [1, !Cidr [!Ref VPCCidrBlock, 9, 4]]
Tags:
- Key: Name
Value: !Sub ${AWS::StackName}-oob-mgmt-subnet-2
InfraSubnet2:
Type: AWS::EC2::Subnet
Properties:
VpcId: !Ref VPC
AvailabilityZone: !Select
- "1"
- !Ref AvailabilityZones
CidrBlock: !Select [4, !Cidr [!Ref VPCCidrBlock, 9, 4]]
Tags:
- Key: Name
Value: !Sub ${AWS::StackName}-infra-subnet-2
InbandSubnet2:
Type: AWS::EC2::Subnet
Properties:
VpcId: !Ref VPC
AvailabilityZone: !Select
- "1"
- !Ref AvailabilityZones
CidrBlock: !Select [7, !Cidr [!Ref VPCCidrBlock, 9, 4]]
Tags:
- Key: Name
Value: !Sub ${AWS::StackName}-inband-subnet-2
MgmtSubnet3:
Condition: IsAZ3Available
Type: AWS::EC2::Subnet
Properties:
VpcId: !Ref VPC
AvailabilityZone: !Select
- "2"
- !Ref AvailabilityZones
CidrBlock: !Select [2, !Cidr [!Ref VPCCidrBlock, 9, 4]]
Tags:
- Key: Name
Value: !Sub ${AWS::StackName}-oob-mgmt-subnet-3
InfraSubnet3:
Condition: IsAZ3Available
Type: AWS::EC2::Subnet
Properties:
VpcId: !Ref VPC
AvailabilityZone: !Select
- "2"
- !Ref AvailabilityZones
CidrBlock: !Select [5, !Cidr [!Ref VPCCidrBlock, 9, 4]]
Tags:
- Key: Name
Value: !Sub ${AWS::StackName}-infra-subnet-3
InbandSubnet3:
Condition: IsAZ3Available
Type: AWS::EC2::Subnet
Properties:
VpcId: !Ref VPC
AvailabilityZone: !Select
- "2"
- !Ref AvailabilityZones
CidrBlock: !Select [8, !Cidr [!Ref VPCCidrBlock, 9, 4]]
Tags:
- Key: Name
Value: !Sub ${AWS::StackName}-inband-subnet-3
Outputs:
VAPICVPC:
Description: VPC ID.
Value: !Ref VPC