本產品的文件集力求使用無偏見用語。針對本文件集的目的,無偏見係定義為未根據年齡、身心障礙、性別、種族身分、民族身分、性別傾向、社會經濟地位及交織性表示歧視的用語。由於本產品軟體使用者介面中硬式編碼的語言、根據 RFP 文件使用的語言,或引用第三方產品的語言,因此本文件中可能會出現例外狀況。深入瞭解思科如何使用包容性用語。
思科已使用電腦和人工技術翻譯本文件,讓全世界的使用者能夠以自己的語言理解支援內容。請注意,即使是最佳機器翻譯,也不如專業譯者翻譯的內容準確。Cisco Systems, Inc. 對這些翻譯的準確度概不負責,並建議一律查看原始英文文件(提供連結)。
本文檔介紹恢復在Ultra-M/Openstack部署上部署的Cisco Virtual Policy and Charging Rules Function(vPCRF)例項的步驟。
如果任何例項由於計畫關閉或其他原因而處於「關閉」狀態,請使用此過程啟動該例項並在Elastic Services Controller(ESC)中啟用它的監視。
步驟1.通過OpenStack檢查例項狀態。
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep cm_0 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 | destackovs-compute-2 | SHUTOFF|
步驟2.檢查電腦是否可用,並確保狀態為up。
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
步驟3.以管理員使用者身份登入到ESC Master,並檢查opdata中例項的狀態。
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep cm_0 SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 VM_ERROR_STATE
步驟4.從openstack開啟例項電源。
source /home/stack/destackovsrc-Pcrf nova start SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634
步驟5.等待五分鐘,讓例項啟動並進入活動狀態。
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep cm_0 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 | ACTIVE
步驟6.E在例項處於活動狀態後以ESC模式啟用VM監視器。
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634
有關例項配置的進一步恢復,請參閱此處提供的特定於例項型別的過程。
如果openstack中CPS例項的狀態為ERROR:
步驟1.檢查OpenStack中例項的狀態。
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep cm_0 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 | destackovs-compute-2 | ERROR|
步驟2.檢查電腦是否可用且運行正常。
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
步驟3.以管理員使用者身份登入到ESC Master,並檢查opdata中例項的狀態。
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep cm_0 SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 VM_ERROR_STATE
步驟4.重置例項狀態以強制該例項返回活動狀態而不是錯誤狀態,一旦完成,請重新啟動您的例項。
source /home/stack/destackovsrc-Pcrf nova reset-state –active SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 nova reboot –-hard SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634
步驟5.等待五分鐘,讓例項啟動並進入活動狀態。
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep cm_0 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 | ACTIVE |
步驟6.如果重新啟動後Cluster Manager將狀態更改為ACTIVE,則在Cluster Manager例項處於活動狀態後,在ESC中啟用VM監視器。
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634
將恢復為運行/活動狀態後,請參閱例項型別特定的過程,以從備份中恢復配置/資料。
如果Cisco Policy Suite(CPS)停滯在ERROR狀態,並且無法通過已描述的過程開啟電源,則例項在openstack中可用。建議您通過快照映像重建例項。
步驟1。確保上一次正確配置的快照以QCOW檔案的形式存在,在備份期間使用此以前生成的檔案,將scp/sftp返回到OpenStack Platform-Director(OSPD)計算。使用以下步驟將其轉換為概覽影象:
source /home/stack/destackovsrc-Pcrf glance image-create --name CPS_Cluman_13.1.1 --disk-format "qcow2" --container "bare" --file /var/Pcrf/cluman_snapshot.raw Alternatively, glance image-create --name rebuild_cluman --file /home/stack/cluman_snapshot.raw --disk-format qcow2 --container-format bare
步驟2.在OSPD上使用nova rebuild命令重建帶有上載快照的Cluman VM例項,如下所示。
nova rebuild
步驟3.等待五分鐘讓例項啟動並進入活動狀態。
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep cm | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 |cm_0_170d9c14-0221-4609-87e3-d752e636f57f| ACTIVE |
步驟4.如果重建後,Cluster Manager將狀態更改為ACTIVE,請檢查ESC中的例項狀態,如果需要,在ESC中啟用VM監視器。
echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine | tab" | /opt/cisco/esc/confd/bin/confd_cli -u admin –C | grep cm cm_0_170d9c14-0221-4609-87e3-d752e636f57f VM_ERROR_STATE /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR cm_0_170d9c14-0221-4609-87e3-d752e636f57f
步驟5.驗證與Cluster Manager原始ISO映像關聯的Cinder卷是否更新為在重新部署後的當前時間:
cinder list | grep tmobile-pcrf-13.1.1-1.iso | 2f6d7deb-60d6-40fa-926f-a88536cf98a3 | in-use | tmobile-pcrf-13.1.1-1.iso | 3 | - | true | a3f3bc62-0195-483a-bbc0-692bccd37307 | cinder show 2f6d7deb-60d6-40fa-926f-a88536cf98a3 | grep updated_at | updated_at | 2018-06-18T08:54:59.000000 updated_at | 2018-06-18T08:54:59.000000
步驟6.如果先前步驟中未自動附加備份磁碟或以前附加到Cluster Manager例項的任何其他Cinder卷,請將其附加到。
source /home/stack/destackovsrc-Pcrf cinder list +--------------------------------------+-----------+---------------------------+------+-------------+----------+--------------------------------------+ | ID | Status | Name | Size | Volume Type | Bootable | Attached to | +--------------------------------------+-----------+---------------------------+------+-------------+----------+--------------------------------------+ | 0e7ec662-b59e-4e3a-91a9-35c4ed3f51d7 | available | pcrf-atp1-mongo02 | 3 | - | false | | | 2f6d7deb-60d6-40fa-926f-a88536cf98a3 | in-use | tmobile-pcrf-13.1.1-1.iso | 3 | - | true | a3f3bc62-0195-483a-bbc0-692bccd37307 | | 4c553948-df75-4f0b-bf7b-0e64127dfda3 | available | pcrf-atp1-svn01 | 3 | - | false | | | 594c052e-aaa3-4c82-867d-3b36162244b3 | available | tmobile-pcrf-13.1.1-2.iso | 3 | - | true | | | 64953713-de86-40d5-a0e5-07db22d692f2 | in-use | tmobile-pcrf-13.1.1.iso | 3 | - | true | 80a93e90-59e2-43bd-b67e-5d766d0a2f11 | openstack server add volume--device
步驟7.如果集群快照是舊快照,並且config_br.py備份可用於拍攝快照之後的日期。從備份匯入配置,如果不匯入,請跳過此步驟。
sshconfig_br.py –a import --svn --etc --grafanadb --auth-htpasswd --haproxy /mnt/backup/
步驟8.在群集管理器上通過config_br.py從備份重建所有VM映像:
/var/qps/install/current/scripts/build/build_all.sh
如果CPS Cluster Manager VM丟失(無法恢復)並且重建過程(如2.3中所述)也已失敗,則需要通過ESC重新部署例項。以下程式說明相同專案的程式:
步驟1。確保上次正確配置的快照以QCOW檔案的形式存在,在備份期間使用此以前生成的檔案,將scp/sftp返回到OSPD計算。
ls –ltr /var/Pcrf/cluman_snapshot.qcow -rw-r--r--. 1 root root 328514100 May 18 16:59 cluman_snapshot.qcow
步驟2.使用此過程將其轉換為概覽影象。
source /home/stack/destackovsrc-Pcrf glance image-create --name CPS_Cluman_13.1.1 --disk-format "qcow2" --container "bare" --file /var/Pcrf/cluman_snapshot.qcow
步驟3.映像可用後,登入ESC並在ESC操作中驗證群集管理器例項的狀態。
echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine | tab" | /opt/cisco/esc/confd/bin/confd_cli -u admin –C | grep cm cm_0_170d9c14-0221-4609-87e3-d752e636f57f VM_ERROR_STATE
步驟4.確保/home/admin/PCRF_config.xml檔案存在並備份在2.1.1中
步驟5.獲取要恢復的群集管理器的部署名稱、租戶和vm_group。
示例片段:
Pcrf ---------------- Name of the tenantfalse DEP1 ---------------- Name of the Deployment ----- ----- -----cm --------------- Name of the vm_group pcrf-13.1.1.qcow2 ------------- Name of the Image usedpcrf-cm 600 30
步驟6.觸發從ESC中刪除Cluster Manager vm:
警告:從opdata中刪除例項的命令應該完整,不完整的命令可以刪除整個部署。請小心點。命令應始終包含所有引數,即租戶名稱、部署名稱和vm_group名稱。
/opt/cisco/esc/confd/bin/confd_cli -u admin –C esc-ha-01# config esc-ha-01(config)# no esc_datamodel tenants tenant Pcrf deployments deployment DEP1 vm_group cm esc-ha-01(config)# commit esc-ha-01(config)# exit
上述步驟應從openstack和ESC opdata中刪除例項。換句話說,集群管理器現在不是部署的一部分。
步驟7.驗證是否已從yangesc.log、ESC中的escmanager.log和OSPD節點中的nova清單的部署中刪除集群管理器例項。
步驟8. 修改步驟2.1.1中備份的PCRF_config.xml檔案,並在上述步驟中將群集管理器映像的名稱修改為從快照新建的映像:
更改前 | 更改之後 |
<vm_group> <name>cm</name> <image>pcrf-13.1.1.qcow2</image> |
<vm_group> |
步驟9.修改PCRF_config.xml,並刪除Cluster Manager vm組的雲使用者資料檔案。要刪除的xml片段示例如下所示:
--user-data file:///opt/cisco/esc/cisco-cps/config/pcrf-cm_cloud.cfg CLUSTER_ID P1 CM_IP_ADDR_PVT 192.168.1.107 PREFIX vpc SEQ 01 SITE_ID DE
步驟10.將檔案PCRF_config.xml複製到/opt/cisco/esc/cisco-cps/config/資料夾,該資料夾中存在所有其他配置檔案。
步驟11.載入將新配置檔案合併到ESC選項中。
/opt/cisco/esc/confd/bin/confd_cli -u admin –C esc-ha-01# config esc-ha-01(config)# load merge /opt/cisco/esc/cisco-cps/config/PCRF_config.xml esc-ha-01(config)# commit esc-ha-01(config)# exit
步驟12.在ESC上監視yangesc.log、在OSPD上監視escmanager.log和nova清單,以驗證Cluster Manager的部署。
source /home/stack/destackovsrc-Pcrf nova list --fields name,status| grep cm | 96a5647e-9970-4e61-ab5c-5e7285543a09 | cm_0_a11a9068-df37-4974-9bd8-566f825d5e39 | ACTIVE
步驟13.如果重建後,Cluster Manager將狀態更改為ACTIVE,請檢查ESC中的例項狀態,如果需要,在ESC中啟用VM監視器。
echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine | tab" | /opt/cisco/esc/confd/bin/confd_cli -u admin –C | grep cm cm_0_170d9c14-0221-4609-87e3-d752e636f57f VM_ERROR_STATE /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR cm_0_170d9c14-0221-4609-87e3-d752e636f57f
步驟14.將備份磁碟或任何其他Cinder卷連線到以前附加到Cluster Manager例項,而在上一步中並未按esc自動連線。
source /home/stack/destackovsrc-Pcrf cinder list +--------------------------------------+--------+------------------------+------+------------+---------+----------------------------------------+ | ID | Status | Name | Size | Volume Type| Bootable| Attached to | +--------------------------------------+--------+------------------------+------+------------+---------+----------------------------------------+ | 4c478cce-c746-455a-93f1-3f360acb87ce | in-use | CPS_14.0.0.release.iso | 3 | - | true | 96a5647e-9970-4e61-ab5c-5e7285543a09 | | 7e5573d9-29bc-4ea0-b046-c666bb1f7e06 | in-use | PCRF_backup | 1024 | - | false | | | d5ab1991-3e09-41f2-89f5-dd1cf8a9e172 | in-use | svn01 | 2 | - | false | 09f4bafa-dfb6-457f-9af5-69196eb31b13 | | d74988a7-1f59-4241-9777-fc4f2d4f3e78 | in-use | svn02 | 2 | - | false | 86ea448d-09bc-4d2f-81a3-de05884f1e05 | +--------------------------------------+--------+------------------------+------+------------+---------+----------------------------------------+ openstack server add volume--device
步驟15. 如果集群快照是舊快照,並且config_br.py備份可用於拍攝快照之後的日期。從備份匯入配置,如果不匯入,請跳過此步驟。
sshconfig_br.py –a import --svn --etc --grafanadb --users --auth-htpasswd --haproxy /mnt/backup/
步驟16.在群集管理器上通過config_br.py從備份重建所有VM映像:
/var/qps/install/current/scripts/build/build_all.sh