本產品的文件集力求使用無偏見用語。針對本文件集的目的,無偏見係定義為未根據年齡、身心障礙、性別、種族身分、民族身分、性別傾向、社會經濟地位及交織性表示歧視的用語。由於本產品軟體使用者介面中硬式編碼的語言、根據 RFP 文件使用的語言,或引用第三方產品的語言,因此本文件中可能會出現例外狀況。深入瞭解思科如何使用包容性用語。
思科已使用電腦和人工技術翻譯本文件,讓全世界的使用者能夠以自己的語言理解支援內容。請注意,即使是最佳機器翻譯,也不如專業譯者翻譯的內容準確。Cisco Systems, Inc. 對這些翻譯的準確度概不負責,並建議一律查看原始英文文件(提供連結)。
本文檔介紹在託管思科策略套件(CPS)虛擬網路功能(VNF)的Ultra-M設定中替換故障計算伺服器所需的步驟。
本文檔面向熟悉Cisco Ultra-M平台的思科人員,詳細介紹在進行計算伺服器更換時,在OpenStack和CPS VNF級別需要執行的步驟。
附註:Ultra M 5.1.x版本用於定義本文檔中的過程。
在替換「計算」節點之前,請務必檢查Red Hat OpenStack平台環境的當前運行狀況。建議您檢查當前狀態,以避免在計算替換過程開啟時出現複雜情況。
步驟1.從OpenStack部署(OSPD)。
[root@director ~]$ su - stack
[stack@director ~]$ cd ansible
[stack@director ansible]$ ansible-playbook -i inventory-new openstack_verify.yml -e platform=pcrf
步驟2.從每15分鐘生成的超健康報告中驗證系統運行狀況。
[stack@director ~]# cd /var/log/cisco/ultram-health
步驟3.檢查檔案ultram_health_os.report。僅服務應顯示為XXX狀態,即neutron-sriov-nic-agent.service。
步驟4.檢查是否所有控制器的rabbitmq都從OSPD運行。
[stack@director ~]# for i in $(nova list| grep controller | awk '{print $12}'| sed 's/ctlplane=//g') ; do (ssh -o StrictHostKeyChecking=no heat-admin@$i "hostname;sudo rabbitmqctl eval 'rabbit_diagnostics:maybe_stuck().'" ) & done
步驟5.驗證是否已啟用石碑
[stack@director ~]# sudo pcs property show stonith-enabled
步驟6.對所有控制器檢驗PC狀態。
步驟7.從OSPD。
[stack@director ~]$ for i in $(nova list| grep controller | awk '{print $12}'| sed 's/ctlplane=//g') ; do (ssh -o StrictHostKeyChecking=no heat-admin@$i "hostname;sudo pcs status" ) ;done
步驟8.驗證所有openstack服務是否處於活動狀態,從OSPD運行此命令。
[stack@director ~]# sudo systemctl list-units "openstack*" "neutron*" "openvswitch*"
步驟9.驗證控制器的CEPH狀態為HEALTH_OK。
[stack@director ~]# for i in $(nova list| grep controller | awk '{print $12}'| sed 's/ctlplane=//g') ; do (ssh -o StrictHostKeyChecking=no heat-admin@$i "hostname;sudo ceph -s" ) ;done
步驟10.檢驗OpenStack元件日誌。尋找任何錯誤:
Neutron:
[stack@director ~]# sudo tail -n 20 /var/log/neutron/{dhcp-agent,l3-agent,metadata-agent,openvswitch-agent,server}.log
Cinder:
[stack@director ~]# sudo tail -n 20 /var/log/cinder/{api,scheduler,volume}.log
Glance:
[stack@director ~]# sudo tail -n 20 /var/log/glance/{api,registry}.log
步驟11.從OSPD對API執行這些驗證。
[stack@director ~]$ source
[stack@director ~]$ nova list
[stack@director ~]$ glance image-list
[stack@director ~]$ cinder list
[stack@director ~]$ neutron net-list
步驟12.檢驗服務的運行狀況。
Every service status should be “up”:
[stack@director ~]$ nova service-list
Every service status should be “ :-)”:
[stack@director ~]$ neutron agent-list
Every service status should be “up”:
[stack@director ~]$ cinder service-list
在進行恢復時,思科建議使用以下步驟備份OSPD資料庫:
[root@director ~]# mysqldump --opt --all-databases > /root/undercloud-all-databases.sql
[root@director ~]# tar --xattrs -czf undercloud-backup-`date +%F`.tar.gz /root/undercloud-all-databases.sql
/etc/my.cnf.d/server.cnf /var/lib/glance/images /srv/node /home/stack
tar: Removing leading `/' from member names
此過程可確保在不影響任何例項可用性的情況下替換節點。此外,建議備份CPS配置。
要備份CPS虛擬機器,請從群集管理器虛擬機器:
[root@CM ~]# config_br.py -a export --all /mnt/backup/CPS_backup_$(date +\%Y-\%m-\%d).tar.gz
or
[root@CM ~]# config_br.py -a export --mongo-all --svn --etc --grafanadb --auth-htpasswd --haproxy /mnt/backup/$(hostname)_backup_all_$(date +\%Y-\%m-\%d).tar.gz
確定託管於計算伺服器上的VM:
[stack@director ~]$ nova list --field name,host,networks | grep compute-10
| 49ac5f22-469e-4b84-badc-031083db0533 | VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d | pod1-compute-10.localdomain | Replication=10.160.137.161; Internal=192.168.1.131; Management=10.225.247.229; tb1-orch=172.16.180.129
附註:此處顯示的輸出中,第一列對應於通用唯一識別符號(UUID),第二列是VM名稱,第三列是存在VM的主機名。此輸出的引數在後續小節中使用。
步驟1.登入虛擬機器的管理IP:
[stack@XX-ospd ~]$ ssh root@[root@XXXSM03 ~]# monit stop all
步驟2.如果VM是SM、OAM或仲裁者,請停止sessionmgr服務:
[root@XXXSM03 ~]# cd /etc/init.d [root@XXXSM03 init.d]# ls -l sessionmgr* -rwxr-xr-x 1 root root 4544 Nov 29 23:47 sessionmgr-27717 -rwxr-xr-x 1 root root 4399 Nov 28 22:45 sessionmgr-27721 -rwxr-xr-x 1 root root 4544 Nov 29 23:47 sessionmgr-27727
步驟3.對於每個名為sessionmgr-xxxxx的檔案,運行service sessionmgr-xxxxx stop:
[root@XXXSM03 init.d]# service sessionmgr-27717 stop
步驟1.列出新星聚合併基於計算伺服器所託管的VNF識別對應於計算伺服器的聚合。通常,其格式為<VNFNAME>-SERVICE<X>:
[stack@director ~]$ nova aggregate-list
+----+-------------------+-------------------+
| Id | Name | Availability Zone |
+----+-------------------+-------------------+
| 29 | POD1-AUTOIT | mgmt |
| 57 | VNF1-SERVICE1 | - |
| 60 | VNF1-EM-MGMT1 | - |
| 63 | VNF1-CF-MGMT1 | - |
| 66 | VNF2-CF-MGMT2 | - |
| 69 | VNF2-EM-MGMT2 | - |
| 72 | VNF2-SERVICE2 | - |
| 75 | VNF3-CF-MGMT3 | - |
| 78 | VNF3-EM-MGMT3 | - |
| 81 | VNF3-SERVICE3 | - |
+----+-------------------+-------------------+
在這種情況下,要替換的計算伺服器屬於VNF2。因此,相應的聚合清單是VNF2-SERVICE2。
步驟2.從已標識的聚合中刪除計算節點(通過主機名刪除,該主機名在標識計算節點中託管的VM一節中說明😞
nova aggregate-remove-host
[stack@director ~]$ nova aggregate-remove-host VNF2-SERVICE2 pod1-compute-10.localdomain
步驟3.驗證是否已從聚合中刪除計算節點。現在,主機不能列在聚合下:
nova aggregate-show
[stack@director ~]$ nova aggregate-show VNF2-SERVICE2
不論計算節點中託管的VM,本節中提到的步驟都是通用的。
步驟1.使用此處顯示的內容建立名為delete_node.sh的指令碼檔案。請確保提到的模板與用於堆疊部署的deploy.sh指令碼中使用的模板相同。
delete_node.sh
openstack overcloud node delete --templates -e /usr/share/openstack-tripleo-heat-templates/environments/puppet-pacemaker.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/network-isolation.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/storage-environment.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/neutron-sriov.yaml -e /home/stack/custom-templates/network.yaml -e /home/stack/custom-templates/ceph.yaml -e /home/stack/custom-templates/compute.yaml -e /home/stack/custom-templates/layout.yaml -e /home/stack/custom-templates/layout.yaml --stack
[stack@director ~]$ source stackrc
[stack@director ~]$ /bin/sh delete_node.sh
+ openstack overcloud node delete --templates -e /usr/share/openstack-tripleo-heat-templates/environments/puppet-pacemaker.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/network-isolation.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/storage-environment.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/neutron-sriov.yaml -e /home/stack/custom-templates/network.yaml -e /home/stack/custom-templates/ceph.yaml -e /home/stack/custom-templates/compute.yaml -e /home/stack/custom-templates/layout.yaml -e /home/stack/custom-templates/layout.yaml --stack pod1 49ac5f22-469e-4b84-badc-031083db0533
Deleting the following nodes from stack pod1:
- 49ac5f22-469e-4b84-badc-031083db0533
Started Mistral Workflow. Execution ID: 4ab4508a-c1d5-4e48-9b95-ad9a5baa20ae
real 0m52.078s
user 0m0.383s
sys 0m0.086s
步驟2.等待OpenStack堆疊操作變為COMPLETE狀態。
[stack@director ~]$ openstack stack list
+--------------------------------------+------------+-----------------+----------------------+----------------------+
| ID | Stack Name | Stack Status | Creation Time | Updated Time |
+--------------------------------------+------------+-----------------+----------------------+----------------------+
| 5df68458-095d-43bd-a8c4-033e68ba79a0 | pod1 | UPDATE_COMPLETE | 2018-05-08T21:30:06Z | 2018-05-08T20:42:48Z |
+--------------------------------------+------------+-----------------+----------------------+----------------------+
從服務清單中刪除計算服務:
[stack@director ~]$ source corerc
[stack@director ~]$ openstack compute service list | grep compute-8
| 404 | nova-compute | pod1-compute-8.localdomain | nova | enabled | up | 2018-05-08T18:40:56.000000 |
openstack compute service delete
[stack@director ~]$ openstack compute service delete 404
刪除計算伺服器的舊關聯中子代理和open vswitch代理:
[stack@director ~]$ openstack network agent list | grep compute-8
| c3ee92ba-aa23-480c-ac81-d3d8d01dcc03 | Open vSwitch agent | pod1-compute-8.localdomain | None | False | UP | neutron-openvswitch-agent |
| ec19cb01-abbb-4773-8397-8739d9b0a349 | NIC Switch agent | pod1-compute-8.localdomain | None | False | UP | neutron-sriov-nic-agent |
openstack network agent delete
[stack@director ~]$ openstack network agent delete c3ee92ba-aa23-480c-ac81-d3d8d01dcc03
[stack@director ~]$ openstack network agent delete ec19cb01-abbb-4773-8397-8739d9b0a349
從Ironic資料庫中刪除節點並進行驗證。
[stack@director ~]$ source stackrc
nova show| grep hypervisor
[stack@director ~]$ nova show pod1-compute-10 | grep hypervisor
| OS-EXT-SRV-ATTR:hypervisor_hostname | 4ab21917-32fa-43a6-9260-02538b5c7a5a
ironic node-delete
[stack@director ~]$ ironic node-delete 4ab21917-32fa-43a6-9260-02538b5c7a5a
[stack@director ~]$ ironic node-list (node delete must not be listed now)
有關安裝新UCS C240 M4伺服器的步驟和初始設定步驟,請參閱:Cisco UCS C240 M4伺服器安裝和服務指南
步驟1.安裝伺服器後,將硬碟插入相應插槽中作為舊伺服器。
步驟2.使用CIMC IP登入到伺服器。
步驟3.如果韌體與以前使用的推薦版本不一致,請執行BIOS升級。BIOS升級步驟如下:Cisco UCS C系列機架式伺服器BIOS升級指南
步驟4.要驗證物理驅動器的狀態,請導航到儲存> Cisco 12G SAS模組化Raid控制器(SLOT-HBA)>物理驅動器資訊。它必須是未配置
此處顯示的儲存可以是SSD驅動器。
步驟5.若要從RAID級別為1的物理驅動器建立虛擬驅動器,請導航到Storage > Cisco 12G SAS Modular Raid Controller(SLOT-HBA)> Controller Info > Create Virtual Drive from Unused Physical Drives
步驟6.選擇VD並設定Set as Boot Drive,如下圖所示。
步驟7.若要啟用IPMI over LAN,請導覽至Admin > Communication Services > Communication Services,如下圖所示。
步驟8。若要停用超執行緒,如圖所示,請導覽至Compute > BIOS > Configure BIOS > Advanced > Processor Configuration。
附註:此處顯示的影象和本節中提到的配置步驟是參考韌體版本3.0(3e),如果您使用其他版本,可能會有細微的變化
不論計算節點託管的VM,本節中提到的步驟都是通用的。
步驟1.新增具有不同索引的計算伺服器。
建立一個add_node.json檔案,該檔案僅包含要新增的新計算伺服器的詳細資訊。確保以前未使用新計算伺服器的索引號。通常,遞增下一個最高計算值。
範例:最高驗前是compute-17,因此在2-vnf系統中建立了compute-18。
附註:請記住json格式。
[stack@director ~]$ cat add_node.json
{
"nodes":[
{
"mac":[
""
],
"capabilities": "node:compute-18,boot_option:local",
"cpu":"24",
"memory":"256000",
"disk":"3000",
"arch":"x86_64",
"pm_type":"pxe_ipmitool",
"pm_user":"admin",
"pm_password":"<PASSWORD>",
"pm_addr":"192.100.0.5"
}
]
}
步驟2.匯入json檔案。
[stack@director ~]$ openstack baremetal import --json add_node.json
Started Mistral Workflow. Execution ID: 78f3b22c-5c11-4d08-a00f-8553b09f497d
Successfully registered node UUID 7eddfa87-6ae6-4308-b1d2-78c98689a56e
Started Mistral Workflow. Execution ID: 33a68c16-c6fd-4f2a-9df9-926545f2127e
Successfully set all nodes to available.
步驟3.使用上一步中提到的UUID運行節點內檢。
[stack@director ~]$ openstack baremetal node manage 7eddfa87-6ae6-4308-b1d2-78c98689a56e
[stack@director ~]$ ironic node-list |grep 7eddfa87
| 7eddfa87-6ae6-4308-b1d2-78c98689a56e | None | None | power off | manageable | False |
[stack@director ~]$ openstack overcloud node introspect 7eddfa87-6ae6-4308-b1d2-78c98689a56e --provide
Started Mistral Workflow. Execution ID: e320298a-6562-42e3-8ba6-5ce6d8524e5c
Waiting for introspection to finish...
Successfully introspected all nodes.
Introspection completed.
Started Mistral Workflow. Execution ID: c4a90d7b-ebf2-4fcb-96bf-e3168aa69dc9
Successfully set all nodes to available.
[stack@director ~]$ ironic node-list |grep available
| 7eddfa87-6ae6-4308-b1d2-78c98689a56e | None | None | power off | available | False |
步驟4.將IP位址新增到custom-templates/layout.yml(在ComputeIPs下)。您可以將該地址新增到每個型別的清單末尾,此處顯示的compute-0就是一個示例。
ComputeIPs:
internal_api:
- 11.120.0.43
- 11.120.0.44
- 11.120.0.45
- 11.120.0.43 <<< take compute-0 .43 and add here
tenant:
- 11.117.0.43
- 11.117.0.44
- 11.117.0.45
- 11.117.0.43 << and here
storage:
- 11.118.0.43
- 11.118.0.44
- 11.118.0.45
- 11.118.0.43 << and here
步驟5.執行之前用於部署堆疊的deploy.sh指令碼,以便將新的計算節點新增到超雲堆疊。
[stack@director ~]$ ./deploy.sh
++ openstack overcloud deploy --templates -r /home/stack/custom-templates/custom-roles.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/puppet-pacemaker.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/network-isolation.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/storage-environment.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/neutron-sriov.yaml -e /home/stack/custom-templates/network.yaml -e /home/stack/custom-templates/ceph.yaml -e /home/stack/custom-templates/compute.yaml -e /home/stack/custom-templates/layout.yaml --stack ADN-ultram --debug --log-file overcloudDeploy_11_06_17__16_39_26.log --ntp-server 172.24.167.109 --neutron-flat-networks phys_pcie1_0,phys_pcie1_1,phys_pcie4_0,phys_pcie4_1 --neutron-network-vlan-ranges datacentre:1001:1050 --neutron-disable-tunneling --verbose --timeout 180
…
Starting new HTTP connection (1): 192.200.0.1
"POST /v2/action_executions HTTP/1.1" 201 1695
HTTP POST http://192.200.0.1:8989/v2/action_executions 201
Overcloud Endpoint: http://10.1.2.5:5000/v2.0
Overcloud Deployed
clean_up DeployOvercloud:
END return value: 0
real 38m38.971s
user 0m3.605s
sys 0m0.466s
步驟6.等待openstack狀態變為完成。
[stack@director ~]$ openstack stack list
+--------------------------------------+------------+-----------------+----------------------+----------------------+
| ID | Stack Name | Stack Status | Creation Time | Updated Time |
+--------------------------------------+------------+-----------------+----------------------+----------------------+
| 5df68458-095d-43bd-a8c4-033e68ba79a0 | ADN-ultram | UPDATE_COMPLETE | 2017-11-02T21:30:06Z | 2017-11-06T21:40:58Z |
+--------------------------------------+------------+-----------------+----------------------+----------------------+
步驟7.檢查新計算節點是否處於活動狀態。
[stack@director ~]$ source stackrc
[stack@director ~]$ nova list |grep compute-18
| 0f2d88cd-d2b9-4f28-b2ca-13e305ad49ea | pod1-compute-18 | ACTIVE | - | Running | ctlplane=192.200.0.117 |
[stack@director ~]$ source corerc
[stack@director ~]$ openstack hypervisor list |grep compute-18
| 63 | pod1-compute-18.localdomain |
將計算節點新增到聚合主機並驗證是否新增了主機。
nova aggregate-add-host
[stack@director ~]$ nova aggregate-add-host VNF2-SERVICE2 pod1-compute-18.localdomain
nova aggregate-show
[stack@director ~]$ nova aggregate-show VNF2-SERVICE2
步驟1. VM在新星清單中處於錯誤狀態。
[stack@director ~]$ nova list |grep VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d
| 49ac5f22-469e-4b84-badc-031083db0533 | VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d | ERROR | - | NOSTATE |
步驟2.從ESC恢復VM。
[admin@VNF2-esc-esc-0 ~]$ sudo /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli recovery-vm-action DO VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d
[sudo] password for admin:
Recovery VM Action
/opt/cisco/esc/confd/bin/netconf-console --port=830 --host=127.0.0.1 --user=admin --privKeyFile=/root/.ssh/confd_id_dsa --privKeyType=dsa --rpc=/tmp/esc_nc_cli.ZpRCGiieuW
步驟3.監控yangesc.log。
admin@VNF2-esc-esc-0 ~]$ tail -f /var/log/esc/yangesc.log
…
14:59:50,112 07-Nov-2017 WARN Type: VM_RECOVERY_COMPLETE
14:59:50,112 07-Nov-2017 WARN Status: SUCCESS
14:59:50,112 07-Nov-2017 WARN Status Code: 200
14:59:50,112 07-Nov-2017 WARN Status Msg: Recovery: Successfully recovered VM [VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d].
附註:如果VM處於關閉狀態,則從ESC使用esc_nc_cli開啟它。
檢查群集管理器VM中的diagnostics.sh,如果找到已恢復的VM的任何錯誤,請
步驟1.登入各自的VM。
[stack@XX-ospd ~]$ ssh root@[root@XXXSM03 ~]# monit start all
步驟2.如果VM是SM、OAM或arbiter,則除了它之外,還要啟動之前停止的sessionmgr服務:
對於每個標題為sessionmgr-xxxxx的檔案,運行service sessionmgr-xxxxx start:
[root@XXXSM03 init.d]# service sessionmgr-27717 start
如果仍然沒有清除診斷,則從群集管理器虛擬機器執行build_all.sh,然後在相應的虛擬機器上執行VM-init。
/var/qps/install/current/scripts/build_all.sh
ssh VM e.g. ssh pcrfclient01
/etc/init.d/vm-init
如果ESC恢復命令(上面)不起作用(VM_RECOVERY_FAILED),則刪除並讀取各個VM。
在ESC門戶上:
步驟1。將游標置於藍色Action按鈕上,此時會開啟一個彈出視窗,然後點選Export Template,如下圖所示。
步驟2.提供了一個將模板下載到本地電腦的選項,請檢查Save File,如下圖所示。
步驟3.如圖所示,選擇位置並儲存檔案以供日後使用。
步驟4.登入到要刪除的站點的Active ESC,並將以上儲存的檔案複製到此目錄的ESC中。
/opt/cisco/esc/cisco-cps/config/gr/tmo/gen
步驟5.將Directory更改為/opt/cisco/esc/cisco-cps/config/gr/tmo/gen:
cd /opt/cisco/esc/cisco-cps/config/gr/tmo/gen
在此步驟中,您將修改匯出模板檔案,以刪除與需要恢復的VM相關聯的VM組。
匯出模板檔案用於特定群集。
該群集中有多個vm_groups。 每個VM型別(PD、PS、SM、OM)有一個或多個vm_groups。
附註:某些vm_groups有多個VM。 將刪除並重新新增該組內的所有VM。
在該部署中,您需要標籤一個或多個vm_groups以進行刪除。
範例:
<vm_group>
<name>cm</name>
現在,將<vm_group>更改為<vm_group nc:operation="delete">並儲存更改。
在ESC運行中:
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli edit-config /opt/cisco/esc/cisco-cps/config/gr/tmo/gen/
在ESC門戶中,您應該能夠看到一個或多個虛擬機器移動到undeploy狀態,然後完全消失。
可在ESC的/var/log/esc/yangesc.log中跟蹤進度
範例:
09:09:12,608 29-Jan-2018 INFO ===== UPDATE SERVICE REQUEST RECEIVED(UNDER TENANT) ===== 09:09:12,608 29-Jan-2018 INFO Tenant name: Pcrf 09:09:12,609 29-Jan-2018 INFO Deployment name: WSP1-tmo 09:09:29,794 29-Jan-2018 INFO 09:09:29,794 29-Jan-2018 INFO ===== CONFD TRANSACTION ACCEPTED ===== 09:10:19,459 29-Jan-2018 INFO 09:10:19,459 29-Jan-2018 INFO ===== SEND NOTIFICATION STARTS ===== 09:10:19,459 29-Jan-2018 INFO Type: VM_UNDEPLOYED 09:10:19,459 29-Jan-2018 INFO Status: SUCCESS 09:10:19,459 29-Jan-2018 INFO Status Code: 200 | | | 09:10:22,292 29-Jan-2018 INFO ===== SEND NOTIFICATION STARTS ===== 09:10:22,292 29-Jan-2018 INFO Type: SERVICE_UPDATED 09:10:22,292 29-Jan-2018 INFO Status: SUCCESS 09:10:22,292 29-Jan-2018 INFO Status Code: 200
在此步驟中,您將修改匯出模板檔案,以重新新增與正在恢復的VM相關聯的VM組。
匯出模板檔案被分解為兩個部署(cluster1 / cluster2)。
每個群集內都有一個vm_group。每個VM型別(PD、PS、SM、OM)有一個或多個vm_groups。
附註:某些vm_groups有多個VM。 將重新新增該組內的所有VM。
範例:
<vm_group nc:operation="delete">
<name>cm</name>
將<vm_group nc:operation="delete">更改為僅<vm_group>。
附註:如果由於主機被替換而需要重新生成VM,則該主機的主機名可能已更改。 如果主機的主機名已更改,則需要更新vm_group的placement部分中的主機名。
<位置>
<type>zone_host</type>
<enforcement>嚴格</enforcement>
<host>wsstackovs-compute-4.localdomain</host>
</placement>
在執行此MOP之前,將前面部分中所示主機的名稱更新為Ultra-M團隊提供的新主機名。安裝新主機後,儲存更改。
在ESC運行中:
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli edit-config /opt/cisco/esc/cisco-cps/config/gr/tmo/gen/
在ESC門戶中,您應該能夠看到一個或多個虛擬機器重新出現,然後進入活動狀態。
可在ESC的/var/log/esc/yangesc.log中跟蹤進度
範例:
09:14:00,906 29-Jan-2018 INFO ===== UPDATE SERVICE REQUESTRECEIVED (UNDER TENANT) ===== 09:14:00,906 29-Jan-2018 INFO Tenant name: Pcrf 09:14:00,906 29-Jan-2018 INFO Deployment name: WSP1-tmo 09:14:01,542 29-Jan-2018 INFO 09:14:01,542 29-Jan-2018 INFO ===== CONFD TRANSACTION ACCEPTED ===== 09:16:33,947 29-Jan-2018 INFO 09:16:33,947 29-Jan-2018 INFO ===== SEND NOTIFICATION STARTS ===== 09:16:33,947 29-Jan-2018 INFO Type: VM_DEPLOYED 09:16:33,947 29-Jan-2018 INFO Status: SUCCESS 09:16:33,947 29-Jan-2018 INFO Status Code: 200 | | | 09:19:00,148 29-Jan-2018 INFO ===== SEND NOTIFICATION STARTS ===== 09:19:00,148 29-Jan-2018 INFO Type: VM_ALIVE 09:19:00,148 29-Jan-2018 INFO Status: SUCCESS 09:19:00,148 29-Jan-2018 INFO Status Code: 200 | | | 09:19:00,275 29-Jan-2018 INFO ===== SEND NOTIFICATION STARTS ===== 09:19:00,275 29-Jan-2018 INFO Type: SERVICE_UPDATED 09:19:00,275 29-Jan-2018 INFO Status: SUCCESS 09:19:00,275 29-Jan-2018 INFO Status Code: 200
檢查PCRF服務是否關閉並啟動。
[stack@XX-ospd ~]$ ssh root@[root@XXXSM03 ~]# monsum
[root@XXXSM03 ~]# monit start all
如果VM是SM、OAM或arbiter,請啟動之前停止的sessionmgr服務:
對於每個標題為sessionmgr-xxxxx的檔案,運行service sessionmgr-xxxxx start:
[root@XXXSM03 init.d]# service sessionmgr-27717 start
如果診斷資訊仍不清晰,請從群集管理器虛擬機器執行build_all.sh,然後在相應的虛擬機器上執行VM-init。
/var/qps/install/current/scripts/build_all.sh
ssh VM e.g. ssh pcrfclient01
/etc/init.d/vm-init
[root@XXXSM03 init.d]# diagnostics.sh