Inleiding
Dit document beschrijft de stappen die vereist zijn om een defecte computing server te stoppen met behulp van een Ultra-M instelling die Cisco Policy Suite (CPS) Virtual Network Functions (VPN’s) hosts.
Opmerking: De Ultra M 5.1.x release wordt overwogen om de procedures in dit document te definiëren. Dit document is bedoeld voor het Cisco-personeel dat bekend is met het Cisco Ultra-M-platform en bevat informatie over de stappen die moeten worden uitgevoerd op niveau van OpenStack en CPS VPN op het moment van de computing Server-stop-start.
Voorwaarden
back-up
Voordat u een computing-knooppunt start, is het belangrijk de huidige status van de ruimte met het Rode Hat OpenStack platform te controleren. Aanbevolen wordt om de huidige toestand te controleren om complicaties te voorkomen.
In het geval van herstel, adviseert Cisco om een steun van de OSPF gegevensbank te nemen met het gebruik van deze stappen.
<[root@director ~]# mysqldump --opt --all-databases > /root/undercloud-all-databases.sql
[root@director ~]# tar --xattrs -czf undercloud-backup-`date +%F`.tar.gz /root/undercloud-all-databases.sql
/etc/my.cnf.d/server.cnf /var/lib/glance/images /srv/node /home/stack
tar: Removing leading `/' from member names
Dit proces zorgt ervoor dat een knooppunt kan worden vervangen zonder dat de beschikbaarheid van de bronnen wordt beïnvloed. Bovendien wordt aanbevolen een back-up te maken van de CPS-configuratie.
Gebruik deze configuratie om back-ups te maken van CPS VM's van Cluster Manager Virtual Machine (VM).
[root@CM ~]# config_br.py -a export --all /mnt/backup/CPS_backup_28092016.tar.gz
Identificeer de VM's die worden Hosted in het computing-knooppunt
Identificeer de VM's die op de computing server worden aangeboden.
[stack@director ~]$ nova list --field name,host,networks | grep compute-10
| 49ac5f22-469e-4b84-badc-031083db0533 | VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d | pod1-compute-10.localdomain | Replication=10.160.137.161; Internal=192.168.1.131; Management=10.225.247.229; tb1-orch=172.16.180.129
Opmerking: In de hier weergegeven output komt de eerste kolom overeen met de universeel-unieke IDentifier (UUID), de tweede kolom is de VM naam en de derde kolom is de hostname waar de VM aanwezig is. De parameters uit deze uitvoer worden in de volgende secties gebruikt.
Uitschakelen van de PCRF-services die op de VM resteren
1. Aanmelden bij de IP van het beheer van de VM.
[stack@XX-ospd ~]$ ssh root@<Management IP>
[root@XXXSM03 ~]# monit stop all
2. Indien de VM een SM is, OAMof Arbiter, stop dan de sessionervices.
[root@XXXSM03 ~]# cd /etc/init.d
[root@XXXSM03 init.d]# ls -l sessionmgr*
-rwxr-xr-x 1 root root 4544 Nov 29 23:47 sessionmgr-27717
-rwxr-xr-x 1 root root 4399 Nov 28 22:45 sessionmgr-27721
-rwxr-xr-x 1 root root 4544 Nov 29 23:47 sessionmgr-27727
3. Voor elk bestand met de naam sessionetechnicus-xxxxxxx stop.
[root@XXXSM03 init.d]# service sessionmgr-27717 stop
GainMaker-voeding
VM uit ESC afsluiten
1. Meld u aan bij het ESC-knooppunt dat overeenkomt met de VNF en controleer de status van de VM.
[admin@VNF2-esc-esc-0 ~]$ cd /opt/cisco/esc/esc-confd/esc-cli
[admin@VNF2-esc-esc-0 esc-cli]$ ./esc_nc_cli get esc_datamodel | egrep --color "<state>|<vm_name>|<vm_id>|<deployment_name>"
<snip>
<state>SERVICE_ACTIVE_STATE</state>
<vm_name>VNF2-DEPLOYM_c1_0_df4be88d-b4bf-4456-945a-3812653ee229</vm_name>
<state>VM_ALIVE_STATE</state>
<vm_name> VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d</vm_name>
<state>VM_ALIVE_STATE</state>
<snip>
2. Stop de VM met het gebruik van de VM-naam. (VM-naam genoteerd uit paragraaf "Identificeer de VM's die worden gehost door het Computomodel").
[admin@VNF2-esc-esc-0 esc-cli]$ ./esc_nc_cli vm-action STOP VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d
3. Zodra de VM is gestopt, moet deze de SHUTOFF-status invoeren.
[admin@VNF2-esc-esc-0 ~]$ cd /opt/cisco/esc/esc-confd/esc-cli
[admin@VNF2-esc-esc-0 esc-cli]$ ./esc_nc_cli get esc_datamodel | egrep --color "<state>|<vm_name>|<vm_id>|<deployment_name>"
<snip>
<state>SERVICE_ACTIVE_STATE</state>
<vm_name>VNF2-DEPLOYM_c1_0_df4be88d-b4bf-4456-945a-3812653ee229</vm_name>
<state>VM_ALIVE_STATE</state>
<vm_name>VNF2-DEPLOYM_c3_0_3e0db133-c13b-4e3d-ac14-
<state>VM_ALIVE_STATE</state>
<vm_name>VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d</vm_name>
<state>VM_SHUTOFF_STATE</state>
<snip>
Stoppen met computingsknooppunt
De in dit deel genoemde stappen zijn gebruikelijk ongeacht de VM's die in het computerknooppunt worden georganiseerd.
Computingsknooppunt stoppen vanaf de spatie
1. Controleer de status en stop vervolgens het knooppunt.
[stack@director ~]$ nova list | grep compute-10
| 03f15071-21aa-4bcf-8fdd-acdbde305168 | pod1-stack-compute-10 | ACTIVE | - | Running | ctlplane=192.200.0.106 |
[stack@director ~]$ nova stop pod1-stack-compute-10
2. Wacht tot de computer in de Shutoff staat en start het programma vervolgens opnieuw.
[stack@director ~]$ nova start pod1-stack-compute-10
3. Controleer of het nieuwe computerknooppunt in de actieve toestand is.
[stack@director ~]$ source stackrc
[stack@director ~]$ nova list |grep compute-10
| 03f15071-21aa-4bcf-8fdd-acdbde305168 | pod1-stack-compute-10 | ACTIVE | - | Running | ctlplane=192.200.0.106 |
[stack@director ~]$ source pod1-stackrc-Core
[stack@director ~]$ openstack hypervisor list |grep compute-10
| 6 | pod1-compute-10.localdomain |
De VM's herstellen
VM-herstel bij ESC
1. Idealiter zouden de VM's vanaf OSPD als u de nova-lijst bekijkt, dicht moeten staan. In dat geval moet u de VM's vanaf ESC starten.
[admin@VNF2-esc-esc-0 ~]$ sudo /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action START VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d
[sudo] password for admin:
2. Of, indien de VM in de nova-lijst een foutstatus heeft, deze configuratie uitvoeren.
[stack@director ~]$ nova list |grep VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d
| 49ac5f22-469e-4b84-badc-031083db0533 | VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d | ERROR | - | NOSTATE |
3. Nu moet u de VM van het ESC herstellen.
[admin@VNF2-esc-esc-0 ~]$ sudo /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli recovery-vm-action DO VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d
[sudo] password for admin:
Recovery VM Action
/opt/cisco/esc/confd/bin/netconf-console --port=830 --host=127.0.0.1 --user=admin --privKeyFile=/root/.ssh/confd_id_dsa --privKeyType=dsa --rpc=/tmp/esc_nc_cli.ZpRCGiieuW
<?xml version="1.0" encoding="UTF-8"?>
<rpc-reply xmlns="urn:ietf:params:xml:ns:netconf:base:1.0" message-id="1">
<ok/>
</rpc-reply>
4. Controleer het yangesc.log.
admin@VNF2-esc-esc-0 ~]$ tail -f /var/log/esc/yangesc.log
…
14:59:50,112 07-Nov-2017 WARN Type: VM_RECOVERY_COMPLETE
14:59:50,112 07-Nov-2017 WARN Status: SUCCESS
14:59:50,112 07-Nov-2017 WARN Status Code: 200
14:59:50,112 07-Nov-2017 WARN Status Msg: Recovery: Successfully recovered VM [VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d].
Controleer de PCRF-services die van toepassing zijn op de VM
Opmerking: Als de VM zich in de SHUTOFF-status bevindt, schakelt u deze in met behulp van ESC_nc_cli van ESC. Controleer de diagnostics.sh van de clustermanager VM en of u een fout ontdekt voor de VM's die dan worden teruggevonden.
1. Aanmelden bij de respectieve VM.
[stack@XX-ospd ~]$ ssh root@<Management IP>
[root@XXXSM03 ~]# monit start all
2. Indien de VM een SM is,OAMofArbiter, start dan de sessionseur diensten die eerder stopten. Voor elk bestand met de naam sessionhouder-xxxxxxx start de service sessionetechnicus-xxxxx.
[root@XXXSM03 init.d]# service sessionmgr-27717 start
3. Als diagnostiek nog niet duidelijk is, moet u build_all.sh uit Cluster Manager VM en de VM-init op de respectieve VM uitvoeren.
/var/qps/install/current/scripts/build_all.sh
ssh VM e.g. ssh pcrfclient01
/etc/init.d/vm-init