De documentatie van dit product is waar mogelijk geschreven met inclusief taalgebruik. Inclusief taalgebruik wordt in deze documentatie gedefinieerd als taal die geen discriminatie op basis van leeftijd, handicap, gender, etniciteit, seksuele oriëntatie, sociaaleconomische status of combinaties hiervan weerspiegelt. In deze documentatie kunnen uitzonderingen voorkomen vanwege bewoordingen die in de gebruikersinterfaces van de productsoftware zijn gecodeerd, die op het taalgebruik in de RFP-documentatie zijn gebaseerd of die worden gebruikt in een product van een externe partij waarnaar wordt verwezen. Lees meer over hoe Cisco gebruikmaakt van inclusief taalgebruik.
Cisco heeft dit document vertaald via een combinatie van machine- en menselijke technologie om onze gebruikers wereldwijd ondersteuningscontent te bieden in hun eigen taal. Houd er rekening mee dat zelfs de beste machinevertaling niet net zo nauwkeurig is als die van een professionele vertaler. Cisco Systems, Inc. is niet aansprakelijk voor de nauwkeurigheid van deze vertalingen en raadt aan altijd het oorspronkelijke Engelstalige document (link) te raadplegen.
Dit document beschrijft de stappen om Cisco Virtual Policy en Charging Regels Functie (vPCRF) instellingen te herstellen die op Ultra-M/OpenStack zijn ingezet.
Als een instantie in de staat SHUTOFF is vanwege een geplande sluiting of om een andere reden, gebruik dan deze procedure om de instantie te starten en zorg ervoor dat deze instantie wordt gevolgd in de Elastic Services Controller (ESC).
Stap 1. Controleer de staat van voorbeeld via OpenStack.
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep cm_0 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 | destackovs-compute-2 | SHUTOFF|
Stap 2. Controleer of de computer beschikbaar is en zorg ervoor dat de status omhoog is.
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
Stap 3. Meld u aan bij ESC Master as Admin user en controleer de status van een voorbeeld in OpenData.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep cm_0 SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 VM_ERROR_STATE
Stap 4. Schakel de instantie uit vanuit de openstack.
source /home/stack/destackovsrc-Pcrf nova start SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634
Stap 5. Wacht vijf minuten zodat de instantie kan beginnen en weer actief is.
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep cm_0 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 | ACTIVE
Stap 6 EDe VM-monitor in ESC kan worden ingeschakeld nadat de instantie in actieve staat is.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634
Voor de verdere invordering van bijvoorbeeld configuraties, zie hier beschreven specifieke procedures van het type instantie.
Deze procedure kan worden gebruikt als de status van CPS-instantie in openstack FOUT is:
Stap 1. Controleer de staat van vestiging in OpenStack.
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep cm_0 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 | destackovs-compute-2 | ERROR|
Stap 2. Controleer of de computer beschikbaar is en werkt goed.
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
Stap 3. Meld u aan bij ESC Master as Admin user en controleer de status van een voorbeeld in OpenData.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep cm_0 SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 VM_ERROR_STATE
Stap 4. Zet de staat van instantie terug om de instantie terug te dwingen naar een actieve staat in plaats van naar een staat van de fout, herstart uw instantie zodra deze klaar is.
source /home/stack/destackovsrc-Pcrf nova reset-state –active SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 nova reboot –-hard SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634
Stap 5. Wacht vijf minuten zodat de instantie kan beginnen en weer actief is.
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep cm_0 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 | ACTIVE |
Stap 6. Als Cluster Manager na de herstart de status van actief programma verandert, is VM Monitor in ESC inschakelen nadat Cluster Manager-instantie actief is.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634
Na herstel naar actieve/actieve staat, raadpleeg instantie type specifieke procedure om configuratie/gegevens van back-up te herstellen.
Als Cisco Policy Suite (CPS) vastzit in de staat FOUTMELDING en niet in staat is om aan te zetten via procedures die al zijn beschreven en de instantie beschikbaar is in de opstapel. Aanbevolen wordt om de instantie te herbouwen door middel van een momentopname.
Stap 1. Zorg ervoor dat de snapshot van de laatst bekende goede configuratie aanwezig is als een QCOW-bestand, gebruik dit eerder gegenereerd bestand tijdens back-up, scp/fp het terug naar de OpenStack Platform-Director (OSPF)-computer. Gebruik deze procedure om deze om te zetten in een afbeelding:
source /home/stack/destackovsrc-Pcrf glance image-create --name CPS_Cluman_13.1.1 --disk-format "qcow2" --container "bare" --file /var/Pcrf/cluman_snapshot.raw Alternatively, glance image-create --name rebuild_cluman --file /home/stack/cluman_snapshot.raw --disk-format qcow2 --container-format bare
Stap 2. Gebruik een nova-herbouwopdracht op OSPF om de Cluman VM-instantie te herbouwen met de geüploade snapshot zoals getoond.
nova rebuild
Stap 3. Wacht vijf minuten zodat de instantie kan beginnen en weer actief is.
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep cm | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 |cm_0_170d9c14-0221-4609-87e3-d752e636f57f| ACTIVE |
Stap 4. Als Cluster Manager na de heropbouw de status van actief maakt, controleert u de toestand van het geval in ESC en schakelt u VM-monitor in ESC in indien nodig in.
echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine | tab" | /opt/cisco/esc/confd/bin/confd_cli -u admin –C | grep cm cm_0_170d9c14-0221-4609-87e3-d752e636f57f VM_ERROR_STATE /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR cm_0_170d9c14-0221-4609-87e3-d752e636f57f
Stap 5. Controleer het modemvolume dat bij Cluster Manager Origineel ISO-beeld hoort, met de huidige tijd na het opnieuw inzetten:
cinder list | grep tmobile-pcrf-13.1.1-1.iso | 2f6d7deb-60d6-40fa-926f-a88536cf98a3 | in-use | tmobile-pcrf-13.1.1-1.iso | 3 | - | true | a3f3bc62-0195-483a-bbc0-692bccd37307 | cinder show 2f6d7deb-60d6-40fa-926f-a88536cf98a3 | grep updated_at | updated_at | 2018-06-18T08:54:59.000000 updated_at | 2018-06-18T08:54:59.000000
Stap 6. Sluit reservekopieën of een ander modulevolume aan dat eerder aan Cluster Manager Instance is toegevoegd als deze niet in eerdere stappen zijn aangesloten.
source /home/stack/destackovsrc-Pcrf cinder list +--------------------------------------+-----------+---------------------------+------+-------------+----------+--------------------------------------+ | ID | Status | Name | Size | Volume Type | Bootable | Attached to | +--------------------------------------+-----------+---------------------------+------+-------------+----------+--------------------------------------+ | 0e7ec662-b59e-4e3a-91a9-35c4ed3f51d7 | available | pcrf-atp1-mongo02 | 3 | - | false | | | 2f6d7deb-60d6-40fa-926f-a88536cf98a3 | in-use | tmobile-pcrf-13.1.1-1.iso | 3 | - | true | a3f3bc62-0195-483a-bbc0-692bccd37307 | | 4c553948-df75-4f0b-bf7b-0e64127dfda3 | available | pcrf-atp1-svn01 | 3 | - | false | | | 594c052e-aaa3-4c82-867d-3b36162244b3 | available | tmobile-pcrf-13.1.1-2.iso | 3 | - | true | | | 64953713-de86-40d5-a0e5-07db22d692f2 | in-use | tmobile-pcrf-13.1.1.iso | 3 | - | true | 80a93e90-59e2-43bd-b67e-5d766d0a2f11 | openstack server add volume--device
Stap 7. Als de cluman momentopname oud is en configuratie_br.py back-up beschikbaar is van een datum post momentopname is genomen. Importeer de configuratie van back-up en als deze niet overslaat dan deze stap.
sshconfig_br.py –a import --svn --etc --grafanadb --auth-htpasswd --haproxy /mnt/backup/
Stap 8. Maak alle VM-afbeeldingen van back-up door configuratie_br.py op clustermanager:
/var/qps/install/current/scripts/build/build_all.sh
Als CPS Cluster Manager VM verloren is (niet kan herstellen) en het herbouwproces (zoals beschreven in 2.3) ook is mislukt, moet u de instantie opnieuw implementeren via ESC. In deze procedure wordt het proces voor hetzelfde beschreven:
Stap 1. Zorg ervoor dat snapshot van de laatst bekende goede configuratie aanwezig is als een QCOW-bestand, gebruik dit eerder gegenereerde bestand tijdens back-up, scp/fp het terug naar de OSPF-computer.
ls –ltr /var/Pcrf/cluman_snapshot.qcow -rw-r--r--. 1 root root 328514100 May 18 16:59 cluman_snapshot.qcow
Stap 2. Gebruik deze procedure om deze om te zetten in een afbeelding.
source /home/stack/destackovsrc-Pcrf glance image-create --name CPS_Cluman_13.1.1 --disk-format "qcow2" --container "bare" --file /var/Pcrf/cluman_snapshot.qcow
Stap 3. Zodra de afbeelding beschikbaar is, logt u in bij ESC en verifieert u de staat van Cluster Manager Instance in ESC-gegevens.
echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine | tab" | /opt/cisco/esc/confd/bin/confd_cli -u admin –C | grep cm cm_0_170d9c14-0221-4609-87e3-d752e636f57f VM_ERROR_STATE
Stap 4. Zorg ervoor dat het /home/admin/PCRF_config.xml-bestand aanwezig is als u een back-up maakt in 2.1.1
Stap 5. Vervang de naam van de uitrol, huurder en vm_group voor terugwinning van clustermanager.
Steekproef:
Pcrf ---------------- Name of the tenantfalse DEP1 ---------------- Name of the Deployment ----- ----- -----cm --------------- Name of the vm_group pcrf-13.1.1.qcow2 ------------- Name of the Image usedpcrf-cm 600 30
Stap 6. Trigger een wissing van Cluster Manager v.m. van ESC:
Waarschuwing: De opdracht om de instantie uit opdata te verwijderen moet volledig zijn, onvolledige opdracht kan de hele implementatie verwijderen. Wees voorzichtig. De opdracht moet altijd alle parameter bevatten, d.w.z. huurnaam, implementatienaam en vm_group naam.
/opt/cisco/esc/confd/bin/confd_cli -u admin –C esc-ha-01# config esc-ha-01(config)# no esc_datamodel tenants tenant Pcrf deployments deployment DEP1 vm_group cm esc-ha-01(config)# commit esc-ha-01(config)# exit
Boven stap moet de instantie uit openstack en ESC-gegevens verwijderen. Met andere woorden, de Cluster Manager is nu geen onderdeel van de toepassing.
Stap 7. Controleer dat de Cluster Manager Instance van yangesc.log is verwijderd, escManager.log in ESC en nova in het OSPD-knooppunt.
Stap 8. Wijzig het bestand PCRF_klaar.xml dat in stap 2.1.1 is gestaafd en wijzig de naam van het beeld van de clusterbeheerder in de nieuwe afbeelding vanaf momentopname in de bovenstaande stappen:
Voor wijziging | Na wijziging |
<vm_groep> <naam>cm</naam> <afbeelding>pcrf-13.1.1.qkoe2</afbeelding> |
<vm_groep> |
Stap 9. Wijzig de PCRF_klaar.xml en verwijder het wolkengebruiker-gegevensbestand voor de groep van Cluster Manager vm. U ziet hier een fragment uit xml:
--user-data file:///opt/cisco/esc/cisco-cps/config/pcrf-cm_cloud.cfg CLUSTER_ID P1 CM_IP_ADDR_PVT 192.168.1.107 PREFIX vpc SEQ 01 SITE_ID DE
Stap 10. Kopieer het bestand PCRF_fig.xml naar /opt/cisco/esc/cisco-cps/fig/map waarin alle andere configuratiebestanden aanwezig zijn.
Stap 1. Laad het nieuwe configuratiebestand op ESC-gegevens samenvoegen.
/opt/cisco/esc/confd/bin/confd_cli -u admin –C esc-ha-01# config esc-ha-01(config)# load merge /opt/cisco/esc/cisco-cps/config/PCRF_config.xml esc-ha-01(config)# commit esc-ha-01(config)# exit
Stap 12. Controleer de yangesc.log, escManager.log op ESC en nova lijst op OSPD om de inzet van Cluster Manager te controleren.
source /home/stack/destackovsrc-Pcrf nova list --fields name,status| grep cm | 96a5647e-9970-4e61-ab5c-5e7285543a09 | cm_0_a11a9068-df37-4974-9bd8-566f825d5e39 | ACTIVE
Stap 13. Als Cluster Manager na de heropbouw de status van actief maakt, controleert u de toestand van het geval in ESC en schakelt u VM-monitor in ESC in indien nodig in.
echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine | tab" | /opt/cisco/esc/confd/bin/confd_cli -u admin –C | grep cm cm_0_170d9c14-0221-4609-87e3-d752e636f57f VM_ERROR_STATE /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR cm_0_170d9c14-0221-4609-87e3-d752e636f57f
Stap 14. Sluit reservekopieën of een ander modulevolume dat eerder aan Cluster Manager Instance was toegevoegd en niet automatisch door ESC in vorige stap.
source /home/stack/destackovsrc-Pcrf cinder list +--------------------------------------+--------+------------------------+------+------------+---------+----------------------------------------+ | ID | Status | Name | Size | Volume Type| Bootable| Attached to | +--------------------------------------+--------+------------------------+------+------------+---------+----------------------------------------+ | 4c478cce-c746-455a-93f1-3f360acb87ce | in-use | CPS_14.0.0.release.iso | 3 | - | true | 96a5647e-9970-4e61-ab5c-5e7285543a09 | | 7e5573d9-29bc-4ea0-b046-c666bb1f7e06 | in-use | PCRF_backup | 1024 | - | false | | | d5ab1991-3e09-41f2-89f5-dd1cf8a9e172 | in-use | svn01 | 2 | - | false | 09f4bafa-dfb6-457f-9af5-69196eb31b13 | | d74988a7-1f59-4241-9777-fc4f2d4f3e78 | in-use | svn02 | 2 | - | false | 86ea448d-09bc-4d2f-81a3-de05884f1e05 | +--------------------------------------+--------+------------------------+------+------------+---------+----------------------------------------+ openstack server add volume--device
Stap 15. Als de cluman momentopname oud is en configuratie_br.py back-up beschikbaar is van een datum post snapshot werd genomen. Importeer de configuratie van back-up, als niet deze stap overslaat.
sshconfig_br.py –a import --svn --etc --grafanadb --users --auth-htpasswd --haproxy /mnt/backup/
Stap 16. Herbouw alle VM-afbeeldingen van back-up via configuratie_br.py op clusterbeheer:
/var/qps/install/current/scripts/build/build_all.sh