De documentatie van dit product is waar mogelijk geschreven met inclusief taalgebruik. Inclusief taalgebruik wordt in deze documentatie gedefinieerd als taal die geen discriminatie op basis van leeftijd, handicap, gender, etniciteit, seksuele oriëntatie, sociaaleconomische status of combinaties hiervan weerspiegelt. In deze documentatie kunnen uitzonderingen voorkomen vanwege bewoordingen die in de gebruikersinterfaces van de productsoftware zijn gecodeerd, die op het taalgebruik in de RFP-documentatie zijn gebaseerd of die worden gebruikt in een product van een externe partij waarnaar wordt verwezen. Lees meer over hoe Cisco gebruikmaakt van inclusief taalgebruik.
Cisco heeft dit document vertaald via een combinatie van machine- en menselijke technologie om onze gebruikers wereldwijd ondersteuningscontent te bieden in hun eigen taal. Houd er rekening mee dat zelfs de beste machinevertaling niet net zo nauwkeurig is als die van een professionele vertaler. Cisco Systems, Inc. is niet aansprakelijk voor de nauwkeurigheid van deze vertalingen en raadt aan altijd het oorspronkelijke Engelstalige document (link) te raadplegen.
Dit document beschrijft hoe u problemen met de PS-herstel (Problemleshoot Policy Server) kunt oplossen.
Cisco raadt u aan om kennis over deze onderwerpen te hebben:
De informatie in dit document is gebaseerd op CPS en is van toepassing op alle versies.
De informatie in dit document is gebaseerd op de apparaten in een specifieke laboratoriumomgeving. Alle apparaten die in dit document worden beschreven, hadden een opgeschoonde (standaard)configuratie. Als uw netwerk levend is, zorg er dan voor dat u de mogelijke impact van om het even welke opdracht begrijpt.
In dit gedeelte wordt het volgende beschreven:
Indien een geval zich in de staat SHUTOFF bevindt als gevolg van een geplande sluiting of een andere reden, gebruik dan deze procedure om de instantie te starten en het mogelijk te maken om de instantie te controleren in Elastic Service Controller (ESC).
Stap 1. Controleer de staat van voorbeeld via OpenStack.
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep oam-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed | SHUTOFF|
Stap 2. Controleer of de computer beschikbaar is en controleer of de toestand omhoog is.
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
Stap 3. Meld u aan bij ESC Master as Admin user en controleer de status van een voorbeeld in OpenData.
echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine | tab" | /opt/cisco/esc/confd/bin/confd_cli -u admin –C | grep qns-s2 SVS1-tmo_oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed VM_ERROR_STATE
Stap 4. Schakel de instantie uit vanuit de openstack.
source /home/stack/destackovsrc-Pcrf nova start SVS1-tmo_oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed
Stap 5. Wacht vijf minuten zodat de instantie kan beginnen en weer actief is.
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep oam-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 |SVS1-tmo_oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed | ACTIVE |
Stap 6. VM Monitor in ESC inschakelen nadat het geval actief is.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed
Voor verdere invordering van bijvoorbeeld formaties, zie bijvoorbeeld specifieke procedures.
Deze procedure kan worden gebruikt als de status van CPS-instantie in openstack FOUT is:
Stap 1. Controleer de status van het geval in OpenStack.
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep oam-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed | ERROR|
Stap 2. Controleer of de computer beschikbaar is en fijn werkt.
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
Stap 3. Meld u aan bij ESC Master as Admin user en controleer de status van een voorbeeld in OpenData.
echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine | tab" | /opt/cisco/esc/confd/bin/confd_cli -u admin -C | grep oam-s1 SVS1-tmo_oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed VM_ERROR_STATE
Stap 4. Zet de staat van instantie terug om de instantie terug te dwingen naar een actieve staat in plaats van naar een staat van de fout, herstart uw instantie zodra deze klaar is.
source /home/stack/destackovsrc-Pcrf nova reset-state –active oam-s1_0_170d9c14-0221-4609-87e3-d752e636f57f nova reboot --hard oam-s1_0_170d9c14-0221-4609-87e3-d752e636f57f
Stap 5. Wacht vijf minuten zodat de instantie kan beginnen en weer actief is.
source /home/stack/destackovsrc-Pcrf nova list --fields name,status | grep oam-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 |SVS1-tmo_oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed | ACTIVE |
Stap 6. Als Cluster Manager na de herstart de status van actief programma verandert, is VM Monitor in ESC inschakelen nadat Cluster Manager-instantie actief is.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_oam-s1_0_fd8b0bb8-a2d7-4dae-8048-0c3d86c5d8ed
Stap 7. Post recovery to run/active state, raadpleeg type specifieke procedure om reservekopie/gegevens te herstellen.
Beleidsherstel:
Het belangrijkste is om Policy SVN in een ander cindervolume te houden, gemonteerd op PCRFCLIENTXX op /var/www/svn/repos/, zodat de wijzigingen van het verlies van beleidsbelang voor svn worden teruggebracht, zelfs als het geval verloren gaat. Indien uw inzet geen ander cindervolume heeft voor beleidsSVN, of indien ook de cinder waar het svn-beleid werd opgeslagen, verloren gaat, volgt de procedure om Policy SVN op PCRFCLIENT01 terug te krijgen.
Stap 1. Meld u aan bij de Cluster Manager VM als basisgebruiker.
Stap 2. Let op de UUID van de SVN-opslagplaats via deze opdracht:
svn info http://pcrfclient02/repos | grep UUID
De opdracht geeft output de UUID van de opslagplaats:
For Example Repository UUID: ea50bbd2-5726-46b8-b807-10f4a7424f0e
Stap 3. Controleer of het beleid SVN asynchrone is wanneer het de geboden opdracht gebruikt. Als een waarde wordt teruggegeven, is SVN al in sync. En u hoeft het niet te synchroniseren vanaf PCRFCLIENT02 en u moet stap 4 overslaan. Herstel van laatste back-up kan nog steeds worden gebruikt van de vereiste gegevens, zoals later in deze sectie wordt beschreven.
/usr/bin/svn propget svn:sync-from-url --revprop -r0 http://pcrfclient01/repos
Stap 4. Het opnieuw opzetten van SVN-master/slave-synchronisatie tussen de PC-client01 en PPCRFclient02 met pc01 als de master door het uitvoeren van een reeks opdrachten op PCRFCLIENT01
/bin/rm -fr /var/www/svn/repos /usr/bin/svnadmin create /var/www/svn/repos /usr/bin/svn propset --revprop -r0 svn:sync-last-merged-rev 0 http://pcrfclient02/repos-proxy-sync /usr/bin/svnadmin setuuid /var/www/svn/repos/ "Enter the UUID captured in step 2" /etc/init.d/vm-init-client /var/qps/bin/support/recover_svn_sync.sh
Stap 5. Als Policy SVN voor PCRFCLIENT01 in overeenstemming is met PCRFCLEINT02, maar de meest recente svn niet in Policy Builder weerspiegelt, kan zij via de laatste back-up worden geïmporteerd met de opdracht voor Cluster Manager VM.
config_br.py –a import --svn /mnt/backup/
Het belangrijkste is om Policy SVN in een ander cindervolume te houden, gemonteerd op PCRFCLIENTXX op /var/www/svn/repos/, zodat de wijzigingen van het verlies van beleidsbelang voor svn worden teruggebracht, zelfs als het geval verloren gaat. Als uw inzet geen ander cindervolume heeft voor beleidsdoeleinden svn, of als de cinder waar het svn-beleid is opgeslagen, ook verloren gaat, volgt de procedure om Policy SVN op PCRFCLIENT02 terug te krijgen.
Stap 1. Beveiligde schelp aan de pc01
ssh pcrfclient01
Stap 2. Start het script om de SVN-repos van client01 naar client02 te synchroniseren
/var/qps/bin/support/recover_svn_sync.sh
Controleer de gezondheidsstatus van de cliënt:
run diagnostics.sh from pcrfrclient
Zorg ervoor dat de PB-, Control Center- en Grafana-GUI toegankelijk en correct werken.
/var/qps/bin/support/recover_svn_sync.sh
/var/qps/bin/support/recover_svn_sync.sh