Einführung
In diesem Dokument wird das Verfahren zur Wiederherstellung von vPCRF-Instanzen (Virtualized Policy and Charging Rules Function) von Cisco beschrieben, die auf der Ultra-M/OpenStack-Bereitstellung bereitgestellt werden.
Voraussetzungen
Anforderungen
Cisco empfiehlt, dass Sie über Kenntnisse in folgenden Bereichen verfügen:
- OpenStack
- CPS
- Die Compute, auf der die betroffenen Instanzen bereitgestellt wurden, ist jetzt verfügbar.
- Rechenressourcen sind in derselben Verfügbarkeitszone verfügbar wie die betroffene Instanz.
- Die im Dokument erwähnten Sicherungsverfahren werden regelmäßig befolgt/geplant.
Verwendete Komponenten
Die Informationen in diesem Dokument basieren auf CPS und gelten für alle Versionen.
Die Informationen in diesem Dokument beziehen sich auf Geräte in einer speziell eingerichteten Testumgebung. Alle Geräte, die in diesem Dokument benutzt wurden, begannen mit einer gelöschten (Nichterfüllungs) Konfiguration. Wenn Ihr Netzwerk in Betrieb ist, stellen Sie sicher, dass Sie die potenziellen Auswirkungen eines Befehls verstehen.
Fehlerbehebung
Einschalten des Load Balancers aus dem SHUTOFF-Status
Wenn sich eine Instanz aufgrund eines geplanten Herunterfahrens oder aus einem anderen Grund im SHUTOFF-Zustand befindet, starten Sie die Instanz mit diesem Verfahren, und aktivieren Sie die Überwachung in ESC.
- Überprüfen Sie den Status der Instanz über OpenStack.
source /home/stack/destackovsrc-Pcrf
nova list --fields name,host,status | grep PD
| c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957 | destackovs-compute-2 | SHUTOFF|
- Überprüfen Sie, ob der Computer verfügbar ist, und stellen Sie sicher, dass der Status aktiv ist.
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
- Melden Sie sich als Admin-Benutzer bei ESC Active an, und überprüfen Sie den Zustand der Instanz in opdata.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep PD r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957 VM_ERROR_STATE
- Schalten Sie die Instanz von OpenStack ein.
source /home/stack/destackovsrc-Pcrf
nova start r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957
- Warten Sie fünf Minuten, bis die Instanz gestartet ist, und gehen Sie in den aktiven Zustand über.
source /home/stack/destackovsrc-Pcrf
nova list -fields name,status | grep cm
| c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957 | ACTIVE |
- Aktivieren Sie VM Monitor im ESC, nachdem die Instanz im aktiven Zustand ist.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957
- Weitere Informationen zur Wiederherstellung von Instanzkonfigurationen finden Sie in den nachfolgend angegebenen Instanztypspezifischen Verfahren.
Stellen Sie alle Instanzen aus dem FEHLERzustand wieder her.
Dieses Verfahren wird verwendet, wenn der Zustand der CPS-Instanz in OpenStack FEHLER ist:
- Überprüfen Sie den Status der Instanz in OpenStack.
source /home/stack/destackovsrc-Pcrf
nova list --fields name,host,status | grep PD
| c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957 | destackovs-compute-2 | ERROR|
- Überprüfen Sie, ob der Computer verfügbar ist und fehlerfrei ausgeführt wird.
source /home/stack/destackovsrc
nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’
| state | up |
| status | enabled |
- Melden Sie sich als Admin-Benutzer bei ESC Active an, und überprüfen Sie den Zustand der Instanz in opdata.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep PD
r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957 VM_ERROR_STATE
- Setzen Sie den Status der Instanz zurück, um die Instanz wieder in einen aktiven Zustand zu versetzen, anstatt einen Fehlerzustand. Starten Sie anschließend die Instanz neu.
source /home/stack/destackovsrc-Pcrf
nova reset-state –active r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957
nova reboot –-hard r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957
- Warten Sie fünf Minuten, bis die Instanz gestartet ist, und gehen Sie in den aktiven Zustand über.
source /home/stack/destackovsrc-Pcrf
nova list –fields name,status | grep PD
| c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957 | ACTIVE |
- Wenn Cluster Manager nach dem Neustart den Status in "ACTIVE" ändert, aktivieren Sie VM Monitor im ESC, nachdem die Cluster Manager-Instanz im aktiven Zustand ist.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR r5-PD_arb_0_2eb86cbf-07e5-4e14-9002-8990588b8957
- Verwenden Sie nach der Wiederherstellung in den aktiven Status bzw. in den Ausführungsstatus die Prozedur für den Instanztyp, um Konfigurationen/Daten aus der Sicherung wiederherzustellen.
Load Balancer-Wiederherstellung
Wenn kürzlich ein Load Balancer wiederhergestellt wurde, führen Sie mit diesem Verfahren die Wiederherstellung der Proxy- und Netzwerkeinstellungen durch:
- Das Sicherungs- und Wiederherstellungs-Skript ist ein Python-Skript, das verwendet wird, um die Sicherung des angeforderten Konfigurationselements durchzuführen, das lokal auf Cluster Manager VM oder auf anderen VMs verfügbar ist. Wenn eine Wiederherstellung erforderlich ist, wird die gelieferte Konfiguration an den angeforderten Speicherort innerhalb der Cluster Manager VM oder der spezifischen VM kopiert.
Name: config_br.py
Pfad: /var/qps/install/current/scripts/modules
VM: Cluster-Manager
Wenn Sie dieses Skript ausführen, stellen Sie Optionen bereit und geben den Speicherort für die Sicherungsdatei an
Wenn die Wiederherstellungs-LB-Konfigurationsdaten im Cluster-Manager importiert werden müssen, führen Sie folgenden Befehl aus:
config_br.py -a import --network --haproxy --users /mnt/backup/< backup_27092016.tar.gz >
Verwendungsbeispiele:
config_br.py -a export —etc —etc-oam —svn —stats /mnt/backup/backup_27092016.tar.gz
Backup/etc/Broadhop-Konfigurationsdaten von OAM (pcrfclient) VM, Policy Builder-Konfiguration und Logstash
config_br.py -a import —etc —etc-oam —svn —stats /mnt/backup/backup_27092016.tar.gz<
Wiederherstellen von Daten aus /etc/Broadhop-Konfiguration von OAM (pcrfclient) VM, Policy Builder-Konfiguration und Logstash
Wenn weiterhin ein Problem mit der Stabilität besteht und das Load Balancer-VM mit den Cluster Manager-Puppet-Konfigurationsdateien neu konfiguriert werden muss, führen Sie die folgenden Schritte 2 und 3 aus.
- Um die VM-Archivdateien im Cluster Manager mit den neuesten Konfigurationen zu erstellen, führen Sie diesen Befehl im Cluster Manager aus.:
/var/qps/install/current/scripts/build/build_all.sh
- So aktualisieren Sie den Load Balancer mit der neuesten Konfiguration, melden sich beim Load Balancer an und führen diese aus:
ssh lbxx
/etc/init.d/vm-init
Überprüfung
Überprüfung, ob der LB vollständig wiederhergestellt ist oder nicht, "Monit Summary" auf dem LB Mit diesem Befehl wird überprüft, ob alle QN-Prozesse und alle von Monit überwachten Prozesse in einem guten Zustand sind.
- Untersuchen Sie das qns-x.log in /var/log/brehop. Diese Protokolle können auf Fehler oder Fehler überprüft werden, die die Verarbeitung des Datenverkehrs beeinträchtigen könnten.