In dem Dokumentationssatz für dieses Produkt wird die Verwendung inklusiver Sprache angestrebt. Für die Zwecke dieses Dokumentationssatzes wird Sprache als „inklusiv“ verstanden, wenn sie keine Diskriminierung aufgrund von Alter, körperlicher und/oder geistiger Behinderung, Geschlechtszugehörigkeit und -identität, ethnischer Identität, sexueller Orientierung, sozioökonomischem Status und Intersektionalität impliziert. Dennoch können in der Dokumentation stilistische Abweichungen von diesem Bemühen auftreten, wenn Text verwendet wird, der in Benutzeroberflächen der Produktsoftware fest codiert ist, auf RFP-Dokumentation basiert oder von einem genannten Drittanbieterprodukt verwendet wird. Hier erfahren Sie mehr darüber, wie Cisco inklusive Sprache verwendet.
Cisco hat dieses Dokument maschinell übersetzen und von einem menschlichen Übersetzer editieren und korrigieren lassen, um unseren Benutzern auf der ganzen Welt Support-Inhalte in ihrer eigenen Sprache zu bieten. Bitte beachten Sie, dass selbst die beste maschinelle Übersetzung nicht so genau ist wie eine von einem professionellen Übersetzer angefertigte. Cisco Systems, Inc. übernimmt keine Haftung für die Richtigkeit dieser Übersetzungen und empfiehlt, immer das englische Originaldokument (siehe bereitgestellter Link) heranzuziehen.
In diesem Dokument wird das Session Manager Recovery-Verfahren beschrieben, das auf Ultra-M/OpenStack-Bereitstellungen bereitgestellt wird.
Wenn sich eine Instanz aufgrund eines geplanten Abschaltvorgangs oder aus einem anderen Grund im SHUTOFF-Zustand befindet, verwenden Sie dieses Verfahren, um die Instanz zu starten und die Überwachung von it’s im ESC zu aktivieren.
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep sm-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | destackovs-compute-2 | SHUTOFF|
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep sm-s1_0 SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 VM_ERROR_STATE
source /home/stack/destackovsrc-Pcrf nova start SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226.
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep sm-s1_0 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | ACTIVE |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226
Weitere Informationen zur Wiederherstellung von Instanzkonfigurationen finden Sie im nächsten Abschnitt unter Instanztypspezifische Verfahren.
Dieses Verfahren kann verwendet werden, wenn der Zustand der CPS-Instanz in OpenStack FEHLER ist:
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep sm-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | destackovs-compute-2 | ERROR|
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep sm-s1_0 SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 VM_ERROR_STATE
source /home/stack/destackovsrc-Pcrf nova reset-state –active SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 nova reboot –-hard SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep sm | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | ACTIVE |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226
Verwenden Sie nach der Wiederherstellung in den aktiven Status bzw. in den Ausführungsstatus die Prozedur für den Instanztyp, um Konfigurationen/Daten aus der Sicherung wiederherzustellen.
Der Sitzungsmanager stellt in diesem Abschnitt die Datenbankschicht der Cluster Policy Suite zur Verfügung. Die Wiederherstellung von Datenbanken auf einer kürzlich wiederhergestellten Instanz des Sitzungsmanagers wird behandelt:
Wenn sich Mitglieder eines Replikationssatzes im Offlinemodus befinden, gehen Sie folgendermaßen vor:
diagnostics.sh --get_replica_status
cd /var/qps/bin/support/mongo build_set.sh --all --create-scripts
ssh sessionmgrXX /etc/init.d/sessionmgr-XXXXX start
Wenn Mitglieder eines Replikationssatzes im Startzustand2 oder im Wiederherstellungszustand stecken und der primäre in Replikatsatz verfügbar ist, gehen Sie folgendermaßen vor:
diagnostics.sh --get_replica_status
ssh sessionmgr01 ps -ef | grep mongo | grep 37717 root 2572 1 25 Feb11 ? 24-11:43:43 /usr/bin/mongod --ipv6 --nojournal --storageEngine mmapv1 --noprealloc --smallfiles --port 37717 --dbpath=/var/data/sessions.1/b --replSet set01b --fork --pidfilepath /var/run/sessionmgr-37717.pid --oplogSize 5120 --logpath /var/log/mongodb-37717.log --logappend --quiet --slowms 500
/etc/init.d/sessionmgr-xxxxx stop rm -rf /var/data/sessions.1/b/*
/etc/init.d/sessionmgr-xxxxx start
In Schritt 5 kann die Synchronisierung aller Daten aus dem primären Datenspeicher je nach Datenbankgröße sehr lange dauern.
Aufgrund einiger Ausfälle kann es erforderlich sein, einige oder alle Replikate wiederherzustellen. Bevor jedoch beschlossen wird, einige oder alle Replikate neu zu erstellen, kann festgestellt werden, dass alle Daten in diesen Replikatsätzen verloren gehen könnten. Die Verfügbarkeit von Backups muss für diese Datenbanken überprüft werden:
Wenn Backups überprüft wurden und Entscheidungen zum Wiederherstellen von Datenbankreplikationssätzen getroffen werden, gehen Sie folgendermaßen vor:
Hinweis: Durch den Befehl zum Erstellen aller Pfeile in einer Replikationseinrichtung wird die Datenbank gelöscht. Der gesamte Inhalt des Replikationssatzes geht verloren.
build_set.sh ----create --setname
build_set.sh --all --create
Sobald alle Mitglieder des Replikations-Sets online sind und eines der Mitglieder der primäre ist, kann mongoDB von der Sicherung durch dieses Verfahren wiederhergestellt werden.
config_br.py --action import --mongo-all /mnt/backup/
config_br.py --action import --mongo-all --spr /mnt/backup/
config_br.py --action import --mongo-all --admin /mnt/backup/
config_br.py --action import --mongo-all --balance /mnt/backup/
config_br.py --action import --mongo-all --report /mnt/backup/
Wenn mongodump zum Sichern von Datenbanken verwendet wird, erklärt dies seine Verwendung durch Mongo-Wiederherstellung:
tar -zxf /mnt/backup/
ls -ltr /mnt/backup/cd /mnt/backup/27721_backup_$(date +\%Y-\%m-\%d)/dump
mongorestore --host--port
mongorestore --host--port --db --