Dans le cadre de la documentation associée à ce produit, nous nous efforçons d’utiliser un langage exempt de préjugés. Dans cet ensemble de documents, le langage exempt de discrimination renvoie à une langue qui exclut la discrimination en fonction de l’âge, des handicaps, du genre, de l’appartenance raciale de l’identité ethnique, de l’orientation sexuelle, de la situation socio-économique et de l’intersectionnalité. Des exceptions peuvent s’appliquer dans les documents si le langage est codé en dur dans les interfaces utilisateurs du produit logiciel, si le langage utilisé est basé sur la documentation RFP ou si le langage utilisé provient d’un produit tiers référencé. Découvrez comment Cisco utilise le langage inclusif.
Cisco a traduit ce document en traduction automatisée vérifiée par une personne dans le cadre d’un service mondial permettant à nos utilisateurs d’obtenir le contenu d’assistance dans leur propre langue. Il convient cependant de noter que même la meilleure traduction automatisée ne sera pas aussi précise que celle fournie par un traducteur professionnel.
Ce document décrit la procédure de récupération de Session Manager déployée sur les déploiements Ultra-M/Openstack.
Si une instance est dans l'état SHUTOFF en raison d'un arrêt planifié ou d'une autre raison, veuillez utiliser cette procédure pour démarrer l'instance et activer la surveillance it’s dans ESC.
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep sm-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | destackovs-compute-2 | SHUTOFF|
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep sm-s1_0 SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 VM_ERROR_STATE
source /home/stack/destackovsrc-Pcrf nova start SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226.
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep sm-s1_0 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | ACTIVE |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226
Pour une récupération ultérieure des configurations d'instance, reportez-vous aux procédures spécifiques au type d'instance fournies dans la section suivante.
Cette procédure peut être utilisée si l'état de l'instance CPS dans openstack est ERROR :
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep sm-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | destackovs-compute-2 | ERROR|
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep sm-s1_0 SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 VM_ERROR_STATE
source /home/stack/destackovsrc-Pcrf nova reset-state –active SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 nova reboot –-hard SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep sm | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | ACTIVE |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226
Après la récupération à l'état actif/en cours, référez-vous à la procédure spécifique au type d'instance pour récupérer la configuration/les données à partir de la sauvegarde.
Le gestionnaire de sessions fournit la couche de base de données à la suite de stratégies de cluster dans cette section. La récupération des bases de données sur une instance récemment restaurée du gestionnaire de sessions est abordée :
Si le ou les membres d'un jeu de réplicas sont en mode hors connexion, procédez comme suit :
diagnostics.sh --get_replica_status
cd /var/qps/bin/support/mongo build_set.sh --all --create-scripts
ssh sessionmgrXX /etc/init.d/sessionmgr-XXXXX start
Si le ou les membres d'un jeu de réplicas sont bloqués dans l'état de démarrage2 ou de récupération et que le principal est disponible dans le jeu de réplicas, procédez comme suit :
diagnostics.sh --get_replica_status
ssh sessionmgr01 ps -ef | grep mongo | grep 37717 root 2572 1 25 Feb11 ? 24-11:43:43 /usr/bin/mongod --ipv6 --nojournal --storageEngine mmapv1 --noprealloc --smallfiles --port 37717 --dbpath=/var/data/sessions.1/b --replSet set01b --fork --pidfilepath /var/run/sessionmgr-37717.pid --oplogSize 5120 --logpath /var/log/mongodb-37717.log --logappend --quiet --slowms 500
/etc/init.d/sessionmgr-xxxxx stop rm -rf /var/data/sessions.1/b/*
/etc/init.d/sessionmgr-xxxxx start
L'étape 5 peut prendre beaucoup de temps pour synchroniser toutes les données du primaire, selon la taille de la base de données.
En raison de certaines pannes, il peut être nécessaire de reconstruire certains jeux de réplicas ou tous les jeux de réplicas. Toutefois, avant de prendre la décision de reconstruire certains ou tous les jeux de réplicas, il peut être noté que toutes les données de ces jeux de réplicas pourraient être perdues. La disponibilité des sauvegardes doit être vérifiée de manière croisée pour ces bases de données :
Une fois les sauvegardes vérifiées et la décision de recréer les jeux de réplicas de base de données prise, procédez comme suit :
Note: La commande permettant de créer tous les dbs dans un jeu de réplicas nettoie la base de données. Tout le contenu du jeu de réplicas sera perdu.
build_set.sh ----create --setname
build_set.sh --all --create
Une fois que tous les membres du jeu de réplicas sont en ligne et qu'un des membres est primaire, mongoDB peut être restauré à partir de la sauvegarde via cette procédure.
config_br.py --action import --mongo-all /mnt/backup/
config_br.py --action import --mongo-all --spr /mnt/backup/
config_br.py --action import --mongo-all --admin /mnt/backup/
config_br.py --action import --mongo-all --balance /mnt/backup/
config_br.py --action import --mongo-all --report /mnt/backup/
Si mongodump est utilisé pour sauvegarder des bases de données, cela explique son utilisation par le biais de la restauration mongo :
tar -zxf /mnt/backup/
ls -ltr /mnt/backup/cd /mnt/backup/27721_backup_$(date +\%Y-\%m-\%d)/dump
mongorestore --host--port
mongorestore --host--port --db --