El conjunto de documentos para este producto aspira al uso de un lenguaje no discriminatorio. A los fines de esta documentación, "no discriminatorio" se refiere al lenguaje que no implica discriminación por motivos de edad, discapacidad, género, identidad de raza, identidad étnica, orientación sexual, nivel socioeconómico e interseccionalidad. Puede haber excepciones en la documentación debido al lenguaje que se encuentra ya en las interfaces de usuario del software del producto, el lenguaje utilizado en función de la documentación de la RFP o el lenguaje utilizado por un producto de terceros al que se hace referencia. Obtenga más información sobre cómo Cisco utiliza el lenguaje inclusivo.
Cisco ha traducido este documento combinando la traducción automática y los recursos humanos a fin de ofrecer a nuestros usuarios en todo el mundo contenido en su propio idioma. Tenga en cuenta que incluso la mejor traducción automática podría no ser tan precisa como la proporcionada por un traductor profesional. Cisco Systems, Inc. no asume ninguna responsabilidad por la precisión de estas traducciones y recomienda remitirse siempre al documento original escrito en inglés (insertar vínculo URL).
Este documento describe el procedimiento de recuperación del administrador de sesiones implementado en implementaciones Ultra-M/Openstack.
Si alguna instancia se encuentra en estado SHUTOFF debido a un apagado planeado o a algún otro motivo, utilice este procedimiento para iniciar la instancia y habilitar el monitoreo it’s en ESC.
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep sm-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | destackovs-compute-2 | SHUTOFF|
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep sm-s1_0 SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 VM_ERROR_STATE
source /home/stack/destackovsrc-Pcrf nova start SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226.
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep sm-s1_0 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | ACTIVE |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226
Para obtener más información sobre la recuperación de configuraciones de instancia, consulte los procedimientos específicos de tipo de instancia que se proporcionan en la siguiente sección.
Este procedimiento se puede utilizar si el estado de la instancia de CPS en openstack es ERROR:
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep sm-s1 | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | destackovs-compute-2 | ERROR|
source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 | egrep ‘status|state’ | state | up | | status | enabled |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata | grep sm-s1_0 SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 VM_ERROR_STATE
source /home/stack/destackovsrc-Pcrf nova reset-state –active SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 nova reboot –-hard SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep sm | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226 | ACTIVE |
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_sm-s1_0_2e5dbff5-a324-42ea-9a65-bebf005a4226
Post recovery to running/active state, consulte el procedimiento específico del tipo de instancia para recuperar config/data de backup.
Session Manager proporciona la capa de base de datos al Cluster Policy Suite en esta sección, se discute la recuperación de bases de datos en una instancia recientemente recuperada del administrador de sesiones:
Si los miembros de un conjunto de réplicas están en estado sin conexión, utilice este procedimiento:
diagnostics.sh --get_replica_status
cd /var/qps/bin/support/mongo build_set.sh --all --create-scripts
ssh sessionmgrXX /etc/init.d/sessionmgr-XXXXX start
Si los miembros de un conjunto de réplicas están atascados en el estado de inicio 2 o recuperación y el primario está disponible en el conjunto de réplicas, utilice este procedimiento:
diagnostics.sh --get_replica_status
ssh sessionmgr01 ps -ef | grep mongo | grep 37717 root 2572 1 25 Feb11 ? 24-11:43:43 /usr/bin/mongod --ipv6 --nojournal --storageEngine mmapv1 --noprealloc --smallfiles --port 37717 --dbpath=/var/data/sessions.1/b --replSet set01b --fork --pidfilepath /var/run/sessionmgr-37717.pid --oplogSize 5120 --logpath /var/log/mongodb-37717.log --logappend --quiet --slowms 500
/etc/init.d/sessionmgr-xxxxx stop rm -rf /var/data/sessions.1/b/*
/etc/init.d/sessionmgr-xxxxx start
El paso 5 puede tardar bastante tiempo en sincronizarse en todos los datos desde el primario, dependiendo del tamaño de la base de datos.
Debido a algunas interrupciones, puede que sea necesario reconstruir algunos o todos los conjuntos de réplicas. Sin embargo, antes de tomar la decisión de reconstruir algunos o todos los conjuntos de réplicas, se puede observar que se podrían perder todos los datos de estos conjuntos de réplicas. La disponibilidad de las copias de seguridad debe verificarse cruzada para estas bases de datos:
Una vez que se verifican las copias de seguridad y se toma la decisión de volver a crear conjuntos de réplicas de bases de datos, utilice este procedimiento:
Nota: El comando para crear todos los dbs en un conjunto de réplicas limpia la base de datos. Se perdería todo el contenido del conjunto de réplicas.
build_set.sh ----create --setname
build_set.sh --all --create
Una vez que todos los miembros del conjunto de réplicas están en línea y uno de los miembros es primario, mongoDB se puede restaurar desde la copia de seguridad a través de este procedimiento.
config_br.py --action import --mongo-all /mnt/backup/
config_br.py --action import --mongo-all --spr /mnt/backup/
config_br.py --action import --mongo-all --admin /mnt/backup/
config_br.py --action import --mongo-all --balance /mnt/backup/
config_br.py --action import --mongo-all --report /mnt/backup/
Si mongodump se utiliza para hacer backup de bases de datos, esto explica su uso a través de la restauración mongo:
tar -zxf /mnt/backup/
ls -ltr /mnt/backup/cd /mnt/backup/27721_backup_$(date +\%Y-\%m-\%d)/dump
mongorestore --host--port
mongorestore --host--port --db --