O conjunto de documentação deste produto faz o possível para usar uma linguagem imparcial. Para os fins deste conjunto de documentação, a imparcialidade é definida como uma linguagem que não implica em discriminação baseada em idade, deficiência, gênero, identidade racial, identidade étnica, orientação sexual, status socioeconômico e interseccionalidade. Pode haver exceções na documentação devido à linguagem codificada nas interfaces de usuário do software do produto, linguagem usada com base na documentação de RFP ou linguagem usada por um produto de terceiros referenciado. Saiba mais sobre como a Cisco está usando a linguagem inclusiva.
A Cisco traduziu este documento com a ajuda de tecnologias de tradução automática e humana para oferecer conteúdo de suporte aos seus usuários no seu próprio idioma, independentemente da localização. Observe que mesmo a melhor tradução automática não será tão precisa quanto as realizadas por um tradutor profissional. A Cisco Systems, Inc. não se responsabiliza pela precisão destas traduções e recomenda que o documento original em inglês (link fornecido) seja sempre consultado.
Os documentos descrevem o procedimento para recuperar as instâncias da política virtual da Cisco e das regras de cobrança (vPCRF) implantadas em um ambiente Ultra-M/OpenStack.
A Cisco recomenda que você tenha conhecimento destes tópicos:
Este documento não se restringe a versões de software e hardware específicas.
The information in this document was created from the devices in a specific lab environment. All of the devices used in this document started with a cleared (default) configuration. Se a rede estiver ativa, certifique-se de que você entenda o impacto potencial de qualquer comando.
O backup das configurações no ESC-HA deve ser mensal, antes/depois de qualquer operação de dimensionamento horizontal ou horizontal com o VNF e antes/depois das alterações de configuração no ESC. Deve ser feito um backup para que se possa fazer uma recuperação eficaz da CES em caso de catástrofe.
ESC opdata como XML
Siga este procedimento para exportar o ESC opdata como um XML:
1. Faça login no ESC com o uso de credenciais de administrador.
2. Exportar opdata para XML:
/opt/cisco/esc/confd/bin/netconf-console --host 127.0.0.1 --port 830 -u <admin-user> -p <admin-password> --get-config > /home/admin/ESC_config.xml
3. Baixe este arquivo no computador local de ftp/sftp para um servidor fora da nuvem.
4. Todos os scripts e arquivos de dados do usuário referenciados em XMLs de implantação. Localize todos os arquivos de dados do usuário referenciados em XMLs de implantação de todas as VNFs dos opdata exportados na etapa anterior.
grep "file://" /home/admin/ESC_config.xml | sort | uniq
Saída de exemplo:
<file>file://opt/cisco/esc/cisco-cps/config/gr/cfg/std/pcrf-cm_cloud.cfg</file> <file>file://opt/cisco/esc/cisco-cps/config/gr/cfg/std/pcrf-oam_cloud.cfg</file> <file>file://opt/cisco/esc/cisco-cps/config/gr/cfg/std/pcrf-pd_cloud.cfg</file> <file>file://opt/cisco/esc/cisco-cps/config/gr/cfg/std/pcrf-qns_cloud.cfg</file> <file>file://opt/cisco/esc/cisco-cps/config/gr/cfg/std/pcrf-sm_cloud.cfg</file>
5. Localize todos os scripts de pós-implantação usados para enviar API de orquestração CPS.
6. Exemplos de snippets do script pós_implantação no ESC opdata
Saída de exemplo:
<policies> <policy> <name>PCRF_POST_DEPLOYMENT</name> <conditions> <condition> <name>LCS::POST_DEPLOY_ALIVE</name> </condition> </conditions> <actions> <action> <name>FINISH_PCRF_INSTALLATION</name> <type>SCRIPT</type> <properties> ---------- <property> <name>script_filename</name> <value>/opt/cisco/esc/cisco-cps/config/gr/tmo/cfg/../cps_init.py</value> </property> <property> <name>script_timeout</name> <value>3600</value> </property> </properties> </action> </actions> </policy> </policies>
Exemplo 2:
<policy> <name>PCRF_POST_DEPLOYMENT</name> <conditions> <condition> <name>LCS::POST_DEPLOY_ALIVE</name> </condition> </conditions> <actions> <action> <name>FINISH_PCRF_INSTALLATION</name> <type>SCRIPT</type> <properties> <property> <name>CLUMAN_MGMT_ADDRESS</name> <value>10.174.132.46</value> </property> <property> <name>CLUMAN_YAML_FILE</name> <value>/opt/cisco/esc/cisco-cps/config/vpcrf01/ cluman_orch_config.yaml</value> </property> <property> <name>script_filename</name> <value>/opt/cisco/esc/cisco-cps/config/vpcrf01/vpcrf_cluman_post_deployment.py</value> </property> <property> <name>wait_max_timeout</name> <value>3600</value> </property> </properties> </action> </actions> </policy>
Se o ESC opdata de implantação (extraído na etapa anterior) contiver qualquer um dos arquivos destacados, faça o backup deles com a ajuda desse comando.
tar –zcf esc_files_backup.tgz /opt/cisco/esc/cisco-cps/config/
Baixe este arquivo no computador local de ftp/sftp para um servidor fora da nuvem.
Note: Embora opdata seja sincronizado entre o ESC principal e o standby, os diretórios que contêm dados de usuário, XML e scripts pós-implantação não são sincronizados em ambas as instâncias. Sugere-se que os clientes enviem o conteúdo do diretório que contém esses arquivos com o uso de SCP ou SFTP, esses arquivos devem ser constantes em ESC-Primary e ESC-Standby para recuperar uma implantação quando a VM ESC que era primária no momento da implantação não está disponível.
Agenda de backups sugerida no ESC
Essas são entradas sugeridas para que o usuário raiz seja adicionado em ESC Primary e ESC Standby. No entanto, você pode modificar as horas/dia/mês de acordo com suas necessidades e a frequência das alterações na rede.
30 01 * * * tar –zcf /home/admin/esc_files_backup_$(date +"\%Y-\%m-\%d").tgz /opt/cisco/esc/cisco-cps/config/ 00 02 * * * /opt/cisco/esc/confd/bin/netconf-console --host 127.0.0.1 --port 830 -u <admin-user> -p <admin-password> --get-config > /home/admin/ESC_config_$(date +"\%Y-\%m-\%d").xml
O Cluster Manager atua como um fantoche principal para um cluster CPS. Assim, torna-se necessário fazer um snapshot dessa instância. Além disso, o utilitário de backup e restauração fornecido pela Cisco pode ser usado para coletar backups de mongoDB, configuração de política, banco de dados do grafana, usuários, redes e outros arquivos de configuração de pcrf. O backup desses arquivos deve ser feito com frequência com o uso do utilitário de backup CPS e armazenados em um local fora da nuvem Ultra-M.
Instantâneo da VM do Cluster Manager
É necessário fazer o backup mensal do Instantâneo de Instância do Cluster Manager, também antes e depois de quaisquer alterações de configuração, atualizações de patches e atualizações. Os snapshots antigos podem ser excluídos após atividades bem-sucedidas para salvar espaço em disco. Este procedimento descreve as etapas para fazer backup da instância do gerenciador de cluster como um snapshot:
1. Este comando para exibir as instâncias de nova e observar o nome da instância de VM do gerenciador de cluster:
nova list
2. Crie uma imagem de instantâneo nova conforme mostrado aqui:
nova image-create --poll <cluman_instance_name> <cluman_snapshot_name>
Saída de exemplo:
Server snapshotting... 100% complete
Finished
Note: Certifique-se de que você tenha espaço em disco suficiente para o snapshot. Às vezes, o Cluster Manager fica inacessível no momento da criação do snapshot e se reinicia após a criação do snapshot. Se a instância permanecer inalcançável mesmo depois que o processo de snapshot tiver terminado, verifique o status da VM com o uso do comando nova list. Se estiver no estado SHUTOFF, você precisará iniciar a VM manualmente, com o uso do comando nova start.
3. Certifique-se de que a imagem do snapshot seja criada com esse comando.
glance image-list
Saída de exemplo:
+--------------------------------------+-------------------------------------+ | ID | Name | +--------------------------------------+-------------------------------------+ | 1683d05f-2a9f-46d8-877d-10982ee819e1 | cluman_backup_image | | 30f2ece1-6438-4ef7-b4cf-44a0e7de183e | CPS_13.1.1.release.iso | | d38321a1-27c1-4c47-bc0f-24aedab5867a | CPS_13.1.1_Base | +--------------------------------------+-------------------------------------+
4. Quando você executa qualquer alteração de plataforma em que o Ceph pode ser afetado, sempre é sugerido converter o snapshot do Cluster Manager em um arquivo QCOW e salvá-lo em algum local remoto.
glance image-download --file /var/Pcrf/cluman_snapshot.raw <image-id of the snapshot>
5. Baixe este arquivo no computador local de ftp/sftp para um servidor fora da nuvem.
Backup de configurações e banco de dados CPS
1. Para fazer backup das configurações do CPS e do conteúdo do banco de dados, o utilitário config_br.py é incorporado à plataforma do CPS. Detalhes sobre o uso do utilitário config_br.py estão presentes no Guia de Backup e Restauração do CPS. Este é um exemplo de crontab no cluster manager para fazer backup de toda a configuração e bancos de dados às 100 horas todos os dias.
00 01 * * * /var/platform/modules/config_br.py -a export -–all /mnt/backup/backup_$(date +\%Y-\%m-\%d).tar
2. O MongoDB pode, em alternativa, ser copiado em backup com o uso de mongodump.
30 01 * * * mongodump --host sessionmgr01 –port 27721 --out /mnt/backup/mongo_admin_27721_$(date +\%Y-\%m-\%d)/ 30 01 * * * mongodump --host sessionmgr01 –port 27720 --out /mnt/backup/mongo_spr_27720_$(date +\%Y-\%m-\%d)/ 30 01 * * * mongodump --host sessionmgr01 –port 27718 --out /mnt/backup/mongo_bal_27718_$(date +\%Y-\%m-\%d)/ 30 01 * * * mongodump --host sessionmgr01 –port 27719 --out /mnt/backup/mongo_report_27721_$(date +\%Y-\%m-\%d)/
3. YAML de orquestração de backup.
curl -i -X GET http://<Cluster Manager IP>:8458/api/system/config -H "Content-Type: application/yaml" > /mnt/backup/CPS_orc_$(date +\%Y-\%m-\%d).yaml
Se a API de orquestração do CPS for usada para configurar o sistema, sugerimos fazer o backup dessa configuração também.
Note: Todos os backups devem ser armazenados/transferidos para fora do CPS VNF e, de preferência, para fora da nuvem na qual o CPS é implantado.
Procedimentos de recuperação de instância de VNF do CPS
Ligue qualquer instância do estado SHUTOFF.
Se alguma instância estiver no estado SHUTOFF devido a um desligamento planejado ou algum outro motivo, use este procedimento para iniciar a instância e habilitar o monitoramento em ESC.
1. Verifique o estado de uma instância através do OpenStack.
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep cm | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | cm_0_170d9c14-0221-4609-87e3-d752e636f57f| destackovs-compute-2 | SHUTOFF|
2. Verifique se o Compute está disponível e se o estado está ativo.
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep cm | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | cm_0_170d9c14-0221-4609-87e3-d752e636f57f| destackovs-compute-2 | SHUTOFF|
3. Faça login no ESC Primary como um usuário administrador e verifique o estado da instância no opdata.
echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine | tab" | /opt/cisco/esc/confd/bin/confd_cli -u admin –C | grep cm cm_0_170d9c14-0221-4609-87e3-d752e636f57f VM_ERROR_STATE
4. Ligue a instância do OpenStack.
source /home/stack/destackovsrc-Pcrf nova start cm_0_170d9c14-0221-4609-87e3-d752e636f57f
5. Aguarde cinco minutos para que a instância seja inicializada e chegue ao estado ATIVE.
source /home/stack/destackovsrc-Pcrf nova list --fields name,status | grep cm | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 |cm_0_170d9c14-0221-4609-87e3-d752e636f57f| ACTIVE |
6. Ative o VM Monitor no ESC depois que a instância estiver em um estado ATIVE.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR cm_0_170d9c14-0221-4609-87e3-d752e636f57f
Para obter mais recuperação das configurações de instância, consulte os procedimentos específicos de tipo de instância fornecidos aqui.
Recuperar qualquer instância do estado ERROR
O procedimento a seguir pode ser usado se o estado da instância do CPS no OpenStack for ERROR:
1. Verifique o estado de uma instância no OpenStack.
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep cm | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | cm_0_170d9c14-0221-4609-87e3-d752e636f57f| destackovs-compute-2Â | ERROR|
2. Verifique se o Compute está disponível e funcionando bem.
source /home/stack/destackovsrc-Pcrf nova list --fields name,host,status | grep cm | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 | cm_0_170d9c14-0221-4609-87e3-d752e636f57f| destackovs-compute-2 | ERROR|
3. Faça login no ESC Primary como um usuário administrador e verifique o estado de uma instância no opdata.
echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine | tab" | /opt/cisco/esc/confd/bin/confd_cli -u admin –C | grep cm cm_0_170d9c14-0221-4609-87e3-d752e636f57f VM_ERROR_STATE
4. Redefina o estado da instância para forçar a instância de volta para um estado ATIVE em vez de um estado de erro. Depois de concluído, reinicie a instância.
source /home/stack/destackovsrc-Pcrf nova reset-state –active cm_0_170d9c14-0221-4609-87e3-d752e636f57f nova reboot –-hard cm_0_170d9c14-0221-4609-87e3-d752e636f57f
5. Aguarde cinco minutos para que a instância seja inicializada e chegue a um estado ATIVE.
source /home/stack/destackovsrc-Pcrf nova list –fields name,status | grep cm | c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 |cm_0_170d9c14-0221-4609-87e3-d752e636f57f| ACTIVE |
6. Se o Cluster Manager alterar o estado para ATIVE após a reinicialização, ative o VM Monitor em ESC.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR
cm_0_170d9c14-0221-4609-87e3-d752e636f57f
7. Após a recuperação para o estado EM EXECUÇÃO/ATIVO, consulte o procedimento específico do tipo de instância para recuperar a configuração/os dados do backup.