De documentatie van dit product is waar mogelijk geschreven met inclusief taalgebruik. Inclusief taalgebruik wordt in deze documentatie gedefinieerd als taal die geen discriminatie op basis van leeftijd, handicap, gender, etniciteit, seksuele oriëntatie, sociaaleconomische status of combinaties hiervan weerspiegelt. In deze documentatie kunnen uitzonderingen voorkomen vanwege bewoordingen die in de gebruikersinterfaces van de productsoftware zijn gecodeerd, die op het taalgebruik in de RFP-documentatie zijn gebaseerd of die worden gebruikt in een product van een externe partij waarnaar wordt verwezen. Lees meer over hoe Cisco gebruikmaakt van inclusief taalgebruik.
Cisco heeft dit document vertaald via een combinatie van machine- en menselijke technologie om onze gebruikers wereldwijd ondersteuningscontent te bieden in hun eigen taal. Houd er rekening mee dat zelfs de beste machinevertaling niet net zo nauwkeurig is als die van een professionele vertaler. Cisco Systems, Inc. is niet aansprakelijk voor de nauwkeurigheid van deze vertalingen en raadt aan altijd het oorspronkelijke Engelstalige document (link) te raadplegen.
In dit document worden de stappen beschreven die nodig zijn om een defecte Objectopslagschijf (OSD) te vervangen - Computing Server in een Ultra-M instelling.
Deze procedure is van toepassing voor een OpenStack-omgeving met NEWTON-versie waarbij ESC geen CPAR beheert en CPAR rechtstreeks op de Virtual Machine (VM) wordt geïnstalleerd die op OpenStack wordt geïnstalleerd.
Ultra-M is een vooraf verpakte en gevalideerde gevirtualiseerde mobiele pakketoplossing die is ontworpen om de plaatsing van VNFs te vereenvoudigen. OpenStack is de Virtual Infrastructure Manager (VIM) voor Ultra-M en bestaat uit deze knooptypes:
De hoge architectuur van Ultra-M en de betrokken onderdelen zijn in deze afbeelding weergegeven:
Opmerking: De Ultra M 5.1.x release wordt overwogen om de procedures in dit document te definiëren.
MoP | Procedure |
OSD | Objectopslaglocaties |
OSPF | OpenStack platform Director |
HDD | Station vaste schijf |
SSD | Solid State Drive |
VIM | Virtual-infrastructuurbeheer |
VM | Virtuele machine |
EM | Element Manager |
UAS | Ultra Automation Services |
UUID | Universele unieke ID-versterker |
back-up
Voordat u een computing-knooppunt vervangt, is het belangrijk om de huidige status van uw Red Hat OpenStack Platform-omgeving te controleren. Aanbevolen wordt om de huidige status te controleren om complicaties te voorkomen wanneer het computing-vervangingsproces is ingeschakeld. Deze stroom van vervanging kan worden bereikt.
In geval van herstel, adviseert Cisco om een steun van de spatie- gegevensbank te nemen met het gebruik van deze stappen:
[root@director ~]# mysqldump --opt --all-databases > /root/undercloud-all-databases.sql [root@director ~]# tar --xattrs -czf undercloud-backup-`date +%F`.tar.gz /root/undercloud-all-databases.sql /etc/my.cnf.d/server.cnf /var/lib/glance/images /srv/node /home/stack tar: Removing leading `/' from member names
Dit proces zorgt ervoor dat een knooppunt kan worden vervangen zonder dat de beschikbaarheid van een van de gevallen wordt beïnvloed.
Opmerking: Zorg ervoor dat u de snapshot van de case hebt zodat u de VM indien nodig kunt herstellen. Volg de procedure voor het nemen van een momentopname van de VM.
[stack@director ~]$ nova list --field name,host | grep osd-compute-0 | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | pod2-stack-compute-4.localdomain |
Opmerking: In de hier weergegeven output komt de eerste kolom overeen met de universeel-unieke IDentifier (UUID), de tweede kolom is de VM naam en de derde kolom is de hostname waar de VM aanwezig is. De parameters uit deze uitvoer worden in de volgende secties gebruikt.
Stap 1. Open een Secure Shell (SSH)-client die is aangesloten op het netwerk en sluit een verbinding aan met de CPAR-instantie.
Het is belangrijk niet alle 4 AAA-gevallen tegelijkertijd binnen één site te sluiten, maar het één voor één te doen.
Stap 2. Start de CPAR-toepassing om het volgende te sluiten:
/opt/CSCOar/bin/arserver stop
Een bericht "sluitingen van Cisco Prime Access Registrar Server Agent". moet opdagen.
Opmerking: Als een gebruiker een CLI-sessie (Opdracht Line Interface) open heeft gelaten, werkt de opdracht Landstop niet en wordt dit bericht weergegeven.
ERROR: You cannot shut down Cisco Prime Access Registrar while the CLI is being used. Current list of running CLI with process id is: 2903 /opt/CSCOar/bin/aregcmd –s
In dit voorbeeld moet het gemarkeerde proces id 2903 worden beëindigd voordat CPAR kan worden gestopt. Als dit probleem zich voordoet, voert u de opdracht uit om dit proces te beëindigen:
kill -9 *process_id*
Herhaal stap 1.
Stap 3. Om te verifiëren dat de CPAR-toepassing inderdaad werd afgesloten, voert u de opdracht uit:
/opt/CSCOar/bin/arstatus
Deze berichten moeten verschijnen:
Cisco Prime Access Registrar Server Agent not running Cisco Prime Access Registrar GUI not running
Stap 1. Voer de website van de Horizon GUI in die correspondeert met de site (Stad) waaraan momenteel wordt gewerkt.
Bij toegang tot Horizon is het waargenomen scherm zoals getoond in deze afbeelding.
Stap 2. Navigeer naar Project > Instellingen zoals in deze afbeelding.
Als de gebruikte gebruiker CPAR was, verschijnen alleen de 4 AAA-instellingen in dit menu.
Stap 3. Sluit slechts één exemplaar tegelijk en herhaal het gehele proces in dit document. Om de VM uit te schakelen, navigeer naar Acties > Instantie uitschakelen zoals in de afbeelding wordt getoond en bevestig uw selectie.
Stap 4. Bevestig dat de instantie inderdaad was uitgeschakeld door de Status = Shutoff en Power State = Afsluiten zoals in deze afbeelding.
Deze stap beëindigt het CPAR sluitingsproces.
Zodra de CPAR-VM's zijn gezakt, kunnen de momentopnamen parallel worden genomen, aangezien ze tot onafhankelijke computers behoren.
De vier QCOW2-bestanden worden parallel aangemaakt.
Neem een momentopname van elk AAA-exemplaar. (25 minuten -1 uur) (25 minuten voor gevallen waarin een koeienafbeelding als bron werd gebruikt en 1 uur voor gevallen waarin een rauwe afbeelding als bron werd gebruikt)
3. Klik op Snapshot maken om door te gaan met het maken van een snapshot (dit moet worden uitgevoerd op de corresponderende AAA-instantie) zoals in deze afbeelding.
4. Zodra de snapshot is uitgevoerd, klikt u op Afbeeldingen en vervolgens controleert u of alle onderdelen zijn afgewerkt en of er geen problemen zijn zoals in deze afbeelding.
5. De volgende stap is het downloaden van de momentopname op een QCOW2-formaat en het overdragen naar een externe entiteit, indien de OspD tijdens dit proces verloren gaat. Om dit te bereiken, moet u de snapshot identificeren door de gezagslijst van het commando op niveau van de OspD te gebruiken.
[root@elospd01 stack]# glance image-list +--------------------------------------+---------------------------+ | ID | Name | +--------------------------------------+---------------------------+ | 80f083cb-66f9-4fcf-8b8a-7d8965e47b1d | AAA-Temporary | | 22f8536b-3f3c-4bcc-ae1a-8f2ab0d8b950 | ELP1 cluman 10_09_2017 | | 70ef5911-208e-4cac-93e2-6fe9033db560 | ELP2 cluman 10_09_2017 | | e0b57fc9-e5c3-4b51-8b94-56cbccdf5401 | ESC-image | | 92dfe18c-df35-4aa9-8c52-9c663d3f839b | lgnaaa01-sept102017 | | 1461226b-4362-428b-bc90-0a98cbf33500 | tmobile-pcrf-13.1.1.iso | | 98275e15-37cf-4681-9bcc-d6ba18947d7b | tmobile-pcrf-13.1.1.qcow2 | +--------------------------------------+---------------------------+
6. Zodra u de te downloaden snapshot hebt (de foto die groen is gemarkeerd), kunt u deze downloaden op een QCOW2-formaat met de opdracht Afbeelding-download zoals weergegeven.
[root@elospd01 stack]# glance image-download 92dfe18c-df35-4aa9-8c52-9c663d3f839b --file /tmp/AAA-CPAR-LGNoct192017.qcow2 &
7. Zodra het downloadproces is voltooid, moet een compressieproces worden uitgevoerd, aangezien deze snapshot kan worden gevuld met ZEROES vanwege processen, taken en tijdelijke bestanden die door het besturingssysteem worden verwerkt. De opdracht die gebruikt moet worden voor het comprimeren van bestanden is ondoorzichtig.
[root@elospd01 stack]# virt-sparsify AAA-CPAR-LGNoct192017.qcow2 AAA-CPAR-LGNoct192017_compressed.qcow2
Dit proces kan enige tijd in beslag nemen (van ongeveer 10 tot 15 minuten). Als dit eenmaal is voltooid, is het resulterende bestand het bestand dat naar een externe entiteit moet worden overgedragen zoals in de volgende stap is gespecificeerd.
Om dit te bereiken, moet u de volgende opdracht uitvoeren en naar de eigenschap "corrupt" zoeken aan het einde van de uitvoer.
[root@wsospd01 tmp]# qemu-img info AAA-CPAR-LGNoct192017_compressed.qcow2 image: AAA-CPAR-LGNoct192017_compressed.qcow2 file format: qcow2 virtual size: 150G (161061273600 bytes) disk size: 18G cluster_size: 65536 Format specific information: compat: 1.1 lazy refcounts: false refcount bits: 16 corrupt: false
[stack@director ~]$ nova list --field name,host | grep osd-compute-0 | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | pod2-stack-compute-4.localdomain |
Opmerking: In de hier weergegeven output komt de eerste kolom overeen met de universeel-unieke IDentifier (UUID), de tweede kolom is de VM naam en de derde kolom is de hostname waar de VM aanwezig is. De parameters uit deze uitvoer worden in de volgende secties gebruikt.
[heat-admin@pod2-stack-osd-compute-0 ~]$ sudo ceph df GLOBAL: SIZE AVAIL RAW USED %RAW USED 13393G 11088G 2305G 17.21 POOLS: NAME ID USED %USED MAX AVAIL OBJECTS rbd 0 0 0 3635G 0 metrics 1 3452M 0.09 3635G 219421 images 2 138G 3.67 3635G 43127 backups 3 0 0 3635G 0 volumes 4 139G 3.70 3635G 36581 vms 5 490G 11.89 3635G 126247
[heat-admin@pod2-stack-osd-compute-0 ~]$ sudo ceph osd tree ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY -1 13.07996 root default -2 4.35999 host pod2-stack-osd-compute-0 0 1.09000 osd.0 up 1.00000 1.00000 3 1.09000 osd.3 up 1.00000 1.00000 6 1.09000 osd.6 up 1.00000 1.00000 9 1.09000 osd.9 up 1.00000 1.00000 -3 4.35999 host pod2-stack-osd-compute-1 1 1.09000 osd.1 up 1.00000 1.00000 4 1.09000 osd.4 up 1.00000 1.00000 7 1.09000 osd.7 up 1.00000 1.00000 10 1.09000 osd.10 up 1.00000 1.00000 -4 4.35999 host pod2-stack-osd-compute-2 2 1.09000 osd.2 up 1.00000 1.00000 5 1.09000 osd.5 up 1.00000 1.00000 8 1.09000 osd.8 up 1.00000 1.00000 11 1.09000 osd.11 up 1.00000 1.00000
[heat-admin@pod2-stack-osd-compute-0 ~]$ systemctl list-units *ceph* UNIT LOAD ACTIVE SUB DESCRIPTION var-lib-ceph-osd-ceph\x2d0.mount loaded active mounted /var/lib/ceph/osd/ceph-0 var-lib-ceph-osd-ceph\x2d3.mount loaded active mounted /var/lib/ceph/osd/ceph-3 var-lib-ceph-osd-ceph\x2d6.mount loaded active mounted /var/lib/ceph/osd/ceph-6 var-lib-ceph-osd-ceph\x2d9.mount loaded active mounted /var/lib/ceph/osd/ceph-9 ceph-osd@0.service loaded active running Ceph object storage daemon ceph-osd@3.service loaded active running Ceph object storage daemon ceph-osd@6.service loaded active running Ceph object storage daemon ceph-osd@9.service loaded active running Ceph object storage daemon system-ceph\x2ddisk.slice loaded active active system-ceph\x2ddisk.slice system-ceph\x2dosd.slice loaded active active system-ceph\x2dosd.slice ceph-mon.target loaded active active ceph target allowing to start/stop all ceph-mon@.service instances at once ceph-osd.target loaded active active ceph target allowing to start/stop all ceph-osd@.service instances at once ceph-radosgw.target loaded active active ceph target allowing to start/stop all ceph-radosgw@.service instances at once ceph.target loaded active active ceph target allowing to start/stop all ceph*@.service instances at once LOAD = Reflects whether the unit definition was properly loaded. ACTIVE = The high-level unit activation state, i.e. generalization of SUB. SUB = The low-level unit activation state, values depend on unit type.
14 loaded units listed. Pass --all to see loaded but inactive units, too. To show all installed unit files use 'systemctl list-unit-files'.
[heat-admin@pod2-stack-osd-compute-0 ~]# systemctl disable ceph-osd@0 [heat-admin@pod2-stack-osd-compute-0 ~]# systemctl stop ceph-osd@0 [heat-admin@pod2-stack-osd-compute-0 ~]# ceph osd out 0
[heat-admin@pod2-stack-osd-compute-0 ~]# ceph osd crush remove osd.0
[heat-admin@pod2-stack-osd-compute-0 ~]# ceph auth del osd.0
[heat-admin@pod2-stack-osd-compute-0 ~]# ceph osd rm 0
[heat-admin@pod2-stack-osd-compute-0 ~]# umount /var/lib/ceph.osd/ceph-0 [heat-admin@pod2-stack-osd-compute-0 ~]# rm -rf /var/lib/ceph.osd/ceph-0
Of,
[heat-admin@pod2-stack-osd-compute-0 ~]$ sudo ls /var/lib/ceph/osd ceph-0 ceph-3 ceph-6 ceph-9
[heat-admin@pod2-stack-osd-compute-0 ~]$ /bin/sh clean.sh [heat-admin@pod2-stack-osd-compute-0 ~]$ cat clean.sh
#!/bin/sh set -x CEPH=`sudo ls /var/lib/ceph/osd` for c in $CEPH do i=`echo $c |cut -d'-' -f2` sudo systemctl disable ceph-osd@$i || (echo "error rc:$?"; exit 1) sleep 2 sudo systemctl stop ceph-osd@$i || (echo "error rc:$?"; exit 1) sleep 2 sudo ceph osd out $i || (echo "error rc:$?"; exit 1) sleep 2 sudo ceph osd crush remove osd.$i || (echo "error rc:$?"; exit 1) sleep 2 sudo ceph auth del osd.$i || (echo "error rc:$?"; exit 1) sleep 2 sudo ceph osd rm $i || (echo "error rc:$?"; exit 1) sleep 2 sudo umount /var/lib/ceph/osd/$c || (echo "error rc:$?"; exit 1) sleep 2 sudo rm -rf /var/lib/ceph/osd/$c || (echo "error rc:$?"; exit 1) sleep 2 done sudo ceph osd tree
Nadat alle OSD-processen zijn gemigreerd/verwijderd, kan het knooppunt uit de overcloud worden verwijderd.
Opmerking: Wanneer de CEPH wordt verwijderd, gaat VNF HD RAID zich in een gedegradeerde staat bevinden, maar de HD-disk moet nog toegankelijk zijn.
GainMaker-voeding
[stack@director ~]$ nova stop aaa2-21 Request to stop server aaa2-21 has been accepted. [stack@director ~]$ nova list +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+ | ID | Name | Status | Task State | Power State | Networks | +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+ | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | ACTIVE | - | Running | tb1-mgmt=172.16.181.14, 10.225.247.233; radius-routable1=10.160.132.245; diameter-routable1=10.160.132.231 | | 3bc14173-876b-4d56-88e7-b890d67a4122 | aaa2-21 | SHUTOFF | - | Shutdown | diameter-routable1=10.160.132.230; radius-routable1=10.160.132.248; tb1-mgmt=172.16.181.7, 10.225.247.234 | | f404f6ad-34c8-4a5f-a757-14c8ed7fa30e | aaa21june | ACTIVE | - | Running | diameter-routable1=10.160.132.233; radius-routable1=10.160.132.244; tb1-mgmt=172.16.181.10 | +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+
De in dit deel genoemde stappen zijn gebruikelijk ongeacht de VM's die in het computerknooppunt worden georganiseerd.
Verwijdert OSD-computing knooppunt in de servicelijst.
[stack@director ~]$ openstack compute service list |grep osd-compute | 135 | nova-compute | pod2-stack-osd-compute-1.localdomain | AZ-esc2 | enabled | up | 2018-06-22T11:05:22.000000 | | 150 | nova-compute | pod2-stack-osd-compute-2.localdomain | nova | enabled | up | 2018-06-22T11:05:17.000000 | | 153 | nova-compute | pod2-stack-osd-compute-0.localdomain | AZ-esc1 | enabled | up | 2018-06-22T11:05:25.000000 |
[stack@director ~]$ openstack compute service delete 150
Neutron agentia verwijderen
[stack@director ~]$ openstack network agent list | grep osd-compute-0 | eaecff95-b163-4cde-a99d-90bd26682b22 | Open vSwitch agent | pod2-stack-osd-compute-0.localdomain | None | True | UP | neutron-openvswitch-agent |
[stack@director ~]$ openstack network agent delete eaecff95-b163-4cde-a99d-90bd26682b22
Verwijderen uit ironische database
[root@director ~]# nova list | grep osd-compute-0 | 6810c884-1cb9-4321-9a07-192443920f1f | pod2-stack-osd-compute-0 | ACTIVE | - | Running | ctlplane=192.200.0.109 | [root@al03-pod2-ospd ~]$ nova delete 6810c884-1cb9-4321-9a07-192443920f1f
[root@director ~]# source stackrc [root@director ~]# nova show pod2-stack-osd-compute-0 | grep hypervisor | OS-EXT-SRV-ATTR:hypervisor_hostname | 05ceb513-e159-417d-a6d6-cbbcc4b167d7
[stack@director ~]$ ironic node-delete 05ceb513-e159-417d-a6d6-cbbcc4b167d7 [stack@director ~]$ ironic node-list
Knooppunt verwijderd moet niet nu in de ironische lijst van knooppunten worden opgenomen.
Verwijderen uit Overcloud
openstack overcloud node delete --templates -e /usr/share/openstack-tripleo-heat-templates/environments/puppet-pacemaker.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/network-isolation.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/storage-environment.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/neutron-sriov.yaml -e /home/stack/custom-templates/network.yaml -e /home/stack/custom-templates/ceph.yaml -e /home/stack/custom-templates/compute.yaml -e /home/stack/custom-templates/layout.yaml -e /home/stack/custom-templates/layout.yaml --stack <stack-name> <UUID>
[stack@director ~]$ source stackrc [stack@director ~]$ /bin/sh delete_node.sh + openstack overcloud node delete --templates -e /usr/share/openstack-tripleo-heat-templates/environments/puppet-pacemaker.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/network-isolation.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/storage-environment.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/neutron-sriov.yaml -e /home/stack/custom-templates/network.yaml -e /home/stack/custom-templates/ceph.yaml -e /home/stack/custom-templates/compute.yaml -e /home/stack/custom-templates/layout.yaml -e /home/stack/custom-templates/layout.yaml --stack pod2-stack 7439ea6c-3a88-47c2-9ff5-0a4f24647444 Deleting the following nodes from stack pod2-stack: - 7439ea6c-3a88-47c2-9ff5-0a4f24647444 Started Mistral Workflow. Execution ID: 4ab4508a-c1d5-4e48-9b95-ad9a5baa20ae real 0m52.078s user 0m0.383s sys 0m0.086s
[stack@director ~]$ openstack stack list +--------------------------------------+------------+-----------------+----------------------+----------------------+ | ID | Stack Name | Stack Status | Creation Time | Updated Time | +--------------------------------------+------------+-----------------+----------------------+----------------------+ | 5df68458-095d-43bd-a8c4-033e68ba79a0 | pod2-stack | UPDATE_COMPLETE | 2018-05-08T21:30:06Z | 2018-05-08T20:42:48Z | +--------------------------------------+------------+-----------------+----------------------+----------------------+
Nieuw computingsknooppunt installeren
Cisco UCS C240 M4-serverinstallatie en -servicegids
Cisco UCS C-Series upgrade-handleiding voor rackservers
Navigeer naar Storage > Cisco 12G SAS modulaire controller (SLOT-HBA) > Physical Drive-informatie zoals in deze afbeelding getoond.
Navigeren in naar opslag > Cisco 12G SAS modulaire controller (SLOT-HBA) > Controller informatie > Virtual Drive maken van ongebruikte fysieke stuurprogramma's zoals in deze afbeelding wordt getoond.
Navigeer naar Admin > Communicatieservices > Communicatieservices zoals in de afbeelding.
Navigeren in computing > configuratiescherm > Geavanceerd > processorconfiguratie zoals in de afbeelding.
JOURNAL > From physical drive number 3 OSD1 > From physical drive number 7 OSD2 > From physical drive number 8 OSD3 > From physical drive number 9 OSD4 > From physical drive number 10
Opmerking: Het beeld dat hier wordt getoond en de configuratiestappen die in dit gedeelte worden beschreven, zijn gebaseerd op versie 3.0(3e) van de firmware en er kunnen kleine variaties zijn als u aan andere versies werkt.
Voeg nieuw OSD-computing knooppunt aan overcloud toe
De in dit deel genoemde stappen zijn gebruikelijk ongeacht de VM die door het computerknooppunt wordt georganiseerd.
Maak een add_knooppunt.json-bestand met alleen de details van de toe te voegen nieuwe computerserver. Zorg ervoor dat het indexnummer voor de nieuwe computerserver nog niet eerder is gebruikt. Meestal, verhoog de volgende hoogste berekende waarde.
Voorbeeld: Highest eerdere was osd-berekend-17 en creëerde daarom osd-computer-18 in het geval van 2-vnf-systeem.
Opmerking: Let op de notatie.
[stack@director ~]$ cat add_node.json { "nodes":[ { "mac":[ "<MAC_ADDRESS>" ], "capabilities": "node:osd-compute-3,boot_option:local", "cpu":"24", "memory":"256000", "disk":"3000", "arch":"x86_64", "pm_type":"pxe_ipmitool", "pm_user":"admin", "pm_password":"<PASSWORD>", "pm_addr":"192.100.0.5" } ] }
[stack@director ~]$ openstack baremetal import --json add_node.json Started Mistral Workflow. Execution ID: 78f3b22c-5c11-4d08-a00f-8553b09f497d Successfully registered node UUID 7eddfa87-6ae6-4308-b1d2-78c98689a56e Started Mistral Workflow. Execution ID: 33a68c16-c6fd-4f2a-9df9-926545f2127e Successfully set all nodes to available.
[stack@director ~]$ openstack baremetal node manage 7eddfa87-6ae6-4308-b1d2-78c98689a56e [stack@director ~]$ ironic node-list |grep 7eddfa87 | 7eddfa87-6ae6-4308-b1d2-78c98689a56e | None | None | power off | manageable | False | [stack@director ~]$ openstack overcloud node introspect 7eddfa87-6ae6-4308-b1d2-78c98689a56e --provide Started Mistral Workflow. Execution ID: e320298a-6562-42e3-8ba6-5ce6d8524e5c Waiting for introspection to finish... Successfully introspected all nodes. Introspection completed. Started Mistral Workflow. Execution ID: c4a90d7b-ebf2-4fcb-96bf-e3168aa69dc9 Successfully set all nodes to available. [stack@director ~]$ ironic node-list |grep available | 7eddfa87-6ae6-4308-b1d2-78c98689a56e | None | None | power off | available | False |
Niet-computingIP’s:
internal_api: - 11.120.0.43 - 11.120.0.44 - 11.120.0.45 - 11.120.0.43 <<< take osd-compute-0 .43 and add here tenant: - 11.117.0.43 - 11.117.0.44 - 11.117.0.45 - 11.117.0.43 << and here storage: - 11.118.0.43 - 11.118.0.44 - 11.118.0.45 - 11.118.0.43 << and here storage_mgmt: - 11.119.0.43 - 11.119.0.44 - 11.119.0.45 - 11.119.0.43 << and here
[stack@director ~]$ ./deploy.sh ++ openstack overcloud deploy --templates -r /home/stack/custom-templates/custom-roles.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/puppet-pacemaker.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/network-isolation.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/storage-environment.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/neutron-sriov.yaml -e /home/stack/custom-templates/network.yaml -e /home/stack/custom-templates/ceph.yaml -e /home/stack/custom-templates/compute.yaml -e /home/stack/custom-templates/layout.yaml --stack ADN-ultram --debug --log-file overcloudDeploy_11_06_17__16_39_26.log --ntp-server 172.24.167.109 --neutron-flat-networks phys_pcie1_0,phys_pcie1_1,phys_pcie4_0,phys_pcie4_1 --neutron-network-vlan-ranges datacentre:1001:1050 --neutron-disable-tunneling --verbose --timeout 180 … Starting new HTTP connection (1): 192.200.0.1 "POST /v2/action_executions HTTP/1.1" 201 1695 HTTP POST http://192.200.0.1:8989/v2/action_executions 201 Overcloud Endpoint: http://10.1.2.5:5000/v2.0 Overcloud Deployed clean_up DeployOvercloud: END return value: 0 real 38m38.971s user 0m3.605s sys 0m0.466s
[stack@director ~]$ openstack stack list +--------------------------------------+------------+-----------------+----------------------+----------------------+ | ID | Stack Name | Stack Status | Creation Time | Updated Time | +--------------------------------------+------------+-----------------+----------------------+----------------------+ | 5df68458-095d-43bd-a8c4-033e68ba79a0 | ADN-ultram | UPDATE_COMPLETE | 2017-11-02T21:30:06Z | 2017-11-06T21:40:58Z | +--------------------------------------+------------+-----------------+----------------------+----------------------+
[stack@director ~]$ source stackrc [stack@director ~]$ nova list |grep osd-compute-3 | 0f2d88cd-d2b9-4f28-b2ca-13e305ad49ea | pod1-osd-compute-3 | ACTIVE | - | Running | ctlplane=192.200.0.117 | [stack@director ~]$ source corerc [stack@director ~]$ openstack hypervisor list |grep osd-compute-3 | 63 | pod1-osd-compute-3.localdomain |
[heat-admin@pod1-osd-compute-3 ~]$ sudo ceph -s cluster eb2bb192-b1c9-11e6-9205-525400330666 health HEALTH_WARN 223 pgs backfill_wait 4 pgs backfilling 41 pgs degraded 227 pgs stuck unclean 41 pgs undersized recovery 45229/1300136 objects degraded (3.479%) recovery 525016/1300136 objects misplaced (40.382%) monmap e1: 3 mons at {Pod1-controller-0=11.118.0.40:6789/0,Pod1-controller-1=11.118.0.41:6789/0,Pod1-controller-2=11.118.0.42:6789/0} election epoch 58, quorum 0,1,2 Pod1-controller-0,Pod1-controller-1,Pod1-controller-2 osdmap e986: 12 osds: 12 up, 12 in; 225 remapped pgs flags sortbitwise,require_jewel_osds pgmap v781746: 704 pgs, 6 pools, 533 GB data, 344 kobjects 1553 GB used, 11840 GB / 13393 GB avail 45229/1300136 objects degraded (3.479%) 525016/1300136 objects misplaced (40.382%) 477 active+clean 186 active+remapped+wait_backfill 37 active+undersized+degraded+remapped+wait_backfill 4 active+undersized+degraded+remapped+backfilling
[heat-admin@pod1-osd-compute-3 ~]$ sudo ceph -s
cluster eb2bb192-b1c9-11e6-9205-525400330666 health HEALTH_OK monmap e1: 3 mons at {Pod1-controller-0=11.118.0.40:6789/0,Pod1-controller-1=11.118.0.41:6789/0,Pod1-controller-2=11.118.0.42:6789/0} election epoch 58, quorum 0,1,2 Pod1-controller-0,Pod1-controller-1,Pod1-controller-2 osdmap e1398: 12 osds: 12 up, 12 in flags sortbitwise,require_jewel_osds pgmap v784311: 704 pgs, 6 pools, 533 GB data, 344 kobjects 1599 GB used, 11793 GB / 13393 GB avail 704 active+clean client io 8168 kB/s wr, 0 op/s rd, 32 op/s wr [heat-admin@pod1-osd-compute-3 ~]$ sudo ceph osd tree ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY -1 13.07996 root default -2 0 host pod1-osd-compute-0 -3 4.35999 host pod1-osd-compute-2 1 1.09000 osd.1 up 1.00000 1.00000 4 1.09000 osd.4 up 1.00000 1.00000 7 1.09000 osd.7 up 1.00000 1.00000 10 1.09000 osd.10 up 1.00000 1.00000 -4 4.35999 host pod1-osd-compute-1 2 1.09000 osd.2 up 1.00000 1.00000 5 1.09000 osd.5 up 1.00000 1.00000 8 1.09000 osd.8 up 1.00000 1.00000 11 1.09000 osd.11 up 1.00000 1.00000 -5 4.35999 host pod1-osd-compute-3 0 1.09000 osd.0 up 1.00000 1.00000 3 1.09000 osd.3 up 1.00000 1.00000 6 1.09000 osd.6 up 1.00000 1.00000 9 1.09000 osd.9 up 1.00000 1.00000
Het is mogelijk de vorige instantie opnieuw in te zetten met de momentopname die in eerdere stappen is genomen.
Stap 1. (Optioneel) Als er geen vorige VM-snapshot beschikbaar is, sluit u de OSP-knooppunt aan waar de back-up is verzonden en SFTP de back-up terug naar het oorspronkelijke OSP-knooppunt. Het gebruiken van sftp root@x.x.x.xWhere x.x.x.x is het IP van een origineel spatie. Sla het snapshot-bestand in de /tmp-map op.
Stap 2. Sluit aan op het OSPD-knooppunt waar de instantie wordt hergebruikt.
Bron de omgevingsvariabelen met deze opdracht:
# source /home/stack/pod1-stackrc-Core-CPAR
Stap 3. Om de momentopname als afbeelding te gebruiken, moet deze als zodanig worden geüpload. Start de volgende opdracht om dit te doen.
#glance image-create -- AAA-CPAR-Date-snapshot.qcow2 --container-format bare --disk-format qcow2 --name AAA-CPAR-Date-snapshot
Het proces kan binnen de horizon worden gezien, zoals in deze afbeelding wordt getoond.
Stap 4. In Horizon kunt u navigeren naar Project > Afstanden en op Lauch Instance klikken zoals in deze afbeelding.
Stap 5. Voer de naam van de instantie in en kies de zone van de beschikbaarheid zoals in deze afbeelding.
Stap 6. Kies in het tabblad Bron de afbeelding om de instantie te maken. In het menu Opstartbron selecteren, selecteert u afbeelding, wordt een lijst met afbeeldingen weergegeven, kiest u de afbeeldingen die eerder zijn geüpload door op het +-teken te klikken en zoals in deze afbeelding te tonen.
Stap 7. Kies op het tabblad Smaak de AAA-smaak door op het +-teken te klikken zoals in deze afbeelding.
Stap 8. Klik tot slot op het tabblad Network en kies de netwerken die de instantie nodig heeft door op het +-teken te klikken. Selecteer in dit geval de optie diameter-soutable1, Straal-routeerbaar1 en tb1-mt zoals in deze afbeelding.
Stap 9. Klik tot slot op Instantie starten om deze te maken. De voortgang kan in Horizon worden gevolgd, zoals in deze afbeelding wordt getoond.
Na een paar minuten wordt de instantie volledig geïnstalleerd en klaar voor gebruik.
Een drijvend IP-adres is een routeerbaar adres, wat betekent dat het bereikbaar is vanaf de buitenkant van de Ultra M/OpenStack-architectuur en het kan communiceren met andere knooppunten van het netwerk.
Stap 1. Klik in het bovenste menu Horizon op Admin > Zwevende IP's.
Stap 2. Klik op IP toewijzen aan project.
Stap 3. In het IP-venster Toewijzen, selecteer de pool waaruit de nieuwe zwevende IP afkomstig is, het project waar het zal worden toegewezen en het nieuwe zwevende IP-adres zelf.
Bijvoorbeeld:
Stap 4. Klik op toewijzen zwevende IP.
Stap 5. Ga in het bovenste menu Horizon naar Project > Afstanden.
Stap 6. In de kolom Actie klikt u op het pijltje dat in de knop Snapshot maken wijst, moet er een menu worden weergegeven. Selecteer de optie Associate Floating IP.
Stap 7. Selecteer het corresponderende zwevende IP-adres dat bedoeld is om in het veld IP-adres te worden gebruikt, en kies de corresponderende beheerinterface (eth0) van het nieuwe geval waarin deze zwevende IP in de poort zal worden toegewezen die moet worden gekoppeld. Raadpleeg de volgende afbeelding als voorbeeld van deze procedure.
Stap 8. Klik tot slot op Associeren.
Stap 1. Ga in het bovenste menu Horizon naar Project > Afstanden.
Stap 2. Klik op de naam van de instantie/VM die in sectie Lunch a New Instance is gemaakt.
Stap 3. Klik op console. Dit zal de CLI van de VM weergeven.
Stap 4. Zodra de CLI is weergegeven, voert u de juiste inlogaanmeldingsgegevens in:
Username: wortel
Wachtwoord: Cisco cisco123 zoals in deze afbeelding.
Stap 5. In de CLI, voer de opdracht vi/etc/ssh/sshd_fig uit om de configuratie van de SSH te bewerken.
Stap 6. Zodra het SSH-configuratiebestand is geopend, drukt u op I om het bestand te kunnen bewerken. Kijk vervolgens naar het gedeelte dat hier wordt weergegeven en verander de eerste regel van PasswordAuthentication no in Password-Authentication.
Stap 7. Druk op ESC en voer :wq in! om de wijzigingen in sshd_fig te bewaren.
Stap 8. Start de opdrachtservice opnieuw.
Stap 9. Om de wijzigingen in de SSH-configuratie op de juiste wijze te kunnen testen, opent u een SSH-client en probeert u een beveiligde verbinding op afstand te maken met behulp van de zwevende IP die aan de instantie is toegewezen (d.w.z. 10.145.0.249) en de gebruikerswortel.
Stap 1. Open een SSH-sessie met het IP-adres van de corresponderende VM/server waarop de toepassing is geïnstalleerd zoals in deze afbeelding.
Volg deze stappen, zodra de activiteit is voltooid en de CPAR-diensten kunnen worden hersteld in de gesloten site.
Stap 1. Meld u aan bij Horizon, navigeer naar Project > Instantie > Instantie starten.
Stap 2. Controleer dat de status van de instantie actief is en dat de stroomtoestand actief is zoals in deze afbeelding.
Stap 1. Start de opdracht /optioneel/CSCOar/bin/arstatus op OS-niveau:
[root@wscaaa04 ~]# /opt/CSCOar/bin/arstatus Cisco Prime AR RADIUS server running (pid: 24834) Cisco Prime AR Server Agent running (pid: 24821) Cisco Prime AR MCD lock manager running (pid: 24824) Cisco Prime AR MCD server running (pid: 24833) Cisco Prime AR GUI running (pid: 24836) SNMP Master Agent running (pid: 24835) [root@wscaaa04 ~]#
Stap 2. Start de opdracht /opt/CSCOar/bin/aregcmd op OS-niveau en voer de admin-referenties in. Controleer dat de gezondheid van de CPA 10 van de 10 is en de CPAR CLI van de uitgang.
[root@aaa02 logs]# /opt/CSCOar/bin/aregcmd Cisco Prime Access Registrar 7.3.0.1 Configuration Utility Copyright (C) 1995-2017 by Cisco Systems, Inc. All rights reserved. Cluster: User: admin Passphrase: Logging in to localhost [ //localhost ] LicenseInfo = PAR-NG-TPS 7.2(100TPS:) PAR-ADD-TPS 7.2(2000TPS:) PAR-RDDR-TRX 7.2() PAR-HSS 7.2() Radius/ Administrators/ Server 'Radius' is Running, its health is 10 out of 10 --> exit
Stap 3. Start het opdrachtnummer | de diameter van de massa en controleer of alle DRA-verbindingen zijn aangelegd.
De hier genoemde uitvoer is bestemd voor een omgeving waarin Diameter-koppelingen worden verwacht. Als er minder links worden weergegeven, betekent dit dat de DRA wordt losgekoppeld van het geluid dat moet worden geanalyseerd.
[root@aa02 logs]# netstat | grep diameter tcp 0 0 aaa02.aaa.epc.:77 mp1.dra01.d:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:36 tsa6.dra01:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:47 mp2.dra01.d:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:07 tsa5.dra01:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:08 np2.dra01.d:diameter ESTABLISHED
Stap 4. Controleer dat het TPS-logbestand toont dat verzoeken worden verwerkt door CPAR. De gemarkeerde waarden vertegenwoordigen de TPS en dat zijn de waarden waaraan u aandacht moet besteden.
De waarde van TPS mag niet hoger zijn dan 1500.
[root@wscaaa04 ~]# tail -f /opt/CSCOar/logs/tps-11-21-2017.csv 11-21-2017,23:57:35,263,0 11-21-2017,23:57:50,237,0 11-21-2017,23:58:05,237,0 11-21-2017,23:58:20,257,0 11-21-2017,23:58:35,254,0 11-21-2017,23:58:50,248,0 11-21-2017,23:59:05,272,0 11-21-2017,23:59:20,243,0 11-21-2017,23:59:35,244,0 11-21-2017,23:59:50,233,0
Stap 5. Kijk naar "error" of "alarm" berichten in name_Straal_1_log.
[root@aaa02 logs]# grep -E "error|alarm" name_radius_1_log
Stap 6. Om de hoeveelheid geheugen te controleren die het CPAR-proces heeft gebruikt, voert u de opdracht uit:
top | grep radius
[root@sfraaa02 ~]# top | grep radius 27008 root 20 0 20.228g 2.413g 11408 S 128.3 7.7 1165:41 radius
Deze gemarkeerde waarde moet lager zijn dan 7 Gb, wat het maximum is dat op toepassingsniveau is toegestaan.