De documentatie van dit product is waar mogelijk geschreven met inclusief taalgebruik. Inclusief taalgebruik wordt in deze documentatie gedefinieerd als taal die geen discriminatie op basis van leeftijd, handicap, gender, etniciteit, seksuele oriëntatie, sociaaleconomische status of combinaties hiervan weerspiegelt. In deze documentatie kunnen uitzonderingen voorkomen vanwege bewoordingen die in de gebruikersinterfaces van de productsoftware zijn gecodeerd, die op het taalgebruik in de RFP-documentatie zijn gebaseerd of die worden gebruikt in een product van een externe partij waarnaar wordt verwezen. Lees meer over hoe Cisco gebruikmaakt van inclusief taalgebruik.
Cisco heeft dit document vertaald via een combinatie van machine- en menselijke technologie om onze gebruikers wereldwijd ondersteuningscontent te bieden in hun eigen taal. Houd er rekening mee dat zelfs de beste machinevertaling niet net zo nauwkeurig is als die van een professionele vertaler. Cisco Systems, Inc. is niet aansprakelijk voor de nauwkeurigheid van deze vertalingen en raadt aan altijd het oorspronkelijke Engelstalige document (link) te raadplegen.
Dit document beschrijft de stappen die moeten worden ondernomen om de defecte onderdelen die hier in een UCS-server (Unified Computing System) in een Ultra-M-instelling zijn genoemd te vervangen.
Deze procedure is van toepassing op een OpenStack-omgeving met behulp van NEWTON-versie waarbij ESC geen CPAR beheert en CPAR rechtstreeks op de VM wordt geïnstalleerd die op OpenStack wordt ingezet.
Ultra-M is een vooraf verpakte en gevalideerde gevirtualiseerde mobiele pakketoplossing die is ontworpen om de plaatsing van VNFs te vereenvoudigen. OpenStack is de Gevirtualiseerde Infrastructuur Manager (VIM) voor Ultra-M en bestaat uit deze knooptypen:
De hoge architectuur van Ultra-M en de betrokken onderdelen zijn in deze afbeelding weergegeven:
Dit document is bedoeld voor Cisco-personeel dat bekend is met het Cisco Ultra-M-platform en bevat informatie over de stappen die moeten worden uitgevoerd in OpenStack- en Redhat OS.
Opmerking: De Ultra M 5.1.x release wordt overwogen om de procedures in dit document te definiëren.
MoP | Procedure |
OSD | Objectopslaglocaties |
OSPF | OpenStack platform Director |
HDD | Station vaste schijf |
SSD | Solid State Drive |
VIM | Virtual-infrastructuurbeheer |
VM | Virtuele machine |
EM | Element Manager |
UAS | Ultra Automation Services |
UUID | Universele unieke identificator |
Voordat u een defect onderdeel vervangt, is het belangrijk om de huidige status van uw Rode Hat OpenStack Platform-omgeving te controleren. Aanbevolen wordt om de huidige status te controleren om complicaties te voorkomen wanneer het vervangingsproces is ingeschakeld. Deze stroom van vervanging kan worden bereikt.
In geval van herstel, adviseert Cisco om een steun van de spatie- gegevensbank te nemen met het gebruik van deze stappen:
[root@director ~]# mysqldump --opt --all-databases > /root/undercloud-all-databases.sql
[root@director ~]# tar --xattrs -czf undercloud-backup-`date +%F`.tar.gz /root/undercloud-all-databases.sql
/etc/my.cnf.d/server.cnf /var/lib/glance/images /srv/node /home/stack
tar: Removing leading `/' from member names
Dit proces zorgt ervoor dat een knooppunt kan worden vervangen zonder dat de beschikbaarheid van een van de gevallen wordt beïnvloed. Ook wordt aanbevolen een back-up te maken van de StarOS-configuratie, met name als het te vervangen computerknooppunt/OSD-computer de Control Functie (CF) virtuele machine (VM) moet vervangen.
Opmerking: Als de Server het controllerknop is, ga dan naar het vak "" en ga anders door met de volgende sectie. Zorg ervoor dat u de snapshot van de case hebt zodat u de VM indien nodig kunt herstellen. Volg de procedure voor het nemen van een momentopname van de VM.
Identificeer de VM's die op de server worden gehost.
[stack@al03-pod2-ospd ~]$ nova list --field name,host +--------------------------------------+---------------------------+----------------------------------+ | ID | Name | Host | +--------------------------------------+---------------------------+----------------------------------+ | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | pod2-stack-compute-4.localdomain | | 3bc14173-876b-4d56-88e7-b890d67a4122 | aaa2-21 | pod2-stack-compute-3.localdomain | | f404f6ad-34c8-4a5f-a757-14c8ed7fa30e | aaa21june | pod2-stack-compute-3.localdomain | +--------------------------------------+---------------------------+----------------------------------+
Opmerking: In de hier weergegeven output komt de eerste kolom overeen met de UUID, de tweede kolom is de VM naam en de derde kolom is de hostname waar de VM aanwezig is. De parameters uit deze uitvoer worden in de volgende secties gebruikt.
Back-up: SNAPSHOT-PROCES
Stap 1. Open elke SSH-client die is aangesloten op het TEM-productienetwerk en sluit deze aan op de CPAR-instantie.
Het is belangrijk niet alle 4 AAA-gevallen tegelijkertijd binnen één site te sluiten, maar het één voor één te doen.
Stap 2. Start de CPAR-toepassing om het volgende te sluiten:
/opt/CSCOar/bin/arserver stop
Een bericht "sluitingen van Cisco Prime Access Registrar Server Agent". moet komen.
Opmerking: Als een gebruiker een CLI-sessie open heeft gelaten, werkt de opdracht tussenstop niet en wordt dit bericht weergegeven:
ERROR: You cannot shut down Cisco Prime Access Registrar while the CLI is being used. Current list of running CLI with process id is: 2903 /opt/CSCOar/bin/aregcmd –s
In dit voorbeeld moet het gemarkeerde proces id 2903 worden beëindigd voordat CPAR kan worden gestopt. Als dit probleem zich voordoet, beëindigt u dit proces door de opdracht uit te voeren:
kill -9 *process_id*
Herhaal vervolgens stap 1.
Stap 3. Om te verifiëren dat de CPAR-toepassing inderdaad werd afgesloten, voert u de opdracht uit:
/opt/CSCOar/bin/arstatus
Deze berichten moeten verschijnen:
Cisco Prime Access Registrar Server Agent not running Cisco Prime Access Registrar GUI not running
Stap 1. Voer de website van de Horizon GUI in die correspondeert met de site (Stad) waaraan momenteel wordt gewerkt.
Dit scherm wordt waargenomen bij toegang tot Horizon.
Stap 2. Navigeer naar Project > Instellingen zoals in deze afbeelding.
Als de gebruikte gebruiker gelijk was, worden alleen de 4 AAA-instellingen weergegeven in dit menu.
Stap 3. Sluit slechts één exemplaar tegelijk en herhaal het gehele proces in dit document. Om VM uit te schakelen, navigeer naar Acties > instantie uit zoals in deze afbeelding wordt getoond en bevestig uw selectie.
Stap 4. Bevestig dat de instantie inderdaad was uitgeschakeld door de Status = Shutoff en Power State = Afsluiten zoals in deze afbeelding.
Deze stap beëindigt het CPAR sluitingsproces.
Zodra de CPAR-VM's zijn gezakt, kunnen de momentopnamen parallel worden genomen, aangezien ze tot onafhankelijke computers behoren.
De vier QCOW2-bestanden worden parallel aangemaakt.
Neem een momentopname van elk AAA-exemplaar (25 minuten - 1 uur) (25 minuten voor instanties die een qkoe-afbeelding als bron hebben gebruikt en 1 uur voor gevallen waarin een rauwe afbeelding als bron wordt gebruikt)
3. Klik op Snapshot maken om door te gaan met de snapshot-creatie (deze moet worden uitgevoerd op de corresponderende AAA-instantie) zoals in deze afbeelding.
4. Zodra de snapshot is uitgevoerd, navigeer dan naar het menu Afbeeldingen en controleer of alle klaar zijn en rapporteer geen problemen zoals in deze afbeelding.
5. De volgende stap is het downloaden van de momentopname op een QCOW2-formaat en het overdragen naar een externe entiteit, indien de OspD tijdens dit proces verloren gaat. Om dit te bereiken, moet u de snapshot identificeren door de gezagslijst van het commando op niveau van de OspD te gebruiken.
[root@elospd01 stack]# glance image-list +--------------------------------------+---------------------------+ | ID | Name | +--------------------------------------+---------------------------+ | 80f083cb-66f9-4fcf-8b8a-7d8965e47b1d | AAA-Temporary | | 22f8536b-3f3c-4bcc-ae1a-8f2ab0d8b950 | ELP1 cluman 10_09_2017 | | 70ef5911-208e-4cac-93e2-6fe9033db560 | ELP2 cluman 10_09_2017 | | e0b57fc9-e5c3-4b51-8b94-56cbccdf5401 | ESC-image | | 92dfe18c-df35-4aa9-8c52-9c663d3f839b | lgnaaa01-sept102017 | | 1461226b-4362-428b-bc90-0a98cbf33500 | tmobile-pcrf-13.1.1.iso | | 98275e15-37cf-4681-9bcc-d6ba18947d7b | tmobile-pcrf-13.1.1.qcow2 | +--------------------------------------+---------------------------+
6. Zodra u de te downloaden snapshot (de foto die in groen is gemarkeerd) hebt, kunt u deze downloaden op een QCOW2-indeling met de opdracht Glance Image-download zoals hier afgebeeld.
[root@elospd01 stack]# glance image-download 92dfe18c-df35-4aa9-8c52-9c663d3f839b --file /tmp/AAA-CPAR-LGNoct192017.qcow2 &
7. Zodra het downloadproces is voltooid, moet een compressieverhouding worden uitgevoerd omdat een snapshot kan worden ingevuld met ZEROES vanwege processen, taken en tijdelijke bestanden die door het besturingssysteem worden verwerkt. De opdracht die gebruikt moet worden voor het comprimeren van bestanden is ondoorzichtig.
[root@elospd01 stack]# virt-sparsify AAA-CPAR-LGNoct192017.qcow2 AAA-CPAR-LGNoct192017_compressed.qcow2
Dit proces kan enige tijd in beslag nemen (van ongeveer 10 tot 15 minuten). Als dit eenmaal is voltooid, is het resulterende bestand het bestand dat naar een externe entiteit moet worden overgedragen zoals in de volgende stap is gespecificeerd.
Om dit te bereiken, moet u de volgende opdracht uitvoeren en naar de eigenschap "corrupt" zoeken aan het einde van de uitvoer.
[root@wsospd01 tmp]# qemu-img info AAA-CPAR-LGNoct192017_compressed.qcow2 image: AAA-CPAR-LGNoct192017_compressed.qcow2 file format: qcow2 virtual size: 150G (161061273600 bytes) disk size: 18G cluster_size: 65536 Format specific information: compat: 1.1 lazy refcounts: false refcount bits: 16 corrupt: false
[stack@director ~]$ nova stop aaa2-21 Request to stop server aaa2-21 has been accepted. [stack@director ~]$ nova list +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+ | ID | Name | Status | Task State | Power State | Networks | +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+ | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | ACTIVE | - | Running | tb1-mgmt=172.16.181.14, 10.225.247.233; radius-routable1=10.160.132.245; diameter-routable1=10.160.132.231 | | 3bc14173-876b-4d56-88e7-b890d67a4122 | aaa2-21 | SHUTOFF | - | Shutdown | diameter-routable1=10.160.132.230; radius-routable1=10.160.132.248; tb1-mgmt=172.16.181.7, 10.225.247.234 | | f404f6ad-34c8-4a5f-a757-14c8ed7fa30e | aaa21june | ACTIVE | - | Running | diameter-routable1=10.160.132.233; radius-routable1=10.160.132.244; tb1-mgmt=172.16.181.10 | +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+
Schakel de opgegeven server uit. De stappen om een defecte component op UCS C240 M4 server te vervangen kunnen worden doorverwezen van:
De servercomponenten vervangen
Herstelproces
Het is mogelijk de vorige instantie opnieuw in te zetten met de momentopname die in eerdere stappen is genomen.
Stap 1. [optioneel] Als er geen vorige VMsnapshot beschikbaar is, sluit u de OSP-knooppunt aan waar de back-up is verzonden en SFTP de back-up terug naar het oorspronkelijke OSP-knooppunt. Met sftproot@x.x.x.x waar x.x.x.x het IP van een origineel OSPF is. Sla het snapshot-bestand in de /tmp-map op.
Stap 2. Neem contact op met het OSP-knooppunt, waar de instantie opnieuw kan worden geïnstalleerd zoals in de afbeelding.
Bron de omgevingsvariabelen met deze opdracht:
# source /home/stack/pod1-stackrc-Core-CPAR
Stap 3. Om de foto als afbeelding te gebruiken, moet u het als zodanig uploaden naar de horizon. Start de volgende opdracht om dit te doen.
#glance image-create -- AAA-CPAR-Date-snapshot.qcow2 --container-format bare --disk-format qcow2 --name AAA-CPAR-Date-snapshot
Het proces kan in de horizon en zoals in deze afbeelding getoond worden.
Stap 4. In Horizon kunt u navigeren naar Project > Afbeeldingen en op Begininstantie klikken zoals in deze afbeelding.
Stap 5. Voer de naam van de instantie in en kies de zone van de beschikbaarheid zoals in deze afbeelding.
Stap 6. Kies in het tabblad Bron de afbeelding om de instantie te maken. In het menu Opstartbron selecteren wordt de afbeelding weergegeven. Selecteer een lijst met afbeeldingen die eerder zijn geüpload door op het +-teken te klikken en zoals in deze afbeelding weer te geven.
Stap 7. Kies in het tabblad Smaak de AAA-afbeelding door op het +-teken te klikken zoals in deze afbeelding.
Stap 8. Klik tot slot op het tabblad Network en kies de netwerken die de instantie nodig heeft door op het +-teken te klikken. Selecteer in dit geval de optie diameter-soutable1, Straal-routeerbaar1 en tb1-mt zoals in deze afbeelding.
Klik tot slot op Instantie van de Start om het te creëren. De voortgang kan in Horizon worden gevolgd:
Na een paar minuten wordt de instantie volledig geïnstalleerd en klaar voor gebruik zoals in deze afbeelding.
Een drijvend IP-adres is een routeerbaar adres, wat betekent dat het bereikbaar is vanaf de buitenkant van de Ultra M/OpenStack-architectuur en het kan communiceren met andere knooppunten van het netwerk.
Stap 1. Klik in het bovenste menu Horizon op Admin > Zwevende IP's.
Stap 2. Klik op IP toewijzen aan project.
Stap 3. In het IP-venster Toewijzen, selecteer de pool waaruit de nieuwe zwevende IP afkomstig is, het project waar het zal worden toegewezen en het nieuwe zwevende IP-adres zelf.
Bijvoorbeeld:
Stap 4. Klik op de knop Zwevende IP toe.
Stap 5. Ga in het bovenste menu Horizon naar Project > Afstanden.
Stap 6. In de kolom Action, klik op het pijltje dat omlaag wijst in de knop Snapshot maken, verschijnt een menu. Selecteer de optie Associate Floating IP.
Stap 7. Selecteer het corresponderende zwevende IP-adres dat bedoeld is om in het veld IP-adres te worden gebruikt, en kies de corresponderende beheerinterface (eth0) van de nieuwe instantie waar deze zwevende IP in de aan te sluiten poort zal worden toegewezen. Raadpleeg de volgende afbeelding als voorbeeld van deze procedure.
Stap 8. Klik tot slot op Associeren.
Stap 1. Ga in het bovenste menu Horizon naar Project > Afstanden.
Stap 2. Klik op de naam van de instantie/VM die in sectie Start een nieuw exemplaar is gemaakt.
Stap 3. Klik op het tabblad console. Dit zal de CLI van de VM weergeven.
Stap 4. Zodra de CLI is weergegeven, voert u de juiste inlogaanmeldingsgegevens in zoals in de afbeelding:
Gebruikersnaam:root
Wachtwoord:cisco123
Stap 5. In de CLI, voer de opdracht vi/etc/ssh/sshd_fig uit om de SSH-configuratie te bewerken.
Stap 6. Zodra het SSH-configuratiebestand is geopend, drukt u op I om het bestand te bewerken. Kijk vervolgens naar het gedeelte en wijzig de eerste regel van Wachtwoordverificatie in de Wachtwoordverificatie zoals in deze afbeelding.
Stap 7. Druk op ESC en ren :wq! om bestandswijzigingen op te slaan sshd_disktotaal.
Stap 8. Start de opdrachtservice opnieuw zoals in de afbeelding.
Stap 9. Om de wijzigingen in de SSH-configuratie op de juiste wijze te kunnen testen, opent u een SSH-client en probeert u een beveiligde verbinding op afstand te maken met behulp van de zwevende IP die aan de instantie is toegewezen (d.w.z. 10.145.0.249) en de startwortel in de afbeelding.
Stap 1. Open een SSH-sessie met het IP-adres van de corresponderende VM/server waarop de toepassing is geïnstalleerd zoals in de afbeelding.
Uitgangspunt van de CPAR
Volg deze stappen, zodra de activiteit is voltooid en de CPAR-diensten kunnen worden hersteld in de gesloten site.
Stap 1. Meld u aan bij Horizon, navigeer naar Project > Instantie > Instantie starten
Stap 2. Controleer dat de status van de instantie actief is en dat de stroomtoestand actief is zoals in deze afbeelding.
9. Gezondheidscontrole na de activiteit
Stap 1. Start de opdracht /optioneel/CSCOar/bin/arstatus op OS-niveau:
[root@wscaaa04 ~]# /opt/CSCOar/bin/arstatus Cisco Prime AR RADIUS server running (pid: 24834) Cisco Prime AR Server Agent running (pid: 24821) Cisco Prime AR MCD lock manager running (pid: 24824) Cisco Prime AR MCD server running (pid: 24833) Cisco Prime AR GUI running (pid: 24836) SNMP Master Agent running (pid: 24835) [root@wscaaa04 ~]#
Stap 2. Start de opdracht /opt/CSCOar/bin/aregcmd op OS-niveau en voer de admin-referenties in. Controleer dat CPAR Health 10 van de 10 is en de exit CPAR CLI.
[root@aaa02 logs]# /opt/CSCOar/bin/aregcmd Cisco Prime Access Registrar 7.3.0.1 Configuration Utility Copyright (C) 1995-2017 by Cisco Systems, Inc. All rights reserved. Cluster: User: admin Passphrase: Logging in to localhost [ //localhost ] LicenseInfo = PAR-NG-TPS 7.2(100TPS:) PAR-ADD-TPS 7.2(2000TPS:) PAR-RDDR-TRX 7.2() PAR-HSS 7.2() Radius/ Administrators/ Server 'Radius' is Running, its health is 10 out of 10 --> exit
Stap 3. Start het opdrachtnummer | de diameter van de massa en controleer of alle DRA-verbindingen zijn aangelegd.
De hier genoemde uitvoer is bestemd voor een omgeving waarin Diameter-koppelingen worden verwacht. Als er minder links worden weergegeven, betekent dit dat de DRA wordt losgekoppeld van het geluid dat moet worden geanalyseerd.
[root@aa02 logs]# netstat | grep diameter tcp 0 0 aaa02.aaa.epc.:77 mp1.dra01.d:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:36 tsa6.dra01:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:47 mp2.dra01.d:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:07 tsa5.dra01:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:08 np2.dra01.d:diameter ESTABLISHED
Stap 4. Controleer dat het TPS-logbestand toont dat verzoeken worden verwerkt door CPAR. De gemarkeerde waarden vertegenwoordigen de TPS en dat zijn de waarden waaraan u aandacht moet besteden.
De waarde van TPS mag niet hoger zijn dan 1500.
[root@wscaaa04 ~]# tail -f /opt/CSCOar/logs/tps-11-21-2017.csv 11-21-2017,23:57:35,263,0 11-21-2017,23:57:50,237,0 11-21-2017,23:58:05,237,0 11-21-2017,23:58:20,257,0 11-21-2017,23:58:35,254,0 11-21-2017,23:58:50,248,0 11-21-2017,23:59:05,272,0 11-21-2017,23:59:20,243,0 11-21-2017,23:59:35,244,0 11-21-2017,23:59:50,233,0
Stap 5. Zoek een "fout" of "alarm" berichten in name_Straal_1_log
[root@aaa02 logs]# grep -E "error|alarm" name_radius_1_log
Stap 6. Controleer de hoeveelheid geheugen die het CPAR-proces gebruikt door de opdracht uit te voeren:
top | grep radius
[root@sfraaa02 ~]# top | grep radius 27008 root 20 0 20.228g 2.413g 11408 S 128.3 7.7 1165:41 radius
Deze gemarkeerde waarde moet lager zijn dan 7 Gb, wat het maximum is dat op toepassingsniveau is toegestaan.
Identificeer de VM's die op de OSD-Computserver worden gehost.
[stack@director ~]$ nova list --field name,host | grep osd-compute-0 | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | pod2-stack-compute-4.localdomain |
Opmerking: In de hier weergegeven output komt de eerste kolom overeen met de UUID, de tweede kolom is de VM naam en de derde kolom is de hostname waar de VM aanwezig is. De parameters uit deze uitvoer worden in de volgende secties gebruikt.
Back-up: SNAPSHOT-PROCES
Stap 1. Open elke SSH-client die is aangesloten op het TEM-productienetwerk en sluit deze aan op de CPAR-instantie.
Het is belangrijk niet alle 4 AAA-gevallen tegelijkertijd op één locatie af te sluiten, maar op één manier te doen.
Stap 2. Start de CPAR-toepassing om te stoppen:
/opt/CSCOar/bin/arserver stop
Een bericht "sluitingen van Cisco Prime Access Registrar Server Agent". moet komen.
Opmerking: Als een gebruiker een CLI-sessie open heeft gelaten, werkt de opdracht tussenstop niet en wordt dit bericht weergegeven:
ERROR: You cannot shut down Cisco Prime Access Registrar while the CLI is being used. Current list of running CLI with process id is: 2903 /opt/CSCOar/bin/aregcmd –s
In dit voorbeeld moet het gemarkeerde proces id 2903 worden beëindigd voordat CPAR kan worden gestopt. Als dit probleem zich voordoet, beëindigt u het proces door de opdracht uit te voeren:
kill -9 *process_id*
Herhaal dan de stap 1.
Stap 3. Controleer dat de CPAR-toepassing inderdaad werd afgesloten door de opdracht uit te voeren:
/opt/CSCOar/bin/arstatus
Deze berichten moeten verschijnen:
Cisco Prime Access Registrar Server Agent not running Cisco Prime Access Registrar GUI not running
Stap 1. Voer de website van de Horizon GUI in die correspondeert met de site (Stad) waaraan momenteel wordt gewerkt.
Dit scherm kan worden waargenomen bij toegang tot Horizon.
Stap 2. Navigeer naar Project > Instellingen zoals in deze afbeelding.
Als de gebruikte gebruiker CPAR was, dan kunnen alleen de 4 AAA-instanties in dit menu verschijnen.
Stap 3. Sluit slechts één exemplaar tegelijk en herhaal het gehele proces in dit document. Om de VM uit te schakelen, navigeer naar Acties > Instantie uitschakelen zoals in de afbeelding wordt getoond en bevestig uw selectie.
Stap 4. Bevestig dat de instantie inderdaad was uitgeschakeld door de Status = Shutoff en Power State = Afsluiten zoals in de afbeelding.
Deze stap beëindigt het CPAR sluitingsproces.
Zodra de CPAR-VM's zijn gezakt, kunnen de momentopnamen parallel worden genomen, aangezien ze tot onafhankelijke computers behoren.
De vier QCOW2-bestanden worden parallel aangemaakt.
Neem een momentopname van elk AAA-exemplaar. (25 minuten -1 uur) (25 minuten voor gevallen waarin een koeienafbeelding als bron werd gebruikt en 1 uur voor gevallen waarin een rauwe afbeelding als bron werd gebruikt)
3. Klik op Snapshot maken om door te gaan met het maken van een snapshot (dit moet worden uitgevoerd op de corresponderende AAA-instantie) zoals in de afbeelding.
4. Zodra de snapshot is uitgevoerd, navigeer dan naar het menu Afbeeldingen en controleer of alle klaar zijn en rapporteer geen problemen zoals die in deze afbeelding worden gezien.
5. De volgende stap is het downloaden van de momentopname op een QCOW2-formaat en het overdragen naar een externe entiteit, voor het geval dat de OSPD tijdens dit proces verloren gaat. Om dit te bereiken, moet u de snapshot identificeren door de gezagslijst van het commando op niveau van de OspD te gebruiken.
[root@elospd01 stack]# glance image-list +--------------------------------------+---------------------------+ | ID | Name | +--------------------------------------+---------------------------+ | 80f083cb-66f9-4fcf-8b8a-7d8965e47b1d | AAA-Temporary | | 22f8536b-3f3c-4bcc-ae1a-8f2ab0d8b950 | ELP1 cluman 10_09_2017 | | 70ef5911-208e-4cac-93e2-6fe9033db560 | ELP2 cluman 10_09_2017 | | e0b57fc9-e5c3-4b51-8b94-56cbccdf5401 | ESC-image | | 92dfe18c-df35-4aa9-8c52-9c663d3f839b | lgnaaa01-sept102017 | | 1461226b-4362-428b-bc90-0a98cbf33500 | tmobile-pcrf-13.1.1.iso | | 98275e15-37cf-4681-9bcc-d6ba18947d7b | tmobile-pcrf-13.1.1.qcow2 | +--------------------------------------+---------------------------+
6. Zodra u de te downloaden snapshot hebt (de foto die groen is gemarkeerd), kunt u deze downloaden op een QCOW2-formaat met de opdracht Glance Image-download zoals hier afgebeeld.
[root@elospd01 stack]# glance image-download 92dfe18c-df35-4aa9-8c52-9c663d3f839b --file /tmp/AAA-CPAR-LGNoct192017.qcow2 &
7. Zodra het downloadproces is voltooid, moet een compressieproces worden uitgevoerd, zodat snapshot kan worden ingevuld met ZEROES vanwege processen, taken en tijdelijke bestanden die door het besturingssysteem worden verwerkt. De opdracht die gebruikt moet worden voor het comprimeren van bestanden is ondoorzichtig.
[root@elospd01 stack]# virt-sparsify AAA-CPAR-LGNoct192017.qcow2 AAA-CPAR-LGNoct192017_compressed.qcow2
Dit proces kan enige tijd in beslag nemen (van ongeveer 10 tot 15 minuten). Als dit eenmaal is voltooid, is het resulterende bestand het bestand dat naar een externe entiteit moet worden overgedragen zoals in de volgende stap is gespecificeerd.
Om dit te bereiken, moet u de volgende opdracht uitvoeren en naar de eigenschap "corrupt" zoeken aan het einde van de uitvoer.
[root@wsospd01 tmp]# qemu-img info AAA-CPAR-LGNoct192017_compressed.qcow2 image: AAA-CPAR-LGNoct192017_compressed.qcow2 file format: qcow2 virtual size: 150G (161061273600 bytes) disk size: 18G cluster_size: 65536 Format specific information: compat: 1.1 lazy refcounts: false refcount bits: 16 corrupt: false
Opmerking: Als de defecte component moet worden vervangen op OSD-Computknooppunt, zet de Ceph in Onderhoud op de server voordat u doorgaat met de vervanging van de component.
[heat-admin@pod2-stack-osd-compute-0 ~]$ sudo ceph osd tree
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 13.07996 root default
-2 4.35999 host pod2-stack-osd-compute-0
0 1.09000 osd.0 up 1.00000 1.00000
3 1.09000 osd.3 up 1.00000 1.00000
6 1.09000 osd.6 up 1.00000 1.00000
9 1.09000 osd.9 up 1.00000 1.00000
-3 4.35999 host pod2-stack-osd-compute-1
1 1.09000 osd.1 up 1.00000 1.00000
4 1.09000 osd.4 up 1.00000 1.00000
7 1.09000 osd.7 up 1.00000 1.00000
10 1.09000 osd.10 up 1.00000 1.00000
-4 4.35999 host pod2-stack-osd-compute-2
2 1.09000 osd.2 up 1.00000 1.00000
5 1.09000 osd.5 up 1.00000 1.00000
8 1.09000 osd.8 up 1.00000 1.00000
11 1.09000 osd.11 up 1.00000 1.00000
[root@pod2-stack-osd-compute-0 ~]# sudo ceph osd set norebalance
[root@pod2-stack-osd-compute-0 ~]# sudo ceph osd set noout
[root@pod2-stack-osd-compute-0 ~]# sudo ceph status
cluster eb2bb192-b1c9-11e6-9205-525400330666
health HEALTH_WARN
noout,norebalance,sortbitwise,require_jewel_osds flag(s) set
monmap e1: 3 mons at {pod2-stack-controller-0=11.118.0.10:6789/0,pod2-stack-controller-1=11.118.0.11:6789/0,pod2-stack-controller-2=11.118.0.12:6789/0}
election epoch 10, quorum 0,1,2 pod2-stack-controller-0,pod2-stack-controller-1,pod2-stack-controller-2
osdmap e79: 12 osds: 12 up, 12 in
flags noout,norebalance,sortbitwise,require_jewel_osds
pgmap v22844323: 704 pgs, 6 pools, 804 GB data, 423 kobjects
2404 GB used, 10989 GB / 13393 GB avail
704 active+clean
client io 3858 kB/s wr, 0 op/s rd, 546 op/s wr
Opmerking: Wanneer de CEPH wordt verwijderd, gaat VNF HD RAID zich in een gedegradeerde staat bevinden, maar de HD-disk moet nog toegankelijk zijn.
[stack@director ~]$ nova stop aaa2-21 Request to stop server aaa2-21 has been accepted. [stack@director ~]$ nova list +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+ | ID | Name | Status | Task State | Power State | Networks | +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+ | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | ACTIVE | - | Running | tb1-mgmt=172.16.181.14, 10.225.247.233; radius-routable1=10.160.132.245; diameter-routable1=10.160.132.231 | | 3bc14173-876b-4d56-88e7-b890d67a4122 | aaa2-21 | SHUTOFF | - | Shutdown | diameter-routable1=10.160.132.230; radius-routable1=10.160.132.248; tb1-mgmt=172.16.181.7, 10.225.247.234 | | f404f6ad-34c8-4a5f-a757-14c8ed7fa30e | aaa21june | ACTIVE | - | Running | diameter-routable1=10.160.132.233; radius-routable1=10.160.132.244; tb1-mgmt=172.16.181.10 | +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+
Schakel de opgegeven server uit. De stappen om een defecte component op UCS C240 M4 server te vervangen kunnen worden doorverwezen van:
De servercomponenten vervangen
[root@pod2-stack-osd-compute-0 ~]# sudo ceph osd unset norebalance
[root@pod2-stack-osd-compute-0 ~]# sudo ceph osd unset noout
[root@pod2-stack-osd-compute-0 ~]# sudo ceph status
cluster eb2bb192-b1c9-11e6-9205-525400330666
health HEALTH_OK
monmap e1: 3 mons at {pod2-stack-controller-0=11.118.0.10:6789/0,pod2-stack-controller-1=11.118.0.11:6789/0,pod2-stack-controller-2=11.118.0.12:6789/0}
election epoch 10, quorum 0,1,2 pod2-stack-controller-0,pod2-stack-controller-1,pod2-stack-controller-2
osdmap e81: 12 osds: 12 up, 12 in
flags sortbitwise,require_jewel_osds
pgmap v22844355: 704 pgs, 6 pools, 804 GB data, 423 kobjects
2404 GB used, 10989 GB / 13393 GB avail
704 active+clean
client io 3658 kB/s wr, 0 op/s rd, 502 op/s wr
herstelproces
Het is mogelijk de vorige instantie opnieuw in te zetten met de momentopname die in eerdere stappen is genomen.
Stap 1. [OPTIONEEL] Als er geen vorige VMsnapshot beschikbaar is, sluit u de OspD-knooppunt aan waar de back-up is verzonden en zet u de back-up terug naar het oorspronkelijke OSP-knooppunt. Gebruik van sftproot@x.x.x.x, waarbij x.x.x.x het IP van een origineel OSPF is. Sla het snapshot-bestand in de /tmp-map op.
Stap 2. Sluit aan op het OSPD-knooppunt waar de instantie opnieuw zal worden geïnstalleerd.
Bron de omgevingsvariabelen met deze opdracht:
# source /home/stack/pod1-stackrc-Core-CPAR
Stap 3. Om de momentopname als afbeelding te gebruiken, moet deze als zodanig worden geüpload. Start de volgende opdracht om dit te doen.
#glance image-create -- AAA-CPAR-Date-snapshot.qcow2 --container-format bare --disk-format qcow2 --name AAA-CPAR-Date-snapshot
Het proces is in de horizon zichtbaar.
Stap 4. In Horizon kunt u navigeren naar Project > Afstanden en op Lauch Instance klikken zoals in deze afbeelding.
Stap 5. Voer een naam van de instantie in en kies de vrijheidszone zoals in de afbeelding.
Stap 6. Kies in het tabblad Bron het beeld om de instantie te maken. In het menu Opstartbron selecteren selecteert u Afbeelding, wordt een lijst met afbeeldingen weergegeven. Selecteer de afbeeldingen die eerder zijn geüpload door op het + teken te klikken.
Stap 7. Kies in het tabblad Smaak de AAA-afbeelding door op het +-teken te klikken.
Stap 8. Klik tot slot op het tabblad Netwerken en kies de netwerken die de instantie nodig heeft door op het +-teken te klikken. Selecteer in dit geval de optie diameter-soutable1, Straal-routeerbaar1 en tb1-mt zoals in deze afbeelding.
Klik tot slot op Instantie van de Start om het te maken. De voortgang kan in Horizon worden gevolgd:
Na een paar minuten wordt de instantie volledig geïnstalleerd en klaar voor gebruik.
Een drijvend IP-adres maken en toewijzen
Een drijvend IP-adres is een routeerbaar adres, wat betekent dat het bereikbaar is vanaf de buitenkant van de Ultra M/OpenStack-architectuur en het kan communiceren met andere knooppunten van het netwerk.
Stap 1. Klik in het bovenste menu Horizon op Admin > Zwevende IP's.
Stap 2. Klik op IP toewijzen aan project.
Stap 3. In het IP-venster Allocation Floating selecteert u de Pool waarvan de nieuwe zwevende IP afkomstig is, het Project waar deze zal worden toegewezen en het nieuwe zwevende IP-adres zelf.
Bijvoorbeeld:
Stap 4. Klik op Allocation Floating IP.
Stap 5. Ga in het bovenste menu Horizon naar Project > Afstanden.
Stap 6. In de kolom Action (Actie) klikt u op het pijltje dat in de knop Snapshot maken, moet er een menu worden weergegeven. Selecteer de optie Associate Floating IP.
Stap 7. Selecteer het corresponderende zwevende IP-adres dat bedoeld is om in het veld IP-adres te worden gebruikt, en kies de corresponderende beheerinterface (eth0) van het nieuwe geval waarin deze zwevende IP in de poort zal worden toegewezen die moet worden gekoppeld. Raadpleeg de volgende afbeelding als voorbeeld van deze procedure.
Stap 8. Klik tot slot op Associeren.
SSH inschakelen
Stap 1. Ga in het bovenste menu Horizon naar Project > Afstanden.
Stap 2. Klik op de naam van de instantie/VM die in sectie Start een nieuw exemplaar is gemaakt.
Stap 3. Klik op het tabblad console. Dit geeft de opdrachtregel-interface van de VM weer.
Stap 4. Zodra de CLI is weergegeven, voert u de juiste inlogaanmeldingsgegevens in zoals in de afbeelding:
Gebruikersnaam:root
Wachtwoord:cisco123
Stap 5. In de CLI, voer de opdracht vi/etc/ssh/sshd_fig uit om de configuratie van de SSH te bewerken.
Stap 6. Zodra het SSH-configuratiebestand is geopend, drukt u op I om het bestand te bewerken. Kijk vervolgens voor deze sectie en verander de eerste regel van WachtwoordVerificatie naar WachtwoordVerificatie ja.
Stap 7. Druk op ESC en voer :wq!t in om de wijzigingen in sshd_fig te bewaren.
Stap 8. Start de opdrachtservice opnieuw.
Stap 9. Om de wijzigingen in de SSH-configuratie op de juiste wijze te kunnen testen, opent u een SSH-client en probeert u een externe beveiligde verbinding op te zetten met behulp van de zwevende IP die aan de instantie is toegewezen (d.w.z. 10.145.0.249) en de gebruikerswortel.
SSH-sessie instellen
Stap 1. Open een SSH-sessie met behulp van het IP-adres van de corresponderende VM/server waar de toepassing is geïnstalleerd.
Uitgangspunt van de CPAR
Volg deze stappen, zodra de activiteit is voltooid en de CPAR-diensten kunnen worden hersteld in de gesloten site.
Stap 1. Meld u aan bij Horizon, navigeer naar Project > Instantie > Instantie starten.
Stap 2. Controleer dat de status van de instantie actief is en dat de stroomtoestand actief is zoals in de afbeelding.
9. Gezondheidscontrole na de activiteit
Stap 1. Start de opdracht /optioneel/CSCOar/bin/arstatus op OS-niveau
[root@wscaaa04 ~]# /opt/CSCOar/bin/arstatus Cisco Prime AR RADIUS server running (pid: 24834) Cisco Prime AR Server Agent running (pid: 24821) Cisco Prime AR MCD lock manager running (pid: 24824) Cisco Prime AR MCD server running (pid: 24833) Cisco Prime AR GUI running (pid: 24836) SNMP Master Agent running (pid: 24835) [root@wscaaa04 ~]#
Stap 2. Start de opdracht /opt/CSCOar/bin/aregcmd op OS-niveau en voer de admin-referenties in. Controleer dat de gezondheid van de CPA 10 van de 10 is en de CPAR CLI van de uitgang.
[root@aaa02 logs]# /opt/CSCOar/bin/aregcmd Cisco Prime Access Registrar 7.3.0.1 Configuration Utility Copyright (C) 1995-2017 by Cisco Systems, Inc. All rights reserved. Cluster: User: admin Passphrase: Logging in to localhost [ //localhost ] LicenseInfo = PAR-NG-TPS 7.2(100TPS:) PAR-ADD-TPS 7.2(2000TPS:) PAR-RDDR-TRX 7.2() PAR-HSS 7.2() Radius/ Administrators/ Server 'Radius' is Running, its health is 10 out of 10 --> exit
Stap 3. Start het opdrachtnummer | de diameter van de massa en controleer of alle DRA-verbindingen zijn aangelegd.
De hier genoemde uitvoer is bestemd voor een omgeving waarin Diameter-koppelingen worden verwacht. Als er minder links worden weergegeven, betekent dit dat de DRA wordt losgekoppeld van het geluid dat moet worden geanalyseerd.
[root@aa02 logs]# netstat | grep diameter tcp 0 0 aaa02.aaa.epc.:77 mp1.dra01.d:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:36 tsa6.dra01:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:47 mp2.dra01.d:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:07 tsa5.dra01:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:08 np2.dra01.d:diameter ESTABLISHED
Stap 4. Controleer dat het TPS-logbestand toont dat verzoeken worden verwerkt door CPAR. De gemarkeerde waarden vertegenwoordigen de TPS en dat zijn de waarden waaraan u aandacht moet besteden.
De waarde van TPS mag niet hoger zijn dan 1500.
[root@wscaaa04 ~]# tail -f /opt/CSCOar/logs/tps-11-21-2017.csv 11-21-2017,23:57:35,263,0 11-21-2017,23:57:50,237,0 11-21-2017,23:58:05,237,0 11-21-2017,23:58:20,257,0 11-21-2017,23:58:35,254,0 11-21-2017,23:58:50,248,0 11-21-2017,23:59:05,272,0 11-21-2017,23:59:20,243,0 11-21-2017,23:59:35,244,0 11-21-2017,23:59:50,233,0
Stap 5. Zoek een "fout" of "alarm" berichten in name_Straal_1_log
[root@aaa02 logs]# grep -E "error|alarm" name_radius_1_log
Stap 6. Controleer de hoeveelheid geheugen die het CPAR-proces gebruikt door de opdracht uit te voeren:
top | grep radius
[root@sfraaa02 ~]# top | grep radius 27008 root 20 0 20.228g 2.413g 11408 S 128.3 7.7 1165:41 radius
Deze gemarkeerde waarde moet lager zijn dan 7 Gb, wat het maximum is dat op toepassingsniveau is toegestaan.
Opmerking: Voor een gezond cluster zijn 2 actieve controllers nodig om te verifiëren dat de twee resterende controllers online en actief zijn.
[heat-admin@pod2-stack-controller-0 ~]$ sudo pcs status
Cluster name: tripleo_cluster
Stack: corosync
Current DC: pod2-stack-controller-2 (version 1.1.15-11.el7_3.4-e174ec8) - partition with quorum
Last updated: Fri Jul 6 09:03:37 2018Last change: Fri Jul 6 09:03:35 2018 by root via crm_attribute on pod2-stack-controller-0
3 nodes and 19 resources configured
Online: [ pod2-stack-controller-0 pod2-stack-controller-1 pod2-stack-controller-2 ]
Full list of resources:
ip-11.120.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
Clone Set: haproxy-clone [haproxy]
Started: [ pod2-stack-controller-0 pod2-stack-controller-1 pod2-stack-controller-2 ]
Master/Slave Set: galera-master [galera]
Masters: [ pod2-stack-controller-1 pod2-stack-controller-2 ]
Slaves: [ pod2-stack-controller-0 ]
ip-192.200.0.110(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
ip-11.120.0.44(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
ip-11.118.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
Clone Set: rabbitmq-clone [rabbitmq]
Started: [ pod2-stack-controller-1 pod2-stack-controller-2 ]
Stopped: [ pod2-stack-controller-0 ]
ip-10.225.247.214(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
Master/Slave Set: redis-master [redis]
Masters: [ pod2-stack-controller-2 ]
Slaves: [ pod2-stack-controller-0 pod2-stack-controller-1 ]
ip-11.119.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
openstack-cinder-volume(systemd:openstack-cinder-volume):Started pod2-stack-controller-1
Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled
[heat-admin@pod2-stack-controller-0 ~]$ sudo pcs cluster standby
[heat-admin@pod2-stack-controller-0 ~]$ sudo pcs status
Cluster name: tripleo_cluster
Stack: corosync
Current DC: pod2-stack-controller-2 (version 1.1.15-11.el7_3.4-e174ec8) - partition with quorum
Last updated: Fri Jul 6 09:03:10 2018Last change: Fri Jul 6 09:03:06 2018 by root via crm_attribute on pod2-stack-controller-0
3 nodes and 19 resources configured
Node pod2-stack-controller-0: standby
Online: [ pod2-stack-controller-1 pod2-stack-controller-2 ]
Full list of resources:
ip-11.120.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
Clone Set: haproxy-clone [haproxy]
Started: [ pod2-stack-controller-1 pod2-stack-controller-2 ]
Stopped: [ pod2-stack-controller-0 ]
Master/Slave Set: galera-master [galera]
Masters: [ pod2-stack-controller-0 pod2-stack-controller-1 pod2-stack-controller-2 ]
ip-192.200.0.110(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
ip-11.120.0.44(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
ip-11.118.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
Clone Set: rabbitmq-clone [rabbitmq]
Started: [ pod2-stack-controller-0 pod2-stack-controller-1 pod2-stack-controller-2 ]
ip-10.225.247.214(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
Master/Slave Set: redis-master [redis]
Masters: [ pod2-stack-controller-2 ]
Slaves: [ pod2-stack-controller-1 ]
Stopped: [ pod2-stack-controller-0 ]
ip-11.119.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
openstack-cinder-volume(systemd:openstack-cinder-volume):Started pod2-stack-controller-1
Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled
Ook moet de PC status op de andere 2 controllers het knooppunt als stand-by tonen.
Schakel de opgegeven server uit. De stappen om een defecte component op UCS C240 M4 server te vervangen kunnen worden doorverwezen van:
De servercomponenten vervangen
[stack@director ~]$ source stackrc
[stack@director ~]$ nova list
+--------------------------------------+--------------------------+--------+------------+-------------+------------------------+
| ID | Name | Status | Task State | Power State | Networks |
+--------------------------------------+--------------------------+--------+------------+-------------+------------------------+
| 03f15071-21aa-4bcf-8fdd-acdbde305168 | pod2-stack-compute-0 | ACTIVE | - | Running | ctlplane=192.200.0.106 |
| 1f725ce3-948d-49e9-aed9-b99e73d82644 | pod2-stack-compute-1 | ACTIVE | - | Running | ctlplane=192.200.0.107 |
| fbc13c78-dc06-4ac9-a3c5-595ccc147adc | pod2-stack-compute-2 | ACTIVE | - | Running | ctlplane=192.200.0.119 |
| 3b94e0b1-47dc-4960-b3eb-d02ffe9ae693 | pod2-stack-compute-3 | ACTIVE | - | Running | ctlplane=192.200.0.112 |
| 5dbac94d-19b9-493e-a366-1e2e2e5e34c5 | pod2-stack-compute-4 | ACTIVE | - | Running | ctlplane=192.200.0.116 |
| b896c73f-d2c8-439c-bc02-7b0a2526dd70 | pod2-stack-controller-0 | ACTIVE | - | Running | ctlplane=192.200.0.113 |
| 2519ce67-d836-4e5f-a672-1a915df75c7c | pod2-stack-controller-1 | ACTIVE | - | Running | ctlplane=192.200.0.105 |
| e19b9625-5635-4a52-a369-44310f3e6a21 | pod2-stack-controller-2 | ACTIVE | - | Running | ctlplane=192.200.0.120 |
| 6810c884-1cb9-4321-9a07-192443920f1f | pod2-stack-osd-compute-0 | ACTIVE | - | Running | ctlplane=192.200.0.109 |
| 26d3f7b1-ba97-431f-aa6e-ba91661db45d | pod2-stack-osd-compute-1 | ACTIVE | - | Running | ctlplane=192.200.0.117 |
| 6e4a8aa9-4870-465a-a7e2-0932ff55e34b | pod2-stack-osd-compute-2 | ACTIVE | - | Running | ctlplane=192.200.0.103 |
+--------------------------------------+--------------------------+--------+------------+-------------+------------------------+
[heat-admin@pod2-stack-controller-0 ~]$ sudo pcs cluster unstandby
[heat-admin@pod2-stack-controller-0 ~]$ sudo pcs status
Cluster name: tripleo_cluster
Stack: corosync
Current DC: pod2-stack-controller-2 (version 1.1.15-11.el7_3.4-e174ec8) - partition with quorum
Last updated: Fri Jul 6 09:03:37 2018Last change: Fri Jul 6 09:03:35 2018 by root via crm_attribute on pod2-stack-controller-0
3 nodes and 19 resources configured
Online: [ pod2-stack-controller-0 pod2-stack-controller-1 pod2-stack-controller-2 ]
Full list of resources:
ip-11.120.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
Clone Set: haproxy-clone [haproxy]
Started: [ pod2-stack-controller-0 pod2-stack-controller-1 pod2-stack-controller-2 ]
Master/Slave Set: galera-master [galera]
Masters: [ pod2-stack-controller-1 pod2-stack-controller-2 ]
Slaves: [ pod2-stack-controller-0 ]
ip-192.200.0.110(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
ip-11.120.0.44(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
ip-11.118.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
Clone Set: rabbitmq-clone [rabbitmq]
Started: [ pod2-stack-controller-1 pod2-stack-controller-2 ]
Stopped: [ pod2-stack-controller-0 ]
ip-10.225.247.214(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
Master/Slave Set: redis-master [redis]
Masters: [ pod2-stack-controller-2 ]
Slaves: [ pod2-stack-controller-0 pod2-stack-controller-1 ]
ip-11.119.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
openstack-cinder-volume(systemd:openstack-cinder-volume):Started pod2-stack-controller-1
Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled
[heat-admin@pod2-stack-controller-0 ~]$ sudo ceph -s
cluster eb2bb192-b1c9-11e6-9205-525400330666
health HEALTH_OK
monmap e1: 3 mons at {pod2-stack-controller-0=11.118.0.10:6789/0,pod2-stack-controller-1=11.118.0.11:6789/0,pod2-stack-controller-2=11.118.0.12:6789/0}
election epoch 10, quorum 0,1,2 pod2-stack-controller-0,pod2-stack-controller-1,pod2-stack-controller-2
osdmap e81: 12 osds: 12 up, 12 in
flags sortbitwise,require_jewel_osds
pgmap v22844355: 704 pgs, 6 pools, 804 GB data, 423 kobjects
2404 GB used, 10989 GB / 13393 GB avail
704 active+clean
client io 3658 kB/s wr, 0 op/s rd, 502 op/s wr