De documentatie van dit product is waar mogelijk geschreven met inclusief taalgebruik. Inclusief taalgebruik wordt in deze documentatie gedefinieerd als taal die geen discriminatie op basis van leeftijd, handicap, gender, etniciteit, seksuele oriëntatie, sociaaleconomische status of combinaties hiervan weerspiegelt. In deze documentatie kunnen uitzonderingen voorkomen vanwege bewoordingen die in de gebruikersinterfaces van de productsoftware zijn gecodeerd, die op het taalgebruik in de RFP-documentatie zijn gebaseerd of die worden gebruikt in een product van een externe partij waarnaar wordt verwezen. Lees meer over hoe Cisco gebruikmaakt van inclusief taalgebruik.
Cisco heeft dit document vertaald via een combinatie van machine- en menselijke technologie om onze gebruikers wereldwijd ondersteuningscontent te bieden in hun eigen taal. Houd er rekening mee dat zelfs de beste machinevertaling niet net zo nauwkeurig is als die van een professionele vertaler. Cisco Systems, Inc. is niet aansprakelijk voor de nauwkeurigheid van deze vertalingen en raadt aan altijd het oorspronkelijke Engelstalige document (link) te raadplegen.
In dit document worden de stappen beschreven die vereist zijn om een foutieve server te vervangen die als gastheer van de OpenStack Platform Director (OSPF) fungeert in een Ultra-M instelling. Deze procedure is van toepassing op een OpenStack-omgeving met behulp van de NEWTON-versie waarin ESC de Cisco Prime Access Registrar (CPAR) niet beheert en CPAR rechtstreeks op de VM wordt geïnstalleerd die op OpenStack wordt geïnstalleerd.
Ultra-M is een voorverpakte en gevalideerde gevirtualiseerde mobiele pakketoplossing die is ontworpen om de plaatsing van VPN’s te vereenvoudigen. OpenStack is de Gevirtualiseerde Infrastructuur Manager (VIM) voor Ultra-M en bestaat uit deze knooptypes:
De hoge architectuur van Ultra-M en de betrokken onderdelen zijn in deze afbeelding weergegeven:
Opmerking: De Ultra M 5.1.x release wordt overwogen om de procedures in dit document te definiëren.
MOP | Procedure |
OSD | Objectopslaglocaties |
OSPF | OpenStack platform Director |
HDD | Station vaste schijf |
SSD | Solid State Drive |
VIM | Virtual-infrastructuurbeheer |
VM | Virtuele machine |
EM | Element Manager |
UAS | Ultra Automation Services |
UUID | Universele unieke ID-versterker |
Voordat u een OSPD-server vervangt, is het van belang de huidige toestand van het Rode Hat OpenStack Platform-milieu te controleren en ervoor te zorgen dat het gezond is om complicaties bij het vervangingsproces te voorkomen.
1. Controleer de status van OpenStack en de lijst met knooppunten:
[stack@director ~]$ source stackrc
[stack@director ~]$ openstack stack list --nested
[stack@director ~]$ ironic node-list
[stack@director ~]$ nova list
2. Controleer of alle undercloud-services zich in geladen, actieve en actieve status bevinden vanuit het OSP-D-knooppunt:
[stack@al03-pod2-ospd ~]$ systemctl list-units "openstack*" "neutron*" "openvswitch*"
UNIT LOAD ACTIVE SUB DESCRIPTION
neutron-dhcp-agent.service loaded active running OpenStack Neutron DHCP Agent
neutron-metadata-agent.service loaded active running OpenStack Neutron Metadata Agent
neutron-openvswitch-agent.service loaded active running OpenStack Neutron Open vSwitch Agent
neutron-server.service loaded active running OpenStack Neutron Server
openstack-aodh-evaluator.service loaded active running OpenStack Alarm evaluator service
openstack-aodh-listener.service loaded active running OpenStack Alarm listener service
openstack-aodh-notifier.service loaded active running OpenStack Alarm notifier service
openstack-ceilometer-central.service loaded active running OpenStack ceilometer central agent
openstack-ceilometer-collector.service loaded active running OpenStack ceilometer collection service
openstack-ceilometer-notification.service loaded active running OpenStack ceilometer notification agent
openstack-glance-api.service loaded active running OpenStack Image Service (code-named Glance) API server
openstack-glance-registry.service loaded active running OpenStack Image Service (code-named Glance) Registry server
openstack-heat-api-cfn.service loaded active running Openstack Heat CFN-compatible API Service
openstack-heat-api.service loaded active running OpenStack Heat API Service
openstack-heat-engine.service loaded active running Openstack Heat Engine Service
openstack-ironic-api.service loaded active running OpenStack Ironic API service
openstack-ironic-conductor.service loaded active running OpenStack Ironic Conductor service
openstack-ironic-inspector-dnsmasq.service loaded active running PXE boot dnsmasq service for Ironic Inspector
openstack-ironic-inspector.service loaded active running Hardware introspection service for OpenStack Ironic
openstack-mistral-api.service loaded active running Mistral API Server
openstack-mistral-engine.service loaded active running Mistral Engine Server
openstack-mistral-executor.service loaded active running Mistral Executor Server
openstack-nova-api.service loaded active running OpenStack Nova API Server
openstack-nova-cert.service loaded active running OpenStack Nova Cert Server
openstack-nova-compute.service loaded active running OpenStack Nova Compute Server
openstack-nova-conductor.service loaded active running OpenStack Nova Conductor Server
openstack-nova-scheduler.service loaded active running OpenStack Nova Scheduler Server
openstack-swift-account-reaper.service loaded active running OpenStack Object Storage (swift) - Account Reaper
openstack-swift-account.service loaded active running OpenStack Object Storage (swift) - Account Server
openstack-swift-container-updater.service loaded active running OpenStack Object Storage (swift) - Container Updater
openstack-swift-container.service loaded active running OpenStack Object Storage (swift) - Container Server
openstack-swift-object-updater.service loaded active running OpenStack Object Storage (swift) - Object Updater
openstack-swift-object.service loaded active running OpenStack Object Storage (swift) - Object Server
openstack-swift-proxy.service loaded active running OpenStack Object Storage (swift) - Proxy Server
openstack-zaqar.service loaded active running OpenStack Message Queuing Service (code-named Zaqar) Server
openstack-zaqar@1.service loaded active running OpenStack Message Queuing Service (code-named Zaqar) Server Instance 1
openvswitch.service loaded active exited Open vSwitch
LOAD = Reflects whether the unit definition was properly loaded.
ACTIVE = The high-level unit activation state, i.e. generalization of SUB.
SUB = The low-level unit activation state, values depend on unit type.
lines 1-43
lines 2-44 37 loaded units listed. Pass --all to see loaded but inactive units, too.
To show all installed unit files use 'systemctl list-unit-files'.
lines 4-46/46 (END) lines 4-46/46 (END) lines 4-46/46 (END) lines 4-46/46 (END) lines 4-46/46 (END)
1. Controleer of u voldoende schijfruimte hebt voordat u het back-upproces uitvoert. Deze tarball zal naar verwachting ten minste 3,5 GB bedragen.
[stack@director ~]$ df -h
2. Start deze opdrachten als de basisgebruiker om back-up te maken van de gegevens uit de ondercloud-knooppunt naar een bestand met de naam undercloud-back-up-[timestamp].tar.gz.
[root@director ~]# mysqldump --opt --all-databases > /root/undercloud-all-databases.sql
[root@director ~]# tar --xattrs -czf undercloud-backup-`date +%F`.tar.gz /root/undercloud-all-databases.sql
/etc/my.cnf.d/server.cnf /var/lib/glance/images /srv/node /home/stack
tar: Removing leading `/' from member names
1. De stappen om een nieuwe UCS C240 M4-server te installeren en de eerste setup-stappen kunnen worden doorverwezen van Cisco UCS C240 M4-serverinstallatie en -servicegids.
2. Plaats na de installatie van de server de harde schijven in hun respectieve sleuven als de oude server.
3. Meld u aan bij de server met gebruik van de Cisco Integrated Management Controller (CIMC) IP.
4. Start een upgrade op als de firmware niet volgens de eerder gebruikte aanbevolen versie is. Hier vindt u stappen voor een upgrade op basis van het besturingssysteem Cisco UCS C-Series-upgrade voor rackservers.
5. Controleer de status van de fysieke stuurprogramma's. Het moet goed zijn. Navigeren in op opslag > Cisco 12G SAS modulaire controller (SLOT-HBA) > Physical Drive-informatie zoals in de afbeelding weergegeven.
6. Maak een virtueel station van de fysieke stations met DVD-niveau 1. Navigeer naar opslagniveau > Cisco 12G SAS modulaire Raid Controller (SLOT-HBA) > Controller-informatie > Virtuele schijf maken van ongebruikte fysieke stuurprogramma's zoals in de afbeelding wordt getoond.
7. Selecteer de VD en stel de set in als Boot Drive zoals in de afbeelding.
8. Schakel IPMI via LAN in. Navigeer naar Admin > Communicatieservices > Communicatieservices zoals in de afbeelding.
9. hyperthreading uitschakelen. Navigeren in op computing > configuratiescherm > Geavanceerd > processorconfiguratie zoals in de afbeelding weergegeven.
Opmerking: Het beeld dat hier wordt getoond en de configuratiestappen die in dit gedeelte worden beschreven, zijn gebaseerd op versie 3.0(3e) van de firmware en er kunnen kleine variaties zijn als u aan andere versies werkt.
1. Meld u aan bij de OSP-D-server.
2. Start KVM-console.
3. Navigatie naar Virtuele media > Virtuele apparaten activeren. Accepteer de sessie en schakel Herdenking van uw instelling voor toekomstige verbindingen in.
4. Navigeer naar Virtuele media > CD/DVD-kaarten kaart de ISO-afbeelding van de Rode Hat.
5. Navigeer naar Voeding > Reset-systeem (Warm Boot) op volgorde om het systeem opnieuw op te starten.
6. Druk tijdens het opnieuw opstarten op F6en selecteerCisco vKVM-Geschikt vDVD1.2en druk op ENTER.
Opmerking:De procedure in dit hoofdstuk vertegenwoordigt een vereenvoudigde versie van het installatieproces die het minimumaantal parameters aangeeft dat moet worden geconfigureerd.
1. Selecteer de optie om Red Hat Enterprise Linux te installeren om de installatie te starten.
2. Navigeer naar softwareselectie > Alleen minimale installatie.
3. Het configureren van netwerkinterfaces (eno1 en eno2).
4. Klik op Network and Hostname.
5. Selecteer Datum en tijd en specificeer uw regio en stad.
6. Netwerktijd inschakelen en NTP-servers configureren.
7. Selecteer de installatiebestemming en gebruik het volgende4-bestandssysteem.
Opmerking: Verwijdert "/home/" en wijst de capaciteit onder wortel '/' opnieuw toe.
8. Kump uitschakelen
9. Alleen Root-wachtwoord instellen
10. Start de installatie
Nadat de machine met RHEL 7.3 is geïnstalleerd en in een schone staat verkeert, schakelt u alle abonnementen/opslagplaatsen die nodig zijn om de regisseur te installeren en uit te voeren opnieuw in.
1. Hostname-configuratie.
[root@director ~]$sudo hostnamectl set-hostname <FQDN_hostname>
[root@director ~]$sudo hostnamectl set-hostname --transient <FQDN_hostname>
2. Bewerk e.d./gastheer-bestand.
[root@director ~]$ vi /etc/hosts
<ospd_external_address> <server_hostname> <FQDN_hostname>
192.168.247.142 pod2-stack-ospd pod2-stack-ospd.cisco.com
3. valideren van hostname.
[root@director ~]$ cat /etc/hostname
pod2-stack-ospd.cisco.com
4. Controleer de DNS-configuratie.
[root@director ~]$ cat /etc/resolv.conf
#Generated by NetworkManager
nameserver <DNS_IP>
5. Aanvoeringsinterface wijzigen.
[root@director ~]$ cat /etc/sysconfig/network-scripts/ifcfg-eno1
DEVICE=eno1
ONBOOT=yes
HOTPLUG=no
NM_CONTROLLED=no
PEERDNS=no
DEVICETYPE=ovs
TYPE=OVSPort
OVS_BRIDGE=br-ctlplane
BOOTPROTO=none
MTU=1500
1. Download dit pakket om abonnement-manager te configureren voor het gebruik van rh-satelliet.
[root@director ~]$ rpm -Uvh http:///pub/katello-ca-consumer-latest.noarch.rpm
[root@director ~]$ subscription-manager config
2. Registreer met rh-satelliet met behulp van deze activeringssleutel voor RHEL 7.3.
[root@director ~]$subscription-manager register --org="<ORG>" --activationkey="<KEY>"
3. Om de abonnement te zien.
[root@director ~]$ subscription-manager list –consumed
4. Inschakelen van dezelfde opslagplaatsen als oude OSPD-repo's.
[root@director ~]$ sudo subscription-manager repos --disable=*
[root@director ~]$ subscription-manager repos --enable=rhel-7-server-rpms --enable=rhel-7-server-extras-rpms --enable=rh
el-7-server-openstack-10-rpms --enable=rhel-7-server-rh-common-rpms --enable=rhel-ha-for-rhel-7-server-rpm
5. Voer een update over uw systeem uit om er zeker van te zijn dat u de nieuwste basissysteempakketten hebt en start het systeem opnieuw op.
[root@director ~]$sudo yum update -y
[root@director ~]$sudo reboot
Nadat u het abonnement hebt ingeschakeld, importeert u het back-up undercloud tar-bestand "undercloud-back-up" date +%F".tar.gz" naar de nieuwe OSP-server root directory/root
1. Installeer de mariadb server.
[root@director ~]$ yum install -y mariadb-server
2. Neem het MariaDB-configuratiebestand en de back-up van de database uit. Voer deze handeling als basisgebruiker uit.
[root@director ~]$ tar -xzC / -f undercloud-backup-$DATE.tar.gz etc/my.cnf.d/server.cnf
[root@director ~]$ tar -xzC / -f undercloud-backup-$DATE.tar.gz root/undercloud-all-databases.sql
3. Bewerk /etc/my.cnf.d/server.cnf en bewaar de boeking van het adres indien aanwezig.
[root@tb3-ospd ~]# vi /etc/my.cnf.d/server.cnf
4. Start de MariaDB-service en update tijdelijk de max_allow_pakketinstelling.
[root@director ~]$ systemctl start mariadb
[root@director ~]$ mysql -uroot -e"set global max_allowed_packet = 16777216;"
5. Reinig bepaalde toegangsrechten (die later opnieuw moeten worden gecreëerd).
[root@director ~]$ for i in ceilometer glance heat ironic keystone neutron nova;do mysql -e "drop user $i";done
[root@director ~]$ mysql -e 'flush privileges'
Opmerking: Als de onderhoudsmonteur in de instelling eerder is uitgeschakeld, voert u de bovenstaande opdracht uit om "plafondmeter" te verwijderen.
6. Maak de stackuser-account.
[root@director ~]$ sudo useradd stack
[root@director ~]$ sudo passwd stack << specify a password
[root@director ~]$ echo "stack ALL=(root) NOPASSWD:ALL" | sudo tee -a /etc/sudoers.d/stack
[root@director ~]$ sudo chmod 0440 /etc/sudoers.d/stack
7. De startmap van de stapel herstellen.
[root@director ~]$ tar -xzC / -f undercloud-backup-$DATE.tar.gz home/stack
8. Installeer de snelle en glans basispakketten en herstel vervolgens hun gegevens.
[root@director ~]$ yum install -y openstack-glance openstack-swift
[root@director ~]$ tar --xattrs -xzC / -f undercloud-backup-$DATE.tar.gz srv/node var/lib/glance/images
9. Controleer of de gegevens het eigendom zijn van de juiste gebruiker.
[root@director ~]$ chown -R swift: /srv/node
[root@director ~]$ chown -R glance: /var/lib/glance/images
10. Herstel de undercloud SSL-certificaten (optioneel - alleen als de instelling SSL-certificaten gebruikt).
[root@director ~]$ tar -xzC / -f undercloud-backup-$DATE.tar.gz etc/pki/instack-certs/undercloud.pem
[root@director ~]$ tar -xzC / -f undercloud-backup-$DATE.tar.gz etc/pki/ca-trust/source/anchors/ca.crt.pem
11. Start de installatie van de ondercloud opnieuw als stapelgebruiker, waarbij u er zeker van bent dat deze in de home folder van de stapel wordt uitgevoerd:
[root@director ~]$ su - stack
[stack@director ~]$ sudo yum install -y python-tripleoclient
12. Bevestig dat de hostname correct is ingesteld in /etc/hosts.
13. Installeer de ondercloud opnieuw.
[stack@director ~]$ openstack undercloud install
<snip>
#############################################################################
Undercloud install complete.
The file containing this installation's passwords is at
/home/stack/undercloud-passwords.conf.
There is also a stackrc file at /home/stack/stackrc.
These files are needed to interact with the OpenStack services, and must be
secured.
#############################################################################
Als de bovenstaande stappen zijn uitgevoerd, wordt verwacht dat de ondercloud automatisch de verbinding met de overcloud zal herstellen. De knooppunten zullen Orchestratie (warmte) blijven opvragen voor hangende taken, gebruik makend van een eenvoudig HTTP-verzoek dat elke paar seconden wordt afgegeven.
Gebruik deze opdrachten om een gezondheidscontrole uit te voeren van uw nieuwe, gerestaureerde omgeving.
[root@director ~]$ su - stack
Last Log in: Tue Nov 28 21:27:50 EST 2017 from 192.182.255.20 on pts/0
[stack@director ~]$ source stackrc
[stack@director ~]$ nova list
+--------------------------------------+--------------------------+--------+------------+-------------+------------------------+
| ID | Name | Status | Task State | Power State | Networks |
+--------------------------------------+--------------------------+--------+------------+-------------+------------------------+
| 03f15071-21aa-4bcf-8fdd-acdbde305168 | pod2-stack-compute-0 | ACTIVE | - | Running | ctlplane=192.200.0.106 |
| 1f725ce3-948d-49e9-aed9-b99e73d82644 | pod2-stack-compute-1 | ACTIVE | - | Running | ctlplane=192.200.0.107 |
| fbc13c78-dc06-4ac9-a3c5-595ccc147adc | pod2-stack-compute-2 | ACTIVE | - | Running | ctlplane=192.200.0.119 |
| 3b94e0b1-47dc-4960-b3eb-d02ffe9ae693 | pod2-stack-compute-3 | ACTIVE | - | Running | ctlplane=192.200.0.112 |
| 5dbac94d-19b9-493e-a366-1e2e2e5e34c5 | pod2-stack-compute-4 | ACTIVE | - | Running | ctlplane=192.200.0.116 |
| b896c73f-d2c8-439c-bc02-7b0a2526dd70 | pod2-stack-controller-0 | ACTIVE | - | Running | ctlplane=192.200.0.113 |
| 2519ce67-d836-4e5f-a672-1a915df75c7c | pod2-stack-controller-1 | ACTIVE | - | Running | ctlplane=192.200.0.105 |
| e19b9625-5635-4a52-a369-44310f3e6a21 | pod2-stack-controller-2 | ACTIVE | - | Running | ctlplane=192.200.0.120 |
| 6810c884-1cb9-4321-9a07-192443920f1f | pod2-stack-osd-compute-0 | ACTIVE | - | Running | ctlplane=192.200.0.109 |
| 26d3f7b1-ba97-431f-aa6e-ba91661db45d | pod2-stack-osd-compute-1 | ACTIVE | - | Running | ctlplane=192.200.0.117 |
| 6e4a8aa9-4870-465a-a7e2-0932ff55e34b | pod2-stack-osd-compute-2 | ACTIVE | - | Running | ctlplane=192.200.0.103 |
+--------------------------------------+--------------------------+--------+------------+-------------+------------------------+
<snip>
[stack@director ~]$ ssh heat-admin@192.200.0.113
Last login: Fri Jul 6 09:02:41 2018 from 192.200.0.1
[heat-admin@pod2-stack-controller-0 ~]$ sudo pcs status
Cluster name: tripleo_cluster
Stack: corosync
Current DC: pod2-stack-controller-2 (version 1.1.15-11.el7_3.4-e174ec8) - partition with quorum
Last updated: Tue Jul 10 10:04:15 2018Last change: Fri Jul 6 09:03:35 2018 by root via crm_attribute on pod2-stack-controller-0
3 nodes and 19 resources configured
Online: [ pod2-stack-controller-0 pod2-stack-controller-1 pod2-stack-controller-2 ]
Full list of resources:
ip-11.120.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
Clone Set: haproxy-clone [haproxy]
Started: [ pod2-stack-controller-0 pod2-stack-controller-1 pod2-stack-controller-2 ]
Master/Slave Set: galera-master [galera]
Masters: [ pod2-stack-controller-0 pod2-stack-controller-1 pod2-stack-controller-2 ]
ip-192.200.0.110(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
ip-11.120.0.44(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
ip-11.118.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
Clone Set: rabbitmq-clone [rabbitmq]
Started: [ pod2-stack-controller-0 pod2-stack-controller-1 pod2-stack-controller-2 ]
ip-10.225.247.214(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
Master/Slave Set: redis-master [redis]
Masters: [ pod2-stack-controller-2 ]
Slaves: [ pod2-stack-controller-0 pod2-stack-controller-1 ]
ip-11.119.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
openstack-cinder-volume(systemd:openstack-cinder-volume):Started pod2-stack-controller-1
Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled
[heat-admin@pod2-stack-controller-0 ~]$ sudo ceph status
cluster eb2bb192-b1c9-11e6-9205-525400330666
health HEALTH_OK
monmap e1: 3 mons at {pod2-stack-controller-0=11.118.0.10:6789/0,pod2-stack-controller-1=11.118.0.11:6789/0,pod2-stack-controller-2=11.118.0.12:6789/0}
election epoch 10, quorum 0,1,2 pod2-stack-controller-0,pod2-stack-controller-1,pod2-stack-controller-2
osdmap e81: 12 osds: 12 up, 12 in
flags sortbitwise,require_jewel_osds
pgmap v23094282: 704 pgs, 6 pools, 809 GB data, 424 kobjects
2418 GB used, 10974 GB / 13393 GB avail
704 active+clean
client io 1841 kB/s wr, 0 op/s rd, 220 op/s wr
[heat-admin@pod2-stack-controller-0 ~]$ exit
logout
Connection to 192.200.0.113 closed.
Deze stap bevestigt de bewerkingen van de Identity Services Engine door een lijst met gebruikers op te vragen.
[stack@director ~]$ source stackerc
[stack@director~]$ openstack user list
+----------------------------------+------------------+
| ID | Name |
+----------------------------------+------------------+
| 4d93cc08ed314b87b4c6dce95c19558f | admin |
| c499bd1a65d94029804350e3bca19888 | aodh |
| d9b59136b2794ec1b9c18c4f7b95c674 | ceilometer |
| 4650cdca79b44f2b9d2426b7a9df9495 | glance |
| 4a6724a623f4463c971658462b505c8a | heat |
| e18ae9a5b7f14aefb9e93931dcec476e | ironic |
| 9831160669c44c10b04d6f78b7517a55 | ironic-inspector |
| 6a5d6f02b9a74dfb9f679eecfebb28e0 | mistral |
| 462c8ec91fb0485fbc7dfec6d4ecf480 | neutron |
| f3a66d84e39c47a0bdcd14d24bd72816 | nova |
| 1f16ea9035ab424a88d5f34681d3f893 | swift |
| ab4a1e5f62be4609b290c32dc93bfbce | zaqar |
| fac68a166f5f442284f7d06355369c53 | zaqar-websocket |
+----------------------------------+------------------+
[stack@director ~]$ source <overcloudrc>
[stack@director ~]$ openstack user list
+----------------------------------+------------+
| ID | Name |
+----------------------------------+------------+
| 7285a65e0c8c4447b10875d0e9c9da69 | admin |
| c7c78ac31ec24926b3eed79e7f5bd59e | neutron |
| 191c2a293beb48edb4d2c1160c9a0523 | heat |
| 1445a6ef2ae94b6f9365ffbc6b56a231 | gnocchi |
| fb8b006129554c6b8465310fcfc0ba8c | aodh |
| 5afcb816f93b4f20998c9edaf3b143a0 | nova |
| 37444af1295344809eca6058a782f871 | glance |
| e74d2d9e59f34ddfb4408a8beb88db7b | ceilometer |
| 9baab90178c141478ce7c0084e930f40 | cinder |
| 5a964c651c11402284eecb0e8f40ee33 | heat-cfn |
| 6d49ebae55da432580943d6080efcf90 | swift |
| 41a666fe64c64df593d73b4f467885be | core |
| ab004ba966bf4ddc92783fbb6045e48b | cpar |
| fce5b5c5dc7647ccbc2170b56a64db33 | cpardemo |
| 28ead2dab0ef486ba449b441715a3e04 | pcrf |
| 0aac4107e3d443dc93ca62c3928a1998 | pcrfdemo |
+----------------------------------+------------+
1. Valideren /https al deze bestanden "inspecteur.ipxe, agent.kernel, agent.ramdisk", indien niet de volgende stappen in de afbeelding worden uitgevoerd om bij te werken.
[stack@director ~]$ ls /httpboot
inspector.ipxe
[stack@director ~]$ source stackrc
[stack@director ~]$ cd images/
[stack@director images]$ openstack overcloud image upload --image-path /home/stack/images
Image "overcloud-full-vmlinuz" is up-to-date, skipping.
Image "overcloud-full-initrd" is up-to-date, skipping.
Image "overcloud-full" is up-to-date, skipping.
Image "bm-deploy-kernel" is up-to-date, skipping.
Image "bm-deploy-ramdisk" is up-to-date, skipping.
[stack@director images]$ ls /httpboot
agent.kernel agent.ramdisk inspector.ipxe
[stack@director images]$
Afschermen zou in staat zijn na ruimeterugwinning, onder procedure zou hechting mogelijk zijn.
[heat-admin@pod2-stack-controller-0 ~]$ sudo pcs property set stonith-enabled=true
[heat-admin@pod2-stack-controller-0 ~]$ sudo pcs status
[heat-admin@pod2-stack-controller-0 ~]$sudo pcs stonith show