تسعى مجموعة الوثائق لهذا المنتج جاهدة لاستخدام لغة خالية من التحيز. لأغراض مجموعة الوثائق هذه، يتم تعريف "خالية من التحيز" على أنها لغة لا تعني التمييز على أساس العمر، والإعاقة، والجنس، والهوية العرقية، والهوية الإثنية، والتوجه الجنسي، والحالة الاجتماعية والاقتصادية، والتمييز متعدد الجوانب. قد تكون الاستثناءات موجودة في الوثائق بسبب اللغة التي يتم تشفيرها بشكل ثابت في واجهات المستخدم الخاصة ببرنامج المنتج، أو اللغة المستخدمة بناءً على وثائق RFP، أو اللغة التي يستخدمها منتج الجهة الخارجية المُشار إليه. تعرّف على المزيد حول كيفية استخدام Cisco للغة الشاملة.
ترجمت Cisco هذا المستند باستخدام مجموعة من التقنيات الآلية والبشرية لتقديم محتوى دعم للمستخدمين في جميع أنحاء العالم بلغتهم الخاصة. يُرجى ملاحظة أن أفضل ترجمة آلية لن تكون دقيقة كما هو الحال مع الترجمة الاحترافية التي يقدمها مترجم محترف. تخلي Cisco Systems مسئوليتها عن دقة هذه الترجمات وتُوصي بالرجوع دائمًا إلى المستند الإنجليزي الأصلي (الرابط متوفر).
يصف هذا المستند الخطوات المطلوبة لاستبدال قرص تخزين كائنات معيب (OSD) - خادم حوسبة بإعداد Ultra-M.
ينطبق هذا الإجراء على بيئة OpenStack ذات إصدار NewTon حيث لا يقوم ESC بإدارة CPAR ويتم تثبيت CPAR مباشرة على الجهاز الظاهري (VM) الذي تم نشره على OpenStack.
Ultra-M هو حل أساسي لحزم الأجهزة المحمولة تم تجميعه في حزم مسبقا والتحقق من صحته افتراضيا تم تصميمه من أجل تبسيط نشر شبكات VNF. OpenStack هو مدير البنية الأساسية الظاهرية (VIM) ل Ultra-M ويتكون من أنواع العقد التالية:
تم توضيح البنية المعمارية عالية المستوى لتقنية Ultra-M والمكونات المعنية في هذه الصورة:
ملاحظة: يتم النظر في الإصدار Ultra M 5.1.x لتحديد الإجراءات الواردة في هذا المستند.
مو بي | منهجية الإجراء |
OSD | أقراص تخزين الكائنات |
OSPD | مدير النظام الأساسي ل OpenStack |
محرك الأقراص الثابتة | محرك الأقراص الثابتة |
محرك أقراص مزود بذاكرة مصنوعة من مكونات صلبة | محرك أقراص في الحالة الصلبة |
فيم | مدير البنية الأساسية الظاهرية |
VM | جهاز ظاهري |
إم | مدير العناصر |
UAS | خدمات أتمتة Ultra |
uID | المعرف الفريد العالمي |
النسخ الاحتياطي
قبل إستبدال عقدة حوسبة، من المهم التحقق من الحالة الحالية لبيئة النظام الأساسي Red Hat OpenStack. يوصى بالتحقق من الحالة الحالية لتجنب المضاعفات عند تشغيل عملية إستبدال الكمبيوتر. ويمكن تحقيقه من خلال هذا التدفق من الاستبدال.
في حالة الاسترداد، توصي Cisco بإجراء نسخ إحتياطي لقاعدة بيانات OSPD باستخدام الخطوات التالية:
[root@director ~]# mysqldump --opt --all-databases > /root/undercloud-all-databases.sql [root@director ~]# tar --xattrs -czf undercloud-backup-`date +%F`.tar.gz /root/undercloud-all-databases.sql /etc/my.cnf.d/server.cnf /var/lib/glance/images /srv/node /home/stack tar: Removing leading `/' from member names
تضمن هذه العملية إمكانية إستبدال عقدة دون التأثير على توفر أي مثيلات.
ملاحظة: تأكد من وجود لقطة للمثيل لديك لتتمكن من إستعادة الجهاز الظاهري عند الحاجة. اتبع الإجراء المتعلق بكيفية إلتقاط لقطة للآلة الافتراضية.
[stack@director ~]$ nova list --field name,host | grep osd-compute-0 | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | pod2-stack-compute-4.localdomain |
ملاحظة: في الإخراج المبين هنا، يتوافق العمود الأول مع المعرف الفريد العالمي (UUID)، بينما يمثل العمود الثاني اسم الجهاز الظاهري (VM) بينما يمثل العمود الثالث اسم المضيف الذي يوجد به الجهاز الظاهري. يتم إستخدام المعلمات من هذا الإخراج في الأقسام التالية.
الخطوة 1. افتح أي عميل Secure Shell (SSH) متصل بالشبكة واتصل بمثيل وحدة المعالجة المركزية (CPAR).
من المهم عدم إيقاف تشغيل جميع مثيلات المصادقة والتفويض والمحاسبة (AAA) الأربعة داخل موقع واحد في نفس الوقت، والقيام بذلك بطريقة واحدة.
الخطوة 2. لإيقاف تشغيل تطبيق حماية مستوى التحكم (CPAR)، قم بتشغيل الأمر:
/opt/CSCOar/bin/arserver stop
يجب أن تظهر رسالة "اكتمال إيقاف تشغيل وكيل خادم Cisco Prime Access Registrar".
ملاحظة: إذا ترك مستخدم جلسة عمل لواجهة سطر الأوامر (CLI) مفتوحة، فلن يعمل الأمر arserver stop" وتعرض هذه الرسالة.
ERROR: You cannot shut down Cisco Prime Access Registrar while the CLI is being used. Current list of running CLI with process id is: 2903 /opt/CSCOar/bin/aregcmd –s
في هذا المثال، يلزم إنهاء معرف العملية 2903 الذي تم تمييزه قبل التمكن من إيقاف حماية مستوى التحكم (CPAR). إذا كان هذا هو الحال، فعليك تشغيل الأمر من أجل إنهاء هذه العملية:
kill -9 *process_id*
ثم كرر الخطوة 1.
الخطوة 3. للتحقق من إيقاف تشغيل تطبيق حماية مستوى التحكم (CPAR) بالفعل، قم بتشغيل الأمر:
/opt/CSCOar/bin/arstatus
يجب أن تظهر هذه الرسائل:
Cisco Prime Access Registrar Server Agent not running Cisco Prime Access Registrar GUI not running
الخطوة 1. أدخل موقع واجهة المستخدم الرسومية (GUI) Horizon المطابق للموقع (City) الذي يتم العمل عليه حاليا.
عند وصولك إلى الأفق، تكون الشاشة التي تمت ملاحظتها كما هو موضح في هذه الصورة.
الخطوة 2. انتقل إلى مشروع > مثيلات كما هو موضح في هذه الصورة.
إذا كان المستخدم يستخدم حماية مستوى التحكم (CPAR)، فلن يظهر في هذه القائمة سوى مثيلات المصادقة والتفويض والمحاسبة (AAA) الأربعة.
الخطوة 3. قم بإيقاف تشغيل مثيل واحد فقط في المرة الواحدة وكرر العملية بأكملها في هذا المستند. انتقل إلى إجراءات > إيقاف تشغيل المثيل كما هو موضح في الصورة، ثم أكد التحديد الخاص بك من أجل إيقاف تشغيل VM.
الخطوة 4. تحقق من أن المثيل تم إيقاف تشغيله بالفعل عن طريق التحقق من الحالة = إيقاف التشغيل وحالة الطاقة = إيقاف التشغيل كما هو موضح في هذه الصورة.
تنهي هذه الخطوة عملية إيقاف تشغيل وحدة المعالجة المركزية (CPAR).
بمجرد توقف أجهزة CPAR VM، يمكن أخذ اللقطات بشكل متوازي لأنها تنتمي إلى أجهزة كمبيوتر مستقلة.
يتم إنشاء ملفات QCOW2 الأربعة بالتوازي.
أخذ لقطة لكل مثيل AAA. (25 دقيقة -1 ساعة) (25 دقيقة للتواجدات التي تستخدم صورة البقرة كمصدر وساعة واحدة للتواجدات التي تستخدم صورة خام كمصدر)
3. انقر فوق إنشاء لقطة لمتابعة إنشاء اللقطة (يلزم تنفيذ ذلك على مثيل AAA المطابق) كما هو موضح في هذه الصورة.
4. بمجرد تنفيذ اللقطة، انقر فوق الصور وتحقق من أن كل شيء ينتهي ويبلغ عن عدم وجود مشاكل كما هو موضح في هذه الصورة.
5. تتمثل الخطوة التالية في تنزيل اللقطة على تنسيق QCOW2 ونقلها إلى كيان بعيد في حالة فقد OSPD أثناء هذه العملية. لتحقيق ذلك، قم بتعريف اللقطة عن طريق تشغيل الأمر show image-list على مستوى OSPD.
[root@elospd01 stack]# glance image-list +--------------------------------------+---------------------------+ | ID | Name | +--------------------------------------+---------------------------+ | 80f083cb-66f9-4fcf-8b8a-7d8965e47b1d | AAA-Temporary | | 22f8536b-3f3c-4bcc-ae1a-8f2ab0d8b950 | ELP1 cluman 10_09_2017 | | 70ef5911-208e-4cac-93e2-6fe9033db560 | ELP2 cluman 10_09_2017 | | e0b57fc9-e5c3-4b51-8b94-56cbccdf5401 | ESC-image | | 92dfe18c-df35-4aa9-8c52-9c663d3f839b | lgnaaa01-sept102017 | | 1461226b-4362-428b-bc90-0a98cbf33500 | tmobile-pcrf-13.1.1.iso | | 98275e15-37cf-4681-9bcc-d6ba18947d7b | tmobile-pcrf-13.1.1.qcow2 | +--------------------------------------+---------------------------+
6. بمجرد التعرف على اللقطة التي سيتم تنزيلها (اللقطة المعلمة بالأخضر)، يمكنك تنزيلها بتنسيق QCOW2 باستخدام نظرة الأمر وتنزيل الصورة كما هو موضح.
[root@elospd01 stack]# glance image-download 92dfe18c-df35-4aa9-8c52-9c663d3f839b --file /tmp/AAA-CPAR-LGNoct192017.qcow2 &
7. بمجرد انتهاء عملية التنزيل، يلزم تنفيذ عملية ضغط حيث يمكن ملء هذه اللقطة بأصفار بسبب العمليات والمهام والملفات المؤقتة التي يقوم نظام التشغيل بمعالجتها. الأمر الذي سيتم إستخدامه لضغط الملفات هو متغير الشكل.
[root@elospd01 stack]# virt-sparsify AAA-CPAR-LGNoct192017.qcow2 AAA-CPAR-LGNoct192017_compressed.qcow2
قد تستغرق هذه العملية بعض الوقت (حوالي 10 إلى 15 دقيقة). وبمجرد الانتهاء، يكون الملف الناتج هو الملف الذي يجب تحويله إلى كيان خارجي كما هو محدد في الخطوة التالية.
يلزم التحقق من تكامل الملف، لتحقيق ذلك، قم بتشغيل الأمر التالي وابحث عن السمة "corrupt" في نهاية مخرجها.
[root@wsospd01 tmp]# qemu-img info AAA-CPAR-LGNoct192017_compressed.qcow2 image: AAA-CPAR-LGNoct192017_compressed.qcow2 file format: qcow2 virtual size: 150G (161061273600 bytes) disk size: 18G cluster_size: 65536 Format specific information: compat: 1.1 lazy refcounts: false refcount bits: 16 corrupt: false
[stack@director ~]$ nova list --field name,host | grep osd-compute-0 | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | pod2-stack-compute-4.localdomain |
ملاحظة: في الإخراج المبين هنا، يتوافق العمود الأول مع المعرف الفريد العالمي (UUID)، بينما يمثل العمود الثاني اسم الجهاز الظاهري (VM) بينما يمثل العمود الثالث اسم المضيف الذي يوجد به الجهاز الظاهري. يتم إستخدام المعلمات من هذا الإخراج في الأقسام التالية.
[heat-admin@pod2-stack-osd-compute-0 ~]$ sudo ceph df GLOBAL: SIZE AVAIL RAW USED %RAW USED 13393G 11088G 2305G 17.21 POOLS: NAME ID USED %USED MAX AVAIL OBJECTS rbd 0 0 0 3635G 0 metrics 1 3452M 0.09 3635G 219421 images 2 138G 3.67 3635G 43127 backups 3 0 0 3635G 0 volumes 4 139G 3.70 3635G 36581 vms 5 490G 11.89 3635G 126247
[heat-admin@pod2-stack-osd-compute-0 ~]$ sudo ceph osd tree ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY -1 13.07996 root default -2 4.35999 host pod2-stack-osd-compute-0 0 1.09000 osd.0 up 1.00000 1.00000 3 1.09000 osd.3 up 1.00000 1.00000 6 1.09000 osd.6 up 1.00000 1.00000 9 1.09000 osd.9 up 1.00000 1.00000 -3 4.35999 host pod2-stack-osd-compute-1 1 1.09000 osd.1 up 1.00000 1.00000 4 1.09000 osd.4 up 1.00000 1.00000 7 1.09000 osd.7 up 1.00000 1.00000 10 1.09000 osd.10 up 1.00000 1.00000 -4 4.35999 host pod2-stack-osd-compute-2 2 1.09000 osd.2 up 1.00000 1.00000 5 1.09000 osd.5 up 1.00000 1.00000 8 1.09000 osd.8 up 1.00000 1.00000 11 1.09000 osd.11 up 1.00000 1.00000
[heat-admin@pod2-stack-osd-compute-0 ~]$ systemctl list-units *ceph* UNIT LOAD ACTIVE SUB DESCRIPTION var-lib-ceph-osd-ceph\x2d0.mount loaded active mounted /var/lib/ceph/osd/ceph-0 var-lib-ceph-osd-ceph\x2d3.mount loaded active mounted /var/lib/ceph/osd/ceph-3 var-lib-ceph-osd-ceph\x2d6.mount loaded active mounted /var/lib/ceph/osd/ceph-6 var-lib-ceph-osd-ceph\x2d9.mount loaded active mounted /var/lib/ceph/osd/ceph-9 ceph-osd@0.service loaded active running Ceph object storage daemon ceph-osd@3.service loaded active running Ceph object storage daemon ceph-osd@6.service loaded active running Ceph object storage daemon ceph-osd@9.service loaded active running Ceph object storage daemon system-ceph\x2ddisk.slice loaded active active system-ceph\x2ddisk.slice system-ceph\x2dosd.slice loaded active active system-ceph\x2dosd.slice ceph-mon.target loaded active active ceph target allowing to start/stop all ceph-mon@.service instances at once ceph-osd.target loaded active active ceph target allowing to start/stop all ceph-osd@.service instances at once ceph-radosgw.target loaded active active ceph target allowing to start/stop all ceph-radosgw@.service instances at once ceph.target loaded active active ceph target allowing to start/stop all ceph*@.service instances at once LOAD = Reflects whether the unit definition was properly loaded. ACTIVE = The high-level unit activation state, i.e. generalization of SUB. SUB = The low-level unit activation state, values depend on unit type.
14 loaded units listed. Pass --all to see loaded but inactive units, too. To show all installed unit files use 'systemctl list-unit-files'.
[heat-admin@pod2-stack-osd-compute-0 ~]# systemctl disable ceph-osd@0 [heat-admin@pod2-stack-osd-compute-0 ~]# systemctl stop ceph-osd@0 [heat-admin@pod2-stack-osd-compute-0 ~]# ceph osd out 0
[heat-admin@pod2-stack-osd-compute-0 ~]# ceph osd crush remove osd.0
[heat-admin@pod2-stack-osd-compute-0 ~]# ceph auth del osd.0
[heat-admin@pod2-stack-osd-compute-0 ~]# ceph osd rm 0
[heat-admin@pod2-stack-osd-compute-0 ~]# umount /var/lib/ceph.osd/ceph-0 [heat-admin@pod2-stack-osd-compute-0 ~]# rm -rf /var/lib/ceph.osd/ceph-0
أو ,
[heat-admin@pod2-stack-osd-compute-0 ~]$ sudo ls /var/lib/ceph/osd ceph-0 ceph-3 ceph-6 ceph-9
[heat-admin@pod2-stack-osd-compute-0 ~]$ /bin/sh clean.sh [heat-admin@pod2-stack-osd-compute-0 ~]$ cat clean.sh
#!/bin/sh set -x CEPH=`sudo ls /var/lib/ceph/osd` for c in $CEPH do i=`echo $c |cut -d'-' -f2` sudo systemctl disable ceph-osd@$i || (echo "error rc:$?"; exit 1) sleep 2 sudo systemctl stop ceph-osd@$i || (echo "error rc:$?"; exit 1) sleep 2 sudo ceph osd out $i || (echo "error rc:$?"; exit 1) sleep 2 sudo ceph osd crush remove osd.$i || (echo "error rc:$?"; exit 1) sleep 2 sudo ceph auth del osd.$i || (echo "error rc:$?"; exit 1) sleep 2 sudo ceph osd rm $i || (echo "error rc:$?"; exit 1) sleep 2 sudo umount /var/lib/ceph/osd/$c || (echo "error rc:$?"; exit 1) sleep 2 sudo rm -rf /var/lib/ceph/osd/$c || (echo "error rc:$?"; exit 1) sleep 2 done sudo ceph osd tree
بعد ترحيل/حذف كافة عمليات OSD، يمكن إزالة العقدة من السحابة الزائدة.
ملاحظة: عند إزالة CEPH، يمر RAID VNF HD بحالة متدهورة ولكن يجب الوصول إلى القرص الثابت.
إيقاف تشغيل الطاقة الرشيقة
[stack@director ~]$ nova stop aaa2-21 Request to stop server aaa2-21 has been accepted. [stack@director ~]$ nova list +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+ | ID | Name | Status | Task State | Power State | Networks | +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+ | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | ACTIVE | - | Running | tb1-mgmt=172.16.181.14, 10.225.247.233; radius-routable1=10.160.132.245; diameter-routable1=10.160.132.231 | | 3bc14173-876b-4d56-88e7-b890d67a4122 | aaa2-21 | SHUTOFF | - | Shutdown | diameter-routable1=10.160.132.230; radius-routable1=10.160.132.248; tb1-mgmt=172.16.181.7, 10.225.247.234 | | f404f6ad-34c8-4a5f-a757-14c8ed7fa30e | aaa21june | ACTIVE | - | Running | diameter-routable1=10.160.132.233; radius-routable1=10.160.132.244; tb1-mgmt=172.16.181.10 | +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+
الخطوات المذكورة في هذا قسم شائع بغض النظر عن VMs المستضافة في عقدة الحوسبة.
حذف عقدة OSD-Compute من قائمة الخدمات.
[stack@director ~]$ openstack compute service list |grep osd-compute | 135 | nova-compute | pod2-stack-osd-compute-1.localdomain | AZ-esc2 | enabled | up | 2018-06-22T11:05:22.000000 | | 150 | nova-compute | pod2-stack-osd-compute-2.localdomain | nova | enabled | up | 2018-06-22T11:05:17.000000 | | 153 | nova-compute | pod2-stack-osd-compute-0.localdomain | AZ-esc1 | enabled | up | 2018-06-22T11:05:25.000000 |
[stack@director ~]$ openstack compute service delete 150
حذف عوامل النترونات
[stack@director ~]$ openstack network agent list | grep osd-compute-0 | eaecff95-b163-4cde-a99d-90bd26682b22 | Open vSwitch agent | pod2-stack-osd-compute-0.localdomain | None | True | UP | neutron-openvswitch-agent |
[stack@director ~]$ openstack network agent delete eaecff95-b163-4cde-a99d-90bd26682b22
حذف من قاعدة البيانات التهكمية
[root@director ~]# nova list | grep osd-compute-0 | 6810c884-1cb9-4321-9a07-192443920f1f | pod2-stack-osd-compute-0 | ACTIVE | - | Running | ctlplane=192.200.0.109 | [root@al03-pod2-ospd ~]$ nova delete 6810c884-1cb9-4321-9a07-192443920f1f
[root@director ~]# source stackrc [root@director ~]# nova show pod2-stack-osd-compute-0 | grep hypervisor | OS-EXT-SRV-ATTR:hypervisor_hostname | 05ceb513-e159-417d-a6d6-cbbcc4b167d7
[stack@director ~]$ ironic node-delete 05ceb513-e159-417d-a6d6-cbbcc4b167d7 [stack@director ~]$ ironic node-list
يجب عدم إدراج العقدة التي تم حذفها الآن في قائمة العقد غير المعروفة.
حذف من Overcloud
openstack overcloud node delete --templates -e /usr/share/openstack-tripleo-heat-templates/environments/puppet-pacemaker.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/network-isolation.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/storage-environment.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/neutron-sriov.yaml -e /home/stack/custom-templates/network.yaml -e /home/stack/custom-templates/ceph.yaml -e /home/stack/custom-templates/compute.yaml -e /home/stack/custom-templates/layout.yaml -e /home/stack/custom-templates/layout.yaml --stack <stack-name> <UUID>
[stack@director ~]$ source stackrc [stack@director ~]$ /bin/sh delete_node.sh + openstack overcloud node delete --templates -e /usr/share/openstack-tripleo-heat-templates/environments/puppet-pacemaker.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/network-isolation.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/storage-environment.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/neutron-sriov.yaml -e /home/stack/custom-templates/network.yaml -e /home/stack/custom-templates/ceph.yaml -e /home/stack/custom-templates/compute.yaml -e /home/stack/custom-templates/layout.yaml -e /home/stack/custom-templates/layout.yaml --stack pod2-stack 7439ea6c-3a88-47c2-9ff5-0a4f24647444 Deleting the following nodes from stack pod2-stack: - 7439ea6c-3a88-47c2-9ff5-0a4f24647444 Started Mistral Workflow. Execution ID: 4ab4508a-c1d5-4e48-9b95-ad9a5baa20ae real 0m52.078s user 0m0.383s sys 0m0.086s
[stack@director ~]$ openstack stack list +--------------------------------------+------------+-----------------+----------------------+----------------------+ | ID | Stack Name | Stack Status | Creation Time | Updated Time | +--------------------------------------+------------+-----------------+----------------------+----------------------+ | 5df68458-095d-43bd-a8c4-033e68ba79a0 | pod2-stack | UPDATE_COMPLETE | 2018-05-08T21:30:06Z | 2018-05-08T20:42:48Z | +--------------------------------------+------------+-----------------+----------------------+----------------------+
تثبيت عقدة حوسبة جديدة
دليل خدمة وتثبيت الخادم Cisco UCS C240 M4
دليل ترقية BIOS الخاص بالخادم المركب على حامل Cisco UCS C-Series
انتقل إلى وحدة التخزين > وحدة التحكم RAID النمطية Cisco 12G SAS (slot-HBA) > معلومات محرك الأقراص المادية كما هو موضح في هذه الصورة.
انتقل إلى وحدة التخزين > وحدة التحكم RAID النمطية Cisco 12G SAS (slot-HBA) > معلومات وحدة التحكم > إنشاء محرك أقراص ظاهري من محركات الأقراص المادية غير المستخدمة كما هو موضح في هذه الصورة.
انتقل إلى Admin > Communication Services (خدمات الاتصالات) > Communication Services (خدمات الاتصالات) كما هو موضح في الصورة.
انتقل إلى الحوسبة > BIOS > تكوين BIOS > متقدم > تهيئة المعالج كما هو موضح في الصورة.
JOURNAL > From physical drive number 3 OSD1 > From physical drive number 7 OSD2 > From physical drive number 8 OSD3 > From physical drive number 9 OSD4 > From physical drive number 10
ملاحظة: ترتبط الصورة الموضحة هنا وخطوات التكوين المذكورة في هذا القسم بالإصدار 3.0(3e) من البرنامج الثابت، وقد تكون هناك إختلافات طفيفة إذا كنت تعمل على إصدارات أخرى.
إضافة عقدة OSD-Compute جديدة إلى Overcloud
الخطوات المذكورة في هذا القسم عامة بغض النظر عن VM المستضاف من قبل عقدة الحوسبة.
قم بإنشاء ملف add_node.json مع تفاصيل خادم الكمبيوتر الجديد الذي ستتم إضافته. تأكد من عدم إستخدام رقم الفهرس الخاص بخادم الكمبيوتر الجديد من قبل. في العادة، زيادة أعلى قيمة حوسبة تالية.
على سبيل المثال، كان أعلى مستوى سابق هو OSD-compute-17، وبالتالي، تم إنشاء OSD-compute-18 في حالة نظام 2VNF.
ملاحظة: ضع في اعتبارك صيغة json.
[stack@director ~]$ cat add_node.json { "nodes":[ { "mac":[ "<MAC_ADDRESS>" ], "capabilities": "node:osd-compute-3,boot_option:local", "cpu":"24", "memory":"256000", "disk":"3000", "arch":"x86_64", "pm_type":"pxe_ipmitool", "pm_user":"admin", "pm_password":"<PASSWORD>", "pm_addr":"192.100.0.5" } ] }
[stack@director ~]$ openstack baremetal import --json add_node.json Started Mistral Workflow. Execution ID: 78f3b22c-5c11-4d08-a00f-8553b09f497d Successfully registered node UUID 7eddfa87-6ae6-4308-b1d2-78c98689a56e Started Mistral Workflow. Execution ID: 33a68c16-c6fd-4f2a-9df9-926545f2127e Successfully set all nodes to available.
[stack@director ~]$ openstack baremetal node manage 7eddfa87-6ae6-4308-b1d2-78c98689a56e [stack@director ~]$ ironic node-list |grep 7eddfa87 | 7eddfa87-6ae6-4308-b1d2-78c98689a56e | None | None | power off | manageable | False | [stack@director ~]$ openstack overcloud node introspect 7eddfa87-6ae6-4308-b1d2-78c98689a56e --provide Started Mistral Workflow. Execution ID: e320298a-6562-42e3-8ba6-5ce6d8524e5c Waiting for introspection to finish... Successfully introspected all nodes. Introspection completed. Started Mistral Workflow. Execution ID: c4a90d7b-ebf2-4fcb-96bf-e3168aa69dc9 Successfully set all nodes to available. [stack@director ~]$ ironic node-list |grep available | 7eddfa87-6ae6-4308-b1d2-78c98689a56e | None | None | power off | available | False |
OsdComputeIPs:
internal_api: - 11.120.0.43 - 11.120.0.44 - 11.120.0.45 - 11.120.0.43 <<< take osd-compute-0 .43 and add here tenant: - 11.117.0.43 - 11.117.0.44 - 11.117.0.45 - 11.117.0.43 << and here storage: - 11.118.0.43 - 11.118.0.44 - 11.118.0.45 - 11.118.0.43 << and here storage_mgmt: - 11.119.0.43 - 11.119.0.44 - 11.119.0.45 - 11.119.0.43 << and here
[stack@director ~]$ ./deploy.sh ++ openstack overcloud deploy --templates -r /home/stack/custom-templates/custom-roles.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/puppet-pacemaker.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/network-isolation.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/storage-environment.yaml -e /usr/share/openstack-tripleo-heat-templates/environments/neutron-sriov.yaml -e /home/stack/custom-templates/network.yaml -e /home/stack/custom-templates/ceph.yaml -e /home/stack/custom-templates/compute.yaml -e /home/stack/custom-templates/layout.yaml --stack ADN-ultram --debug --log-file overcloudDeploy_11_06_17__16_39_26.log --ntp-server 172.24.167.109 --neutron-flat-networks phys_pcie1_0,phys_pcie1_1,phys_pcie4_0,phys_pcie4_1 --neutron-network-vlan-ranges datacentre:1001:1050 --neutron-disable-tunneling --verbose --timeout 180 … Starting new HTTP connection (1): 192.200.0.1 "POST /v2/action_executions HTTP/1.1" 201 1695 HTTP POST http://192.200.0.1:8989/v2/action_executions 201 Overcloud Endpoint: http://10.1.2.5:5000/v2.0 Overcloud Deployed clean_up DeployOvercloud: END return value: 0 real 38m38.971s user 0m3.605s sys 0m0.466s
[stack@director ~]$ openstack stack list +--------------------------------------+------------+-----------------+----------------------+----------------------+ | ID | Stack Name | Stack Status | Creation Time | Updated Time | +--------------------------------------+------------+-----------------+----------------------+----------------------+ | 5df68458-095d-43bd-a8c4-033e68ba79a0 | ADN-ultram | UPDATE_COMPLETE | 2017-11-02T21:30:06Z | 2017-11-06T21:40:58Z | +--------------------------------------+------------+-----------------+----------------------+----------------------+
[stack@director ~]$ source stackrc [stack@director ~]$ nova list |grep osd-compute-3 | 0f2d88cd-d2b9-4f28-b2ca-13e305ad49ea | pod1-osd-compute-3 | ACTIVE | - | Running | ctlplane=192.200.0.117 | [stack@director ~]$ source corerc [stack@director ~]$ openstack hypervisor list |grep osd-compute-3 | 63 | pod1-osd-compute-3.localdomain |
[heat-admin@pod1-osd-compute-3 ~]$ sudo ceph -s cluster eb2bb192-b1c9-11e6-9205-525400330666 health HEALTH_WARN 223 pgs backfill_wait 4 pgs backfilling 41 pgs degraded 227 pgs stuck unclean 41 pgs undersized recovery 45229/1300136 objects degraded (3.479%) recovery 525016/1300136 objects misplaced (40.382%) monmap e1: 3 mons at {Pod1-controller-0=11.118.0.40:6789/0,Pod1-controller-1=11.118.0.41:6789/0,Pod1-controller-2=11.118.0.42:6789/0} election epoch 58, quorum 0,1,2 Pod1-controller-0,Pod1-controller-1,Pod1-controller-2 osdmap e986: 12 osds: 12 up, 12 in; 225 remapped pgs flags sortbitwise,require_jewel_osds pgmap v781746: 704 pgs, 6 pools, 533 GB data, 344 kobjects 1553 GB used, 11840 GB / 13393 GB avail 45229/1300136 objects degraded (3.479%) 525016/1300136 objects misplaced (40.382%) 477 active+clean 186 active+remapped+wait_backfill 37 active+undersized+degraded+remapped+wait_backfill 4 active+undersized+degraded+remapped+backfilling
[heat-admin@pod1-osd-compute-3 ~]$ sudo ceph -s
cluster eb2bb192-b1c9-11e6-9205-525400330666 health HEALTH_OK monmap e1: 3 mons at {Pod1-controller-0=11.118.0.40:6789/0,Pod1-controller-1=11.118.0.41:6789/0,Pod1-controller-2=11.118.0.42:6789/0} election epoch 58, quorum 0,1,2 Pod1-controller-0,Pod1-controller-1,Pod1-controller-2 osdmap e1398: 12 osds: 12 up, 12 in flags sortbitwise,require_jewel_osds pgmap v784311: 704 pgs, 6 pools, 533 GB data, 344 kobjects 1599 GB used, 11793 GB / 13393 GB avail 704 active+clean client io 8168 kB/s wr, 0 op/s rd, 32 op/s wr [heat-admin@pod1-osd-compute-3 ~]$ sudo ceph osd tree ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY -1 13.07996 root default -2 0 host pod1-osd-compute-0 -3 4.35999 host pod1-osd-compute-2 1 1.09000 osd.1 up 1.00000 1.00000 4 1.09000 osd.4 up 1.00000 1.00000 7 1.09000 osd.7 up 1.00000 1.00000 10 1.09000 osd.10 up 1.00000 1.00000 -4 4.35999 host pod1-osd-compute-1 2 1.09000 osd.2 up 1.00000 1.00000 5 1.09000 osd.5 up 1.00000 1.00000 8 1.09000 osd.8 up 1.00000 1.00000 11 1.09000 osd.11 up 1.00000 1.00000 -5 4.35999 host pod1-osd-compute-3 0 1.09000 osd.0 up 1.00000 1.00000 3 1.09000 osd.3 up 1.00000 1.00000 6 1.09000 osd.6 up 1.00000 1.00000 9 1.09000 osd.9 up 1.00000 1.00000
من الممكن إعادة نشر المثيل السابق مع أخذ اللقطة في الخطوات السابقة.
الخطوة 1. (إختياري) إذا لم تكن هناك لقطة VM سابقة متوفرة، فقم بالاتصال بعقدة OSPD حيث تم إرسال النسخ الاحتياطي و SFTP النسخة الاحتياطية مرة أخرى إلى عقدة OSPD الأصلية الخاصة بها. باستخدام SFTP root@x.x.x.xwhere x.x.x.x هو عنوان IP الخاص ب OSPD الأصلي. احفظ ملف اللقطة في دليل /tmp.
الخطوة 2. الاتصال بعقدة OSPD حيث يتم إعادة نشر المثيل.
مصدر متغيرات البيئة باستخدام هذا الأمر:
# source /home/stack/pod1-stackrc-Core-CPAR
الخطوة 3. لاستخدام اللقطة كصورة، من الضروري تحميلها إلى الأفق على هذا النحو. قم بتشغيل الأمر التالي للقيام بذلك.
#glance image-create -- AAA-CPAR-Date-snapshot.qcow2 --container-format bare --disk-format qcow2 --name AAA-CPAR-Date-snapshot
يمكن رؤية العملية في الأفق كما هو موضح في هذه الصورة.
الخطوة 4. في الأفق، انتقل إلى مشروع > مثيلات وانقر مثيل طول كما هو موضح في هذه الصورة.
الخطوة 5. أدخل اسم المثيل واختر منطقة التوفر كما هو موضح في هذه الصورة.
الخطوة 6. في علامة التبويب مصدر، أختر الصورة لإنشاء المثيل. في قائمة تحديد مصدر التمهيد، حدد الصورة، يتم عرض قائمة من الصور، أختر الصورة التي تم تحميلها مسبقا بواسطة النقر فوق علامة + الخاصة بها كما هو موضح في هذه الصورة.
الخطوة 7. في علامة النكهة، أختر النكهة AAA بالنقر فوق علامة + كما هو موضح في هذه الصورة.
الخطوة 8. أخيرا، انتقل إلى علامة التبويب الشبكة واختر الشبكات التي يحتاجها المثيل بالنقر فوق علامة +. بالنسبة لهذه الحالة، حدد القطر-القابل للتوزيع 1 ونصف القطر-routable1 وtb1-mgmt كما هو موضح في هذه الصورة.
الخطوة 9. أخيرا، انقر فوق تشغيل المثيل لإنشائه. يمكن مراقبة التقدم في الأفق كما هو موضح في هذه الصورة.
بعد دقائق قليلة، سيتم نشر المثيل بالكامل وجاهز للاستخدام.
عنوان IP العائم هو عنوان قابل للتوجيه، مما يعني أنه يمكن الوصول إليه من خارج بنية Ultra M/OpenStack، وأنه قادر على الاتصال بالعقد الأخرى من الشبكة.
الخطوة 1. في قائمة Horizon top، انتقل إلى Admin > عناوين IP المتحركة.
الخطوة 2. انقر فوق تخصيص IP للمشروع.
الخطوة 3. في نافذة تخصيص IP العائم، حدد التجمع الذي ينتمي إليه IP العائم الجديد، والمشروع الذي سيتم تعيينه فيه، وعنوان IP العائم الجديد نفسه.
على سبيل المثال:
الخطوة 4. انقر فوق تخصيص IP العائم.
الخطوة 5. في قائمة أعلى الأفق، انتقل إلى مشروع > مثيلات.
الخطوة 6. في عامود العملية، انقر على السهم الذي يشير لأسفل في زر إنشاء لقطة، يجب عرض القائمة. حدد خيار إقران IP العائم.
الخطوة 7. حدد عنوان IP العائم المتوافق المطلوب إستخدامه في حقل عنوان IP، واختر واجهة الإدارة المطابقة (eth0) من المثيل الجديد حيث سيتم تعيين IP العائم هذا في المنفذ المراد اقترانه. ارجع إلى الصورة التالية كمثال على هذا الإجراء.
الخطوة 8. أخيرا، انقر إقران.
الخطوة 1. في قائمة أعلى الأفق، انتقل إلى مشروع > مثيلات.
الخطوة 2. انقر فوق اسم المثيل/VM الذي تم إنشاؤه في القسم Lunch مثيل جديد.
الخطوة 3. انقر فوق وحدة التحكم. سيؤدي هذا إلى عرض واجهة سطر الأوامر (CLI) الخاصة ب VM.
الخطوة 4. بمجرد عرض واجهة سطر الأوامر (CLI)، أدخل بيانات اعتماد تسجيل الدخول المناسبة:
اسم المستخدم: الجذر
كلمة المرور: Cisco123 كما هو موضح في هذه الصورة.
الخطوة 5. في واجهة سطر الأوامر (CLI)، قم بتشغيل الأمر vi /etc/ssh/ssh_config لتحرير تكوين SSH.
الخطوة 6. بمجرد فتح ملف تكوين SSH، اضغط على i لتحرير الملف. ثم ابحث عن المقطع الموضح هنا وقم بتغيير السطر الأول من مصادقة كلمة المرور no إلى مصادقة كلمة المرور نعم.
الخطوة 7. اضغط على ESC وأدخل :wq! لحفظ تغييرات ملف sshD_config.
الخطوة 8. قم بتشغيل إعادة تشغيل خدمة الأوامر.
الخطوة 9. لاختبار تغييرات تكوين SSH التي تم تطبيقها بشكل صحيح، افتح أي عميل SSH وحاول إنشاء اتصال آمن عن بعد باستخدام عنوان IP العائم الذي تم تعيينه للمثيل (أي 10.145.0.249) وجذر المستخدم.
الخطوة 1. افتح جلسة SSH باستخدام عنوان IP الخاص ب VM/server المتوافق حيث يتم تثبيت التطبيق كما هو موضح في هذه الصورة.
اتبع هذه الخطوات بمجرد اكتمال النشاط وإعادة إنشاء خدمات حماية مستوى التحكم (CPAR) في الموقع الذي تم إغلاقه.
الخطوة 1. قم بتسجيل الدخول مرة أخرى إلى الأفق، انتقل إلى مشروع > مثيل > بدء مثيل.
الخطوة 2. تحقق من أن حالة المثيل هي Active وحالة الطاقة قيد التشغيل كما هو موضح في هذه الصورة.
الخطوة 1. قم بتشغيل الأمر /opt/ciscoAr/bin/arstatus على مستوى نظام التشغيل:
[root@wscaaa04 ~]# /opt/CSCOar/bin/arstatus Cisco Prime AR RADIUS server running (pid: 24834) Cisco Prime AR Server Agent running (pid: 24821) Cisco Prime AR MCD lock manager running (pid: 24824) Cisco Prime AR MCD server running (pid: 24833) Cisco Prime AR GUI running (pid: 24836) SNMP Master Agent running (pid: 24835) [root@wscaaa04 ~]#
الخطوة 2. قم بتشغيل الأمر /opt/ciscoAr/bin/regcmd على مستوى نظام التشغيل وأدخل بيانات اعتماد المسؤول. تحقق من أن حماية CPAr هي 10 من 10 وواجهة سطر الأوامر (CLI) الخاصة بحماية مستوى التحكم (CPAR) للخروج.
[root@aaa02 logs]# /opt/CSCOar/bin/aregcmd Cisco Prime Access Registrar 7.3.0.1 Configuration Utility Copyright (C) 1995-2017 by Cisco Systems, Inc. All rights reserved. Cluster: User: admin Passphrase: Logging in to localhost [ //localhost ] LicenseInfo = PAR-NG-TPS 7.2(100TPS:) PAR-ADD-TPS 7.2(2000TPS:) PAR-RDDR-TRX 7.2() PAR-HSS 7.2() Radius/ Administrators/ Server 'Radius' is Running, its health is 10 out of 10 --> exit
الخطوة 3. قم بتشغيل الأمر netstat | قطر الشحم والتحقق من إنشاء جميع إتصالات DRA.
الناتج المذكور هنا هو لبيئة حيث يتوقع وجود روابط القطر. إذا تم عرض عدد أقل من الارتباطات، فإن ذلك يمثل انفصالا عن DRA الذي يحتاج إلى التحليل.
[root@aa02 logs]# netstat | grep diameter tcp 0 0 aaa02.aaa.epc.:77 mp1.dra01.d:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:36 tsa6.dra01:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:47 mp2.dra01.d:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:07 tsa5.dra01:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:08 np2.dra01.d:diameter ESTABLISHED
الخطوة 4. تحقق من أن سجل TPS يظهر الطلبات التي تتم معالجتها بواسطة CPAR. القيم المبرزة تمثل TPS وتلك هي التي تحتاج إلى الانتباه إليها.
يجب ألا تتجاوز قيمة TPS 1500.
[root@wscaaa04 ~]# tail -f /opt/CSCOar/logs/tps-11-21-2017.csv 11-21-2017,23:57:35,263,0 11-21-2017,23:57:50,237,0 11-21-2017,23:58:05,237,0 11-21-2017,23:58:20,257,0 11-21-2017,23:58:35,254,0 11-21-2017,23:58:50,248,0 11-21-2017,23:59:05,272,0 11-21-2017,23:59:20,243,0 11-21-2017,23:59:35,244,0 11-21-2017,23:59:50,233,0
الخطوة 5. ابحث عن أي رسائل "خطأ" أو "تنبيه" في name_radius_1_log.
[root@aaa02 logs]# grep -E "error|alarm" name_radius_1_log
الخطوة 6. للتحقق من مقدار الذاكرة الذي تستخدمه عملية حماية مستوى التحكم (CPAR)، قم بتشغيل الأمر:
top | grep radius
[root@sfraaa02 ~]# top | grep radius 27008 root 20 0 20.228g 2.413g 11408 S 128.3 7.7 1165:41 radius
يجب أن تكون هذه القيمة المميزة أقل من 7 جيجابايت، وهو الحد الأقصى المسموح به على مستوى التطبيق.