تسعى مجموعة الوثائق لهذا المنتج جاهدة لاستخدام لغة خالية من التحيز. لأغراض مجموعة الوثائق هذه، يتم تعريف "خالية من التحيز" على أنها لغة لا تعني التمييز على أساس العمر، والإعاقة، والجنس، والهوية العرقية، والهوية الإثنية، والتوجه الجنسي، والحالة الاجتماعية والاقتصادية، والتمييز متعدد الجوانب. قد تكون الاستثناءات موجودة في الوثائق بسبب اللغة التي يتم تشفيرها بشكل ثابت في واجهات المستخدم الخاصة ببرنامج المنتج، أو اللغة المستخدمة بناءً على وثائق RFP، أو اللغة التي يستخدمها منتج الجهة الخارجية المُشار إليه. تعرّف على المزيد حول كيفية استخدام Cisco للغة الشاملة.
ترجمت Cisco هذا المستند باستخدام مجموعة من التقنيات الآلية والبشرية لتقديم محتوى دعم للمستخدمين في جميع أنحاء العالم بلغتهم الخاصة. يُرجى ملاحظة أن أفضل ترجمة آلية لن تكون دقيقة كما هو الحال مع الترجمة الاحترافية التي يقدمها مترجم محترف. تخلي Cisco Systems مسئوليتها عن دقة هذه الترجمات وتُوصي بالرجوع دائمًا إلى المستند الإنجليزي الأصلي (الرابط متوفر).
يصف هذا المستند الخطوات المطلوبة لاستبدال المكونات المعيبة المذكورة هنا في خادم نظام الحوسبة الموحدة (UCS) في إعداد Ultra-M.
ينطبق هذا الإجراء على بيئة OpenStack باستخدام إصدار NewTon حيث لا يقوم ESC بإدارة CPAR ويتم تثبيت CPAR مباشرة على VM الذي تم نشره على OpenStack.
Ultra-M هو حل أساسي لحزم الأجهزة المحمولة تم تجميعه في حزم مسبقا والتحقق من صحته افتراضيا تم تصميمه من أجل تبسيط نشر شبكات VNF. OpenStack هو مدير البنية الأساسية الظاهرية (VIM) ل Ultra-M ويتكون من أنواع العقد التالية:
تم توضيح البنية المعمارية عالية المستوى لتقنية Ultra-M والمكونات المعنية في هذه الصورة:
مخصص هذا المستند لأفراد Cisco المطلعين على نظام Cisco Ultra-M الأساسي ويفصل الخطوات المطلوبة لتنفيذها في نظام التشغيل OpenStack و Redhat.
ملاحظة: يتم النظر في الإصدار Ultra M 5.1.x لتحديد الإجراءات الواردة في هذا المستند.
مو بي | طريقة إجرائية |
OSD | أقراص تخزين الكائنات |
OSPD | مدير النظام الأساسي ل OpenStack |
محرك الأقراص الثابتة | محرك الأقراص الثابتة |
محرك أقراص مزود بذاكرة مصنوعة من مكونات صلبة | محرك أقراص في الحالة الصلبة |
فيم | مدير البنية الأساسية الظاهرية |
VM | جهاز ظاهري |
إم | مدير العناصر |
UAS | خدمات أتمتة Ultra |
uID | المعرف الفريد العالمي |
قبل إستبدال مكون معيب، من المهم التحقق من الحالة الحالية لبيئة النظام الأساسي ل Red Hat OpenStack. يوصى بالتحقق من الحالة الحالية لتجنب المضاعفات عند تشغيل عملية الاستبدال. ويمكن تحقيقه من خلال هذا التدفق من الاستبدال.
في حالة الاسترداد، توصي Cisco بإجراء نسخ إحتياطي لقاعدة بيانات OSPD باستخدام الخطوات التالية:
[root@director ~]# mysqldump --opt --all-databases > /root/undercloud-all-databases.sql
[root@director ~]# tar --xattrs -czf undercloud-backup-`date +%F`.tar.gz /root/undercloud-all-databases.sql
/etc/my.cnf.d/server.cnf /var/lib/glance/images /srv/node /home/stack
tar: Removing leading `/' from member names
تضمن هذه العملية إمكانية إستبدال عقدة دون التأثير على توفر أي مثيلات. كما يوصى بإجراء نسخ إحتياطي لتكوين نظام التشغيل StarOS، خاصة إذا كانت عقدة الحوسبة/نظام التشغيل المفتوح (OSD) التي سيتم إستبدالها تستضيف جهاز التحكم الظاهري (VM) لوظيفة التحكم.
ملاحظة: إذا كان الخادم هو عقدة وحدة التحكم، فقم بالمتابعة إلى القسم ""، وإلا استمر مع القسم التالي. تأكد من أن لديك لقطة للمثيل بحيث يمكنك إستعادة الجهاز الظاهري عند الحاجة. اتبع الإجراء المتعلق بكيفية إلتقاط لقطة للآلة الافتراضية.
حدد الأجهزة الافتراضية (VM) المستضافة على الخادم.
[stack@al03-pod2-ospd ~]$ nova list --field name,host +--------------------------------------+---------------------------+----------------------------------+ | ID | Name | Host | +--------------------------------------+---------------------------+----------------------------------+ | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | pod2-stack-compute-4.localdomain | | 3bc14173-876b-4d56-88e7-b890d67a4122 | aaa2-21 | pod2-stack-compute-3.localdomain | | f404f6ad-34c8-4a5f-a757-14c8ed7fa30e | aaa21june | pod2-stack-compute-3.localdomain | +--------------------------------------+---------------------------+----------------------------------+
ملاحظة: في الإخراج المعروض هنا، يتوافق العمود الأول مع UUID، بينما يمثل العمود الثاني اسم VM، أما العمود الثالث فهو اسم المضيف حيث يوجد VM. سيتم إستخدام المعلمات من هذا الإخراج في الأقسام التالية.
النسخ الاحتياطي: معالجة اللقطة
الخطوة 1. افتح أي عميل SSH متصل بشبكة إنتاج TMO واتصل بمثيل CPAR.
من المهم عدم إيقاف تشغيل جميع مثيلات المصادقة والتفويض والمحاسبة (AAA) الأربعة داخل موقع واحد في نفس الوقت، والقيام بذلك بطريقة واحدة.
الخطوة 2. لإيقاف تشغيل تطبيق حماية مستوى التحكم (CPAR)، قم بتشغيل الأمر:
/opt/CSCOar/bin/arserver stop
يجب ظهور رسالة "اكتمال إيقاف تشغيل وكيل خادم Cisco Prime Access Registrar".
ملاحظة: إذا ترك مستخدم جلسة CLI مفتوحة، فلن يعمل الأمر arserver stop" ويتم عرض هذه الرسالة:
ERROR: You cannot shut down Cisco Prime Access Registrar while the CLI is being used. Current list of running CLI with process id is: 2903 /opt/CSCOar/bin/aregcmd –s
في هذا المثال، يلزم إنهاء معرف العملية 2903 الذي تم تمييزه قبل التمكن من إيقاف حماية مستوى التحكم (CPAR). إذا كان هذا هو الحال، فقم بإنهاء هذه العملية بتشغيل الأمر:
kill -9 *process_id*
ثم كرر الخطوة 1.
الخطوة 3. للتحقق من إيقاف تشغيل تطبيق حماية مستوى التحكم (CPAR) بالفعل، قم بتشغيل الأمر:
/opt/CSCOar/bin/arstatus
يجب أن تظهر هذه الرسائل:
Cisco Prime Access Registrar Server Agent not running Cisco Prime Access Registrar GUI not running
الخطوة 1. أدخل موقع واجهة المستخدم الرسومية (GUI) Horizon المطابق للموقع (City) الذي يتم العمل عليه حاليا.
عند الوصول إلى الأفق، يتم ملاحظة هذه الشاشة.
الخطوة 2. انتقل إلى مشروع > مثيلات كما هو موضح في هذه الصورة.
إذا كان المستخدم المستخدم هو حماية مستوى التحكم (CPAR)، فلن يظهر في هذه القائمة سوى مثيلات المصادقة والتفويض والمحاسبة (AAA) الأربعة.
الخطوة 3. قم بإيقاف تشغيل مثيل واحد فقط في المرة الواحدة، كرر العملية بأكملها في هذا المستند. لإيقاف تشغيل VM، انتقل إلى إجراءات > إيقاف تشغيل المثيل كما هو موضح في هذه الصورة وأكد التحديد الخاص بك.
الخطوة 4. تحقق من أن المثيل تم إيقاف تشغيله بالفعل عن طريق التحقق من الحالة = إيقاف التشغيل وحالة الطاقة = إيقاف التشغيل كما هو موضح في هذه الصورة.
تنهي هذه الخطوة عملية إيقاف تشغيل وحدة المعالجة المركزية (CPAR).
بمجرد توقف أجهزة CPAR VM، يمكن أخذ اللقطات بشكل متوازي، لأنها تنتمي إلى أجهزة كمبيوتر مستقلة.
يتم إنشاء ملفات QCOW2 الأربعة بالتوازي.
أخذ لقطة لكل مثيل AAA (25 دقيقة -1 ساعة) (25 دقيقة للتواجدات التي تستخدم صورة QCOW كمصدر وساعة للتواجدات التي تستخدم صورة خام كمصدر)
3. انقر فوق إنشاء لقطة لمتابعة إنشاء اللقطة (يلزم تنفيذ ذلك على مثيل AAA المطابق) كما هو موضح في هذه الصورة.
4. بمجرد تنفيذ اللقطة، انتقل إلى قائمة الصور وتحقق من أن كل شيء ينتهي وأبلغ عن عدم وجود مشاكل كما هو موضح في هذه الصورة.
5. تتمثل الخطوة التالية في تنزيل اللقطة على تنسيق QCOW2 ونقلها إلى كيان بعيد في حالة فقد OSPD أثناء هذه العملية. لتحقيق ذلك، قم بتعريف اللقطة عن طريق تشغيل الأمر show image-list على مستوى OSPD.
[root@elospd01 stack]# glance image-list +--------------------------------------+---------------------------+ | ID | Name | +--------------------------------------+---------------------------+ | 80f083cb-66f9-4fcf-8b8a-7d8965e47b1d | AAA-Temporary | | 22f8536b-3f3c-4bcc-ae1a-8f2ab0d8b950 | ELP1 cluman 10_09_2017 | | 70ef5911-208e-4cac-93e2-6fe9033db560 | ELP2 cluman 10_09_2017 | | e0b57fc9-e5c3-4b51-8b94-56cbccdf5401 | ESC-image | | 92dfe18c-df35-4aa9-8c52-9c663d3f839b | lgnaaa01-sept102017 | | 1461226b-4362-428b-bc90-0a98cbf33500 | tmobile-pcrf-13.1.1.iso | | 98275e15-37cf-4681-9bcc-d6ba18947d7b | tmobile-pcrf-13.1.1.qcow2 | +--------------------------------------+---------------------------+
6. بمجرد التعرف على اللقطة التي تريد تنزيلها (اللقطة المعلمة بالأخضر)، يمكنك تنزيلها بتنسيق QCOW2 باستخدام نظرة الأمر وتنزيلها كما هو موضح هنا.
[root@elospd01 stack]# glance image-download 92dfe18c-df35-4aa9-8c52-9c663d3f839b --file /tmp/AAA-CPAR-LGNoct192017.qcow2 &
7. بمجرد انتهاء عملية التنزيل، يلزم تنفيذ عملية ضغط حيث يمكن ملء هذه اللقطة بأصفار بسبب العمليات والمهام والملفات المؤقتة التي يعالجها نظام التشغيل (OS). الأمر الذي سيتم إستخدامه لضغط الملفات هو متغير الشكل.
[root@elospd01 stack]# virt-sparsify AAA-CPAR-LGNoct192017.qcow2 AAA-CPAR-LGNoct192017_compressed.qcow2
قد تستغرق هذه العملية بعض الوقت (حوالي 10 إلى 15 دقيقة). وبمجرد الانتهاء، يكون الملف الناتج هو الملف الذي يجب تحويله إلى كيان خارجي كما هو محدد في الخطوة التالية.
يلزم التحقق من تكامل الملف، لتحقيق ذلك، قم بتشغيل الأمر التالي وابحث عن السمة "corrupt" في نهاية مخرجها.
[root@wsospd01 tmp]# qemu-img info AAA-CPAR-LGNoct192017_compressed.qcow2 image: AAA-CPAR-LGNoct192017_compressed.qcow2 file format: qcow2 virtual size: 150G (161061273600 bytes) disk size: 18G cluster_size: 65536 Format specific information: compat: 1.1 lazy refcounts: false refcount bits: 16 corrupt: false
[stack@director ~]$ nova stop aaa2-21 Request to stop server aaa2-21 has been accepted. [stack@director ~]$ nova list +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+ | ID | Name | Status | Task State | Power State | Networks | +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+ | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | ACTIVE | - | Running | tb1-mgmt=172.16.181.14, 10.225.247.233; radius-routable1=10.160.132.245; diameter-routable1=10.160.132.231 | | 3bc14173-876b-4d56-88e7-b890d67a4122 | aaa2-21 | SHUTOFF | - | Shutdown | diameter-routable1=10.160.132.230; radius-routable1=10.160.132.248; tb1-mgmt=172.16.181.7, 10.225.247.234 | | f404f6ad-34c8-4a5f-a757-14c8ed7fa30e | aaa21june | ACTIVE | - | Running | diameter-routable1=10.160.132.233; radius-routable1=10.160.132.244; tb1-mgmt=172.16.181.10 | +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+
قم بإيقاف تشغيل الخادم المحدد. يمكن الإشارة إلى الخطوات الخاصة باستبدال مكون معيب على خادم UCS C240 M4 من:
عملية الاسترداد
من الممكن إعادة نشر المثيل السابق مع أخذ اللقطة في الخطوات السابقة.
الخطوة 1. [إختياري] إذا لم تكن هناك لقطة VMsnapshot سابقة متوفرة، فقم بالاتصال بعقدة OSPD حيث تم إرسال النسخ الاحتياطي و SFTP النسخة الاحتياطية مرة أخرى إلى عقدة OSPD الأصلية الخاصة بها. باستخدام sftproot@x.x.x.x حيث يمثل x.x.x.x عنوان IP الخاص ب OSPD الأصلي. احفظ ملف اللقطة في دليل /tmp.
الخطوة 2. قم بالاتصال بعقدة OSPD حيث يمكن إعادة نشر المثيل كما هو موضح في الصورة.
مصدر متغيرات البيئة باستخدام هذا الأمر:
# source /home/stack/pod1-stackrc-Core-CPAR
الخطوة 3. لاستخدام اللقطة كصورة، من الضروري تحميلها إلى الأفق على هذا النحو. قم بتشغيل الأمر التالي للقيام بذلك.
#glance image-create -- AAA-CPAR-Date-snapshot.qcow2 --container-format bare --disk-format qcow2 --name AAA-CPAR-Date-snapshot
يمكن رؤية العملية في الأفق وكما هو موضح في هذه الصورة.
الخطوة 4. في الأفق، انتقل إلى مشروع > مثيلات وانقر على تشغيل المثيل كما هو موضح في هذه الصورة.
الخطوة 5. أدخل اسم المثيل واختر منطقة التوفر كما هو موضح في هذه الصورة.
الخطوة 6. في صفحة المصدر، أختر الصورة لإنشاء المثيل. في قائمة تحديد مصدر التمهيد حدد الصورة، يتم عرض قائمة بالصور، أختر الصورة التي تم تحميلها مسبقا بالنقر فوق علامة + الخاصة بها وكما هو موضح في هذه الصورة.
الخطوة 7. في علامة النكهة، أختر نكهة AAA بالنقر على علامة + كما هو موضح في هذه الصورة.
الخطوة 8. أخيرا، انتقل إلى علامة التبويب الشبكة واختر الشبكات التي سيحتاج إليها المثيل بالنقر فوق علامة +. بالنسبة لهذه الحالة، حدد القطر-القابل للتوزيع 1 ونصف القطر-routable1 وtb1-mgmt كما هو موضح في هذه الصورة.
أخيرا، انقر فوق مثيل التشغيل من أجل إنشائه. يمكن مراقبة التقدم في الأفق:
بعد بضع دقائق، يتم نشر المثيل بالكامل وهو جاهز للاستخدام كما هو موضح في هذه الصورة.
عنوان IP العائم هو عنوان قابل للتوجيه، مما يعني أنه يمكن الوصول إليه من خارج بنية Ultra M/OpenStack، وأنه قادر على الاتصال بالعقد الأخرى من الشبكة.
الخطوة 1. في قائمة Horizon top، انتقل إلى Admin > عناوين IP المتحركة.
الخطوة 2. انقر فوق تخصيص IP للمشروع.
الخطوة 3. في نافذة تخصيص IP العائم، حدد التجمع الذي ينتمي إليه IP العائم الجديد، والمشروع الذي سيتم تعيينه فيه، وعنوان IP العائم الجديد نفسه.
على سبيل المثال:
الخطوة 4. انقر فوق زر تخصيص IP الطافي.
الخطوة 5. في قائمة أعلى الأفق، انتقل إلى مشروع > مثيلات.
الخطوة 6. في عامود العملية، انقر على السهم الذي نقطة لأسفل في زر إنشاء لقطة، يتم عرض قائمة. حدد خيار إقران IP العائم.
الخطوة 7. حدد عنوان IP العائم المتوافق المطلوب إستخدامه في حقل عنوان IP، واختر واجهة الإدارة المطابقة (eth0) من المثيل الجديد حيث سيتم تعيين IP العائم هذا في المنفذ المراد اقترانه. ارجع إلى الصورة التالية كمثال على هذا الإجراء.
الخطوة 8. أخيرا، انقر إقران.
الخطوة 1. في قائمة أعلى الأفق، انتقل إلى مشروع > مثيلات.
الخطوة 2. انقر فوق اسم المثيل/VM الذي تم إنشاؤه في القسم تشغيل مثيل جديد.
الخطوة 3. انقر فوق علامة التبويب وحدة التحكم. سيؤدي هذا إلى عرض واجهة سطر الأوامر (CLI) الخاصة ب VM.
الخطوة 4. بمجرد عرض واجهة سطر الأوامر (CLI)، أدخل بيانات اعتماد تسجيل الدخول المناسبة كما هو موضح في الصورة:
اسم المستخدم:الجذر
كلمة المرور:Cisco123
الخطوة 5. في واجهة سطر الأوامر (CLI)، قم بتشغيل الأمر vi /etc/ssh/ssh_config لتحرير تكوين SSH.
الخطوة 6. بمجرد فتح ملف تكوين SSH، اضغط على i لتحرير الملف. بعد ذلك ابحث عن المقطع وقم بتغيير السطر الأول من PasswordAuthentication no إلى PasswordAuthentication نعم كما هو موضح في هذه الصورة.
الخطوة 7. اضغط على ESC والتشغيل :wq! لحفظ تغييرات ملف sshd_config.
الخطوة 8. قم بتشغيل الأمر service sshd restart كما هو موضح في الصورة.
الخطوة 9. لاختبار تغييرات تكوين SSH التي تم تطبيقها بشكل صحيح، افتح أي عميل SSH وحاول إنشاء اتصال آمن عن بعد باستخدام عنوان IP العائم المعين للمثيل (أي 10.145.0.249) وجذر المستخدم كما هو موضح في الصورة.
الخطوة 1. افتح جلسة SSH باستخدام عنوان IP الخاص ب VM/server المتوافق حيث يتم تثبيت التطبيق كما هو موضح في الصورة.
بدء مثيل CPAR
اتبع هذه الخطوات بمجرد اكتمال النشاط وإعادة إنشاء خدمات حماية مستوى التحكم (CPAR) في الموقع الذي تم إغلاقه.
الخطوة 1. تسجيل الدخول مرة أخرى إلى الأفق، انتقل إلى مشروع > مثيل > بدء مثيل
الخطوة 2. تحقق من أن حالة المثيل هي Active وحالة الطاقة قيد التشغيل كما هو موضح في هذه الصورة.
9. فحص صحة ما بعد النشاط
الخطوة 1. قم بتشغيل الأمر /opt/ciscoAr/bin/arstatus على مستوى نظام التشغيل:
[root@wscaaa04 ~]# /opt/CSCOar/bin/arstatus Cisco Prime AR RADIUS server running (pid: 24834) Cisco Prime AR Server Agent running (pid: 24821) Cisco Prime AR MCD lock manager running (pid: 24824) Cisco Prime AR MCD server running (pid: 24833) Cisco Prime AR GUI running (pid: 24836) SNMP Master Agent running (pid: 24835) [root@wscaaa04 ~]#
الخطوة 2. قم بتشغيل الأمر /opt/ciscoAr/bin/regcmd على مستوى نظام التشغيل وأدخل بيانات اعتماد المسؤول. تحقق من أن حماية حماية وحدة المعالجة المركزية (CPAR) هي 10 من 10 وواجهة سطر الأوامر (CLI) الخاصة بوحدة المعالجة المركزية (CPAR) المخرج.
[root@aaa02 logs]# /opt/CSCOar/bin/aregcmd Cisco Prime Access Registrar 7.3.0.1 Configuration Utility Copyright (C) 1995-2017 by Cisco Systems, Inc. All rights reserved. Cluster: User: admin Passphrase: Logging in to localhost [ //localhost ] LicenseInfo = PAR-NG-TPS 7.2(100TPS:) PAR-ADD-TPS 7.2(2000TPS:) PAR-RDDR-TRX 7.2() PAR-HSS 7.2() Radius/ Administrators/ Server 'Radius' is Running, its health is 10 out of 10 --> exit
الخطوة 3. قم بتشغيل الأمر netstat | قطر الشحم والتحقق من إنشاء جميع إتصالات DRA.
الناتج المذكور هنا هو لبيئة حيث يتوقع وجود روابط القطر. إذا تم عرض عدد أقل من الارتباطات، فإن ذلك يمثل انفصالا عن DRA الذي يحتاج إلى التحليل.
[root@aa02 logs]# netstat | grep diameter tcp 0 0 aaa02.aaa.epc.:77 mp1.dra01.d:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:36 tsa6.dra01:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:47 mp2.dra01.d:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:07 tsa5.dra01:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:08 np2.dra01.d:diameter ESTABLISHED
الخطوة 4. تحقق من أن سجل TPS يظهر الطلبات التي تتم معالجتها بواسطة CPAR. القيم المبرزة تمثل TPS وتلك هي التي تحتاج إلى الانتباه إليها.
يجب ألا تتجاوز قيمة TPS 1500.
[root@wscaaa04 ~]# tail -f /opt/CSCOar/logs/tps-11-21-2017.csv 11-21-2017,23:57:35,263,0 11-21-2017,23:57:50,237,0 11-21-2017,23:58:05,237,0 11-21-2017,23:58:20,257,0 11-21-2017,23:58:35,254,0 11-21-2017,23:58:50,248,0 11-21-2017,23:59:05,272,0 11-21-2017,23:59:20,243,0 11-21-2017,23:59:35,244,0 11-21-2017,23:59:50,233,0
الخطوة 5. ابحث عن أي رسائل "خطأ" أو "تنبيه" في name_radius_1_log
[root@aaa02 logs]# grep -E "error|alarm" name_radius_1_log
الخطوة 6. تحقق من مقدار الذاكرة التي تستخدمها عملية حماية مستوى التحكم (CPAR) عن طريق تشغيل الأمر:
top | grep radius
[root@sfraaa02 ~]# top | grep radius 27008 root 20 0 20.228g 2.413g 11408 S 128.3 7.7 1165:41 radius
يجب أن تكون هذه القيمة المميزة أقل من 7 جيجابايت، وهو الحد الأقصى المسموح به على مستوى التطبيق.
التعرف على الأجهزة الافتراضية (VM) المستضافة على خادم OSD-Compute.
[stack@director ~]$ nova list --field name,host | grep osd-compute-0 | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | pod2-stack-compute-4.localdomain |
ملاحظة: في الإخراج المعروض هنا، يتوافق العمود الأول مع UUID، بينما يمثل العمود الثاني اسم VM، أما العمود الثالث فهو اسم المضيف حيث يوجد VM. سيتم إستخدام المعلمات من هذا الإخراج في الأقسام التالية.
النسخ الاحتياطي: معالجة اللقطة
الخطوة 1. افتح أي عميل SSH متصل بشبكة إنتاج TMO واتصل بمثيل CPAR.
من المهم عدم إغلاق جميع مثيلات المصادقة والتفويض والمحاسبة (AAA) الأربعة في موقع واحد في نفس الوقت، والقيام بذلك بطريقة واحدة.
الخطوة 2. لإيقاف تشغيل تطبيق حماية مستوى التحكم (CPAR)، قم بتشغيل الأمر:
/opt/CSCOar/bin/arserver stop
يجب ظهور رسالة "اكتمال إيقاف تشغيل وكيل خادم Cisco Prime Access Registrar".
ملاحظة: إذا ترك مستخدم جلسة CLI مفتوحة، فلن يعمل الأمر arserver stop" ويتم عرض هذه الرسالة:
ERROR: You cannot shut down Cisco Prime Access Registrar while the CLI is being used. Current list of running CLI with process id is: 2903 /opt/CSCOar/bin/aregcmd –s
في هذا المثال، يلزم إنهاء معرف العملية 2903 الذي تم تمييزه قبل التمكن من إيقاف حماية مستوى التحكم (CPAR). إذا كان هذا هو الحال، فقم بإنهاء العملية بتشغيل الأمر:
kill -9 *process_id*
ثم كرر الخطوة 1.
الخطوة 3. تحقق من إيقاف تشغيل تطبيق وحدة المعالجة المركزية (CPAR) بالفعل عن طريق تشغيل الأمر:
/opt/CSCOar/bin/arstatus
يجب أن تظهر هذه الرسائل:
Cisco Prime Access Registrar Server Agent not running Cisco Prime Access Registrar GUI not running
الخطوة 1. أدخل موقع واجهة المستخدم الرسومية (GUI) Horizon المطابق للموقع (City) الذي يتم العمل عليه حاليا.
عند الوصول إلى الأفق، يمكن ملاحظة هذه الشاشة.
الخطوة 2. انتقل إلى مشروع > مثيلات كما هو موضح في هذه الصورة.
إذا كان المستخدم المستخدم هو CPAR، فيمكن فقط لمثيلات AAA ال 4 أن تظهر في هذه القائمة.
الخطوة 3. قم بإيقاف تشغيل مثيل واحد فقط في المرة الواحدة، كرر العملية بأكملها في هذا المستند. انتقل إلى إجراءات > إيقاف تشغيل المثيل كما هو موضح في الصورة، ثم أكد التحديد الخاص بك من أجل إيقاف تشغيل VM.
الخطوة 4. تحقق من أن المثيل تم إيقاف تشغيله بالفعل عن طريق التحقق من الحالة = إيقاف التشغيل وحالة الطاقة = إيقاف التشغيل كما هو موضح في الصورة.
تنهي هذه الخطوة عملية إيقاف تشغيل وحدة المعالجة المركزية (CPAR).
بمجرد توقف أجهزة CPAR VM، يمكن أخذ اللقطات بشكل متوازي، لأنها تنتمي إلى أجهزة كمبيوتر مستقلة.
يتم إنشاء ملفات QCOW2 الأربعة بالتوازي.
أخذ لقطة لكل مثيل AAA. (25 دقيقة -1 ساعة) (25 دقيقة للتواجدات التي تستخدم صورة البقرة كمصدر وساعة واحدة للتواجدات التي تستخدم صورة خام كمصدر)
3. انقر فوق إنشاء لقطة لمتابعة إنشاء اللقطة (يلزم تنفيذ ذلك على مثيل AAA المطابق) كما هو موضح في الصورة.
4. بمجرد تنفيذ اللقطة، انتقل إلى قائمة الصور وتحقق من أن كل شيء ينتهي وأبلغ عن عدم وجود مشاكل كما يظهر في هذه الصورة.
5.تتمثل الخطوة التالية في تنزيل اللقطة بتنسيق QCOW2 ونقلها إلى كيان بعيد في حالة فقد OSPD أثناء هذه العملية. لتحقيق ذلك، قم بتعريف اللقطة عن طريق تشغيل الأمر show image-list على مستوى OSPD.
[root@elospd01 stack]# glance image-list +--------------------------------------+---------------------------+ | ID | Name | +--------------------------------------+---------------------------+ | 80f083cb-66f9-4fcf-8b8a-7d8965e47b1d | AAA-Temporary | | 22f8536b-3f3c-4bcc-ae1a-8f2ab0d8b950 | ELP1 cluman 10_09_2017 | | 70ef5911-208e-4cac-93e2-6fe9033db560 | ELP2 cluman 10_09_2017 | | e0b57fc9-e5c3-4b51-8b94-56cbccdf5401 | ESC-image | | 92dfe18c-df35-4aa9-8c52-9c663d3f839b | lgnaaa01-sept102017 | | 1461226b-4362-428b-bc90-0a98cbf33500 | tmobile-pcrf-13.1.1.iso | | 98275e15-37cf-4681-9bcc-d6ba18947d7b | tmobile-pcrf-13.1.1.qcow2 | +--------------------------------------+---------------------------+
6. بمجرد تحديد اللقطة التي سيتم تنزيلها (اللقطة المعلمة بالأخضر)، يمكنك تنزيلها بتنسيق QCOW2 باستخدام نظرة الأمر وتنزيلها كما هو موضح هنا.
[root@elospd01 stack]# glance image-download 92dfe18c-df35-4aa9-8c52-9c663d3f839b --file /tmp/AAA-CPAR-LGNoct192017.qcow2 &
7. بمجرد انتهاء عملية التنزيل، يلزم تنفيذ عملية ضغط حيث يمكن ملء هذه اللقطة بأصفار بسبب العمليات والمهام والملفات المؤقتة التي يقوم نظام التشغيل بمعالجتها. الأمر الذي سيتم إستخدامه لضغط الملفات هو متغير الشكل.
[root@elospd01 stack]# virt-sparsify AAA-CPAR-LGNoct192017.qcow2 AAA-CPAR-LGNoct192017_compressed.qcow2
قد تستغرق هذه العملية بعض الوقت (حوالي 10 إلى 15 دقيقة). وبمجرد الانتهاء، يكون الملف الناتج هو الملف الذي يجب تحويله إلى كيان خارجي كما هو محدد في الخطوة التالية.
يلزم التحقق من تكامل الملف، لتحقيق ذلك، قم بتشغيل الأمر التالي وابحث عن السمة "corrupt" في نهاية مخرجها.
[root@wsospd01 tmp]# qemu-img info AAA-CPAR-LGNoct192017_compressed.qcow2 image: AAA-CPAR-LGNoct192017_compressed.qcow2 file format: qcow2 virtual size: 150G (161061273600 bytes) disk size: 18G cluster_size: 65536 Format specific information: compat: 1.1 lazy refcounts: false refcount bits: 16 corrupt: false
ملاحظة: إذا كان يجب إستبدال المكون المعيب في عقدة OSD-Compute، فأدخل CEPH في الصيانة على الخادم قبل متابعة إستبدال المكون.
[heat-admin@pod2-stack-osd-compute-0 ~]$ sudo ceph osd tree
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 13.07996 root default
-2 4.35999 host pod2-stack-osd-compute-0
0 1.09000 osd.0 up 1.00000 1.00000
3 1.09000 osd.3 up 1.00000 1.00000
6 1.09000 osd.6 up 1.00000 1.00000
9 1.09000 osd.9 up 1.00000 1.00000
-3 4.35999 host pod2-stack-osd-compute-1
1 1.09000 osd.1 up 1.00000 1.00000
4 1.09000 osd.4 up 1.00000 1.00000
7 1.09000 osd.7 up 1.00000 1.00000
10 1.09000 osd.10 up 1.00000 1.00000
-4 4.35999 host pod2-stack-osd-compute-2
2 1.09000 osd.2 up 1.00000 1.00000
5 1.09000 osd.5 up 1.00000 1.00000
8 1.09000 osd.8 up 1.00000 1.00000
11 1.09000 osd.11 up 1.00000 1.00000
[root@pod2-stack-osd-compute-0 ~]# sudo ceph osd set norebalance
[root@pod2-stack-osd-compute-0 ~]# sudo ceph osd set noout
[root@pod2-stack-osd-compute-0 ~]# sudo ceph status
cluster eb2bb192-b1c9-11e6-9205-525400330666
health HEALTH_WARN
noout,norebalance,sortbitwise,require_jewel_osds flag(s) set
monmap e1: 3 mons at {pod2-stack-controller-0=11.118.0.10:6789/0,pod2-stack-controller-1=11.118.0.11:6789/0,pod2-stack-controller-2=11.118.0.12:6789/0}
election epoch 10, quorum 0,1,2 pod2-stack-controller-0,pod2-stack-controller-1,pod2-stack-controller-2
osdmap e79: 12 osds: 12 up, 12 in
flags noout,norebalance,sortbitwise,require_jewel_osds
pgmap v22844323: 704 pgs, 6 pools, 804 GB data, 423 kobjects
2404 GB used, 10989 GB / 13393 GB avail
704 active+clean
client io 3858 kB/s wr, 0 op/s rd, 546 op/s wr
ملاحظة: عند إزالة CEPH، يمر RAID VNF HD بحالة متدهورة ولكن يجب الوصول إلى القرص الثابت.
[stack@director ~]$ nova stop aaa2-21 Request to stop server aaa2-21 has been accepted. [stack@director ~]$ nova list +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+ | ID | Name | Status | Task State | Power State | Networks | +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+ | 46b4b9eb-a1a6-425d-b886-a0ba760e6114 | AAA-CPAR-testing-instance | ACTIVE | - | Running | tb1-mgmt=172.16.181.14, 10.225.247.233; radius-routable1=10.160.132.245; diameter-routable1=10.160.132.231 | | 3bc14173-876b-4d56-88e7-b890d67a4122 | aaa2-21 | SHUTOFF | - | Shutdown | diameter-routable1=10.160.132.230; radius-routable1=10.160.132.248; tb1-mgmt=172.16.181.7, 10.225.247.234 | | f404f6ad-34c8-4a5f-a757-14c8ed7fa30e | aaa21june | ACTIVE | - | Running | diameter-routable1=10.160.132.233; radius-routable1=10.160.132.244; tb1-mgmt=172.16.181.10 | +--------------------------------------+---------------------------+---------+------------+-------------+------------------------------------------------------------------------------------------------------------+
قم بإيقاف تشغيل الخادم المحدد. يمكن الإشارة إلى الخطوات الخاصة باستبدال مكون معيب على خادم UCS C240 M4 من:
[root@pod2-stack-osd-compute-0 ~]# sudo ceph osd unset norebalance
[root@pod2-stack-osd-compute-0 ~]# sudo ceph osd unset noout
[root@pod2-stack-osd-compute-0 ~]# sudo ceph status
cluster eb2bb192-b1c9-11e6-9205-525400330666
health HEALTH_OK
monmap e1: 3 mons at {pod2-stack-controller-0=11.118.0.10:6789/0,pod2-stack-controller-1=11.118.0.11:6789/0,pod2-stack-controller-2=11.118.0.12:6789/0}
election epoch 10, quorum 0,1,2 pod2-stack-controller-0,pod2-stack-controller-1,pod2-stack-controller-2
osdmap e81: 12 osds: 12 up, 12 in
flags sortbitwise,require_jewel_osds
pgmap v22844355: 704 pgs, 6 pools, 804 GB data, 423 kobjects
2404 GB used, 10989 GB / 13393 GB avail
704 active+clean
client io 3658 kB/s wr, 0 op/s rd, 502 op/s wr
عملية الاسترداد
من الممكن إعادة نشر المثيل السابق مع أخذ اللقطة في الخطوات السابقة.
الخطوة 1. [إختياري] إذا لم تكن هناك لقطة VMsnapshot سابقة متوفرة، فقم بالاتصال بعقدة OSPD حيث تم إرسال النسخ الاحتياطي ثم قم بإعادة النسخ الاحتياطي إلى عقدة OSPD الأصلية الخاصة بها. باستخدام sftproot@x.x.x.x حيث يمثل x.x.x.x عنوان IP الخاص ب OSPD الأصلي. احفظ ملف اللقطة في دليل /tmp.
الخطوة 2. الاتصال بعقدة OSPD حيث سيتم إعادة نشر المثيل.
مصدر متغيرات البيئة باستخدام هذا الأمر:
# source /home/stack/pod1-stackrc-Core-CPAR
الخطوة 3. لاستخدام اللقطة كصورة، من الضروري تحميلها إلى الأفق على هذا النحو. قم بتشغيل الأمر التالي للقيام بذلك.
#glance image-create -- AAA-CPAR-Date-snapshot.qcow2 --container-format bare --disk-format qcow2 --name AAA-CPAR-Date-snapshot
ويمكن رؤية العملية في الأفق.
الخطوة 4. في الأفق، انتقل إلى مشروع > مثيلات وانقر على مثيل Lauch كما هو موضح في هذه الصورة.
الخطوة 5. أدخل اسم المثيل واختر منطقة التوفر كما هو موضح في الصورة.
الخطوة 6. في علامة التبويب مصدر أختر الصورة لإنشاء المثيل. في قائمة تحديد مصدر التمهيد حدد الصورة، يتم عرض قائمة بالصور، أختر الصورة التي تم تحميلها مسبقا بواسطة النقر فوق علامة +.
الخطوة 7. في علامة النكهة، أختر طعم AAA بالنقر على علامة +.
الخطوة 8. أخيرا، انتقل إلى علامة التبويب الشبكات واختر الشبكات التي سيحتاج إليها المثيل بالنقر فوق علامة +. بالنسبة لهذه الحالة، حدد القطر-القابل للتوزيع 1 ونصف القطر-routable1 وtb1-mgmt كما هو موضح في هذه الصورة.
أخيرا، انقر فوق تشغيل المثيل لإنشائه. يمكن مراقبة التقدم في الأفق:
بعد دقائق قليلة، سيتم نشر المثيل بالكامل وجاهز للاستخدام.
إنشاء عنوان IP عائم وتعيينه
عنوان IP العائم هو عنوان قابل للتوجيه، مما يعني أنه يمكن الوصول إليه من خارج بنية Ultra M/OpenStack، وأنه قادر على الاتصال بالعقد الأخرى من الشبكة.
الخطوة 1. في قائمة Horizon top، انتقل إلى Admin > عناوين IP المتحركة.
الخطوة 2. انقر فوق تخصيص IP للمشروع.
الخطوة 3. في نافذة تخصيص IP العائم حدد التجمع الذي ينتمي إليه IP العائم الجديد، المشروع حيث سيتم تعيينه، وعنوان IP العائم الجديد نفسه.
على سبيل المثال:
الخطوة 4. انقر فوق تخصيص IP العائم.
الخطوة 5. في قائمة أعلى الأفق، انتقل إلى مشروع > مثيلات.
الخطوة 6. في عامود العملية انقر على السهم الذي نقطة لأسفل في زر إنشاء لقطة، يجب عرض قائمة. حدد خيار إقران IP العائم.
الخطوة 7. حدد عنوان IP العائم المتوافق المطلوب إستخدامه في حقل عنوان IP، واختر واجهة الإدارة المطابقة (eth0) من المثيل الجديد حيث سيتم تعيين IP العائم هذا في المنفذ المراد اقترانه. ارجع إلى الصورة التالية كمثال على هذا الإجراء.
الخطوة 8. أخيرا، انقر إقران.
تمكين SSH
الخطوة 1. في قائمة أعلى الأفق، انتقل إلى مشروع > مثيلات.
الخطوة 2. انقر فوق اسم المثيل/VM الذي تم إنشاؤه في القسم تشغيل مثيل جديد.
الخطوة 3. انقر فوق علامة التبويب وحدة التحكم. سيعرض هذا الأمر خط قارن من ال VM.
الخطوة 4. بمجرد عرض واجهة سطر الأوامر (CLI)، أدخل بيانات اعتماد تسجيل الدخول المناسبة كما هو موضح في الصورة:
اسم المستخدم:الجذر
كلمة المرور:Cisco123
الخطوة 5. في واجهة سطر الأوامر (CLI)، قم بتشغيل الأمر vi /etc/ssh/ssh_config لتحرير تكوين SSH.
الخطوة 6. بمجرد فتح ملف تكوين SSH، اضغط على i لتحرير الملف. بعد ذلك ابحث عن هذا القسم وقم بتغيير السطر الأول من PasswordAuthentication no إلى PasswordAuthentication نعم.
الخطوة 7. اضغط على ESC وأدخل :wq!t لحفظ تغييرات ملف sshD_config.
الخطوة 8. قم بتشغيل إعادة تشغيل خدمة الأوامر.
الخطوة 9. لاختبار تغييرات تكوين SSH التي تم تطبيقها بشكل صحيح، افتح أي عميل SSH وحاول إنشاء اتصال آمن عن بعد باستخدام عنوان IP العائم الذي تم تعيينه للمثيل (أي 10.145.0.249) وجذر المستخدم.
إنشاء جلسة SSH
الخطوة 1. افتح جلسة SSH باستخدام عنوان IP الخاص بخادم/VM المتوافق حيث يتم تثبيت التطبيق.
بدء مثيل CPAR
اتبع هذه الخطوات بمجرد اكتمال النشاط وإعادة إنشاء خدمات حماية مستوى التحكم (CPAR) في الموقع الذي تم إغلاقه.
الخطوة 1. قم بتسجيل الدخول مرة أخرى إلى الأفق، انتقل إلى مشروع > مثيل > بدء مثيل.
الخطوة 2. تحقق من أن حالة المثيل هي Active وأن حالة الطاقة تعمل كما هو موضح في الصورة.
9. فحص صحة ما بعد النشاط
الخطوة 1. قم بتشغيل الأمر /opt/ciscoAr/bin/arstatus على مستوى نظام التشغيل
[root@wscaaa04 ~]# /opt/CSCOar/bin/arstatus Cisco Prime AR RADIUS server running (pid: 24834) Cisco Prime AR Server Agent running (pid: 24821) Cisco Prime AR MCD lock manager running (pid: 24824) Cisco Prime AR MCD server running (pid: 24833) Cisco Prime AR GUI running (pid: 24836) SNMP Master Agent running (pid: 24835) [root@wscaaa04 ~]#
الخطوة 2. قم بتشغيل الأمر /opt/ciscoAr/bin/regcmd على مستوى نظام التشغيل وأدخل بيانات اعتماد المسؤول. تحقق من أن حماية CPAr هي 10 من 10 وواجهة سطر الأوامر (CLI) الخاصة بحماية مستوى التحكم (CPAR) للخروج.
[root@aaa02 logs]# /opt/CSCOar/bin/aregcmd Cisco Prime Access Registrar 7.3.0.1 Configuration Utility Copyright (C) 1995-2017 by Cisco Systems, Inc. All rights reserved. Cluster: User: admin Passphrase: Logging in to localhost [ //localhost ] LicenseInfo = PAR-NG-TPS 7.2(100TPS:) PAR-ADD-TPS 7.2(2000TPS:) PAR-RDDR-TRX 7.2() PAR-HSS 7.2() Radius/ Administrators/ Server 'Radius' is Running, its health is 10 out of 10 --> exit
الخطوة 3. قم بتشغيل الأمر netstat | قطر الشحم والتحقق من إنشاء جميع إتصالات DRA.
الناتج المذكور هنا هو لبيئة حيث يتوقع وجود روابط القطر. إذا تم عرض عدد أقل من الارتباطات، فإن ذلك يمثل انفصالا عن DRA الذي يحتاج إلى التحليل.
[root@aa02 logs]# netstat | grep diameter tcp 0 0 aaa02.aaa.epc.:77 mp1.dra01.d:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:36 tsa6.dra01:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:47 mp2.dra01.d:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:07 tsa5.dra01:diameter ESTABLISHED tcp 0 0 aaa02.aaa.epc.:08 np2.dra01.d:diameter ESTABLISHED
الخطوة 4. تحقق من أن سجل TPS يظهر الطلبات التي تتم معالجتها بواسطة CPAR. القيم المبرزة تمثل TPS وتلك هي التي تحتاج إلى الانتباه إليها.
يجب ألا تتجاوز قيمة TPS 1500.
[root@wscaaa04 ~]# tail -f /opt/CSCOar/logs/tps-11-21-2017.csv 11-21-2017,23:57:35,263,0 11-21-2017,23:57:50,237,0 11-21-2017,23:58:05,237,0 11-21-2017,23:58:20,257,0 11-21-2017,23:58:35,254,0 11-21-2017,23:58:50,248,0 11-21-2017,23:59:05,272,0 11-21-2017,23:59:20,243,0 11-21-2017,23:59:35,244,0 11-21-2017,23:59:50,233,0
الخطوة 5. ابحث عن أي رسائل "خطأ" أو "تنبيه" في name_radius_1_log
[root@aaa02 logs]# grep -E "error|alarm" name_radius_1_log
الخطوة 6. تحقق من مقدار الذاكرة التي تستخدمها عملية حماية مستوى التحكم (CPAR) من خلال تشغيل الأمر:
top | grep radius
[root@sfraaa02 ~]# top | grep radius 27008 root 20 0 20.228g 2.413g 11408 S 128.3 7.7 1165:41 radius
يجب أن تكون هذه القيمة المميزة أقل من 7 جيجابايت، وهو الحد الأقصى المسموح به على مستوى التطبيق.
ملاحظة: تتطلب المجموعة السليمة وجود وحدتي تحكم نشطتين للتحقق من أن وحدتي التحكم المتبقيتين متصلتين ونشيطتين.
[heat-admin@pod2-stack-controller-0 ~]$ sudo pcs status
Cluster name: tripleo_cluster
Stack: corosync
Current DC: pod2-stack-controller-2 (version 1.1.15-11.el7_3.4-e174ec8) - partition with quorum
Last updated: Fri Jul 6 09:03:37 2018Last change: Fri Jul 6 09:03:35 2018 by root via crm_attribute on pod2-stack-controller-0
3 nodes and 19 resources configured
Online: [ pod2-stack-controller-0 pod2-stack-controller-1 pod2-stack-controller-2 ]
Full list of resources:
ip-11.120.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
Clone Set: haproxy-clone [haproxy]
Started: [ pod2-stack-controller-0 pod2-stack-controller-1 pod2-stack-controller-2 ]
Master/Slave Set: galera-master [galera]
Masters: [ pod2-stack-controller-1 pod2-stack-controller-2 ]
Slaves: [ pod2-stack-controller-0 ]
ip-192.200.0.110(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
ip-11.120.0.44(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
ip-11.118.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
Clone Set: rabbitmq-clone [rabbitmq]
Started: [ pod2-stack-controller-1 pod2-stack-controller-2 ]
Stopped: [ pod2-stack-controller-0 ]
ip-10.225.247.214(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
Master/Slave Set: redis-master [redis]
Masters: [ pod2-stack-controller-2 ]
Slaves: [ pod2-stack-controller-0 pod2-stack-controller-1 ]
ip-11.119.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
openstack-cinder-volume(systemd:openstack-cinder-volume):Started pod2-stack-controller-1
Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled
[heat-admin@pod2-stack-controller-0 ~]$ sudo pcs cluster standby
[heat-admin@pod2-stack-controller-0 ~]$ sudo pcs status
Cluster name: tripleo_cluster
Stack: corosync
Current DC: pod2-stack-controller-2 (version 1.1.15-11.el7_3.4-e174ec8) - partition with quorum
Last updated: Fri Jul 6 09:03:10 2018Last change: Fri Jul 6 09:03:06 2018 by root via crm_attribute on pod2-stack-controller-0
3 nodes and 19 resources configured
Node pod2-stack-controller-0: standby
Online: [ pod2-stack-controller-1 pod2-stack-controller-2 ]
Full list of resources:
ip-11.120.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
Clone Set: haproxy-clone [haproxy]
Started: [ pod2-stack-controller-1 pod2-stack-controller-2 ]
Stopped: [ pod2-stack-controller-0 ]
Master/Slave Set: galera-master [galera]
Masters: [ pod2-stack-controller-0 pod2-stack-controller-1 pod2-stack-controller-2 ]
ip-192.200.0.110(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
ip-11.120.0.44(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
ip-11.118.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
Clone Set: rabbitmq-clone [rabbitmq]
Started: [ pod2-stack-controller-0 pod2-stack-controller-1 pod2-stack-controller-2 ]
ip-10.225.247.214(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
Master/Slave Set: redis-master [redis]
Masters: [ pod2-stack-controller-2 ]
Slaves: [ pod2-stack-controller-1 ]
Stopped: [ pod2-stack-controller-0 ]
ip-11.119.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
openstack-cinder-volume(systemd:openstack-cinder-volume):Started pod2-stack-controller-1
Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled
كما يجب أن تظهر حالة أجهزة الكمبيوتر على وحدتي التحكم الأخريين العقدة على أنها جاهزة.
قم بإيقاف تشغيل الخادم المحدد. يمكن الإشارة إلى الخطوات الخاصة باستبدال مكون معيب على خادم UCS C240 M4 من:
[stack@director ~]$ source stackrc
[stack@director ~]$ nova list
+--------------------------------------+--------------------------+--------+------------+-------------+------------------------+
| ID | Name | Status | Task State | Power State | Networks |
+--------------------------------------+--------------------------+--------+------------+-------------+------------------------+
| 03f15071-21aa-4bcf-8fdd-acdbde305168 | pod2-stack-compute-0 | ACTIVE | - | Running | ctlplane=192.200.0.106 |
| 1f725ce3-948d-49e9-aed9-b99e73d82644 | pod2-stack-compute-1 | ACTIVE | - | Running | ctlplane=192.200.0.107 |
| fbc13c78-dc06-4ac9-a3c5-595ccc147adc | pod2-stack-compute-2 | ACTIVE | - | Running | ctlplane=192.200.0.119 |
| 3b94e0b1-47dc-4960-b3eb-d02ffe9ae693 | pod2-stack-compute-3 | ACTIVE | - | Running | ctlplane=192.200.0.112 |
| 5dbac94d-19b9-493e-a366-1e2e2e5e34c5 | pod2-stack-compute-4 | ACTIVE | - | Running | ctlplane=192.200.0.116 |
| b896c73f-d2c8-439c-bc02-7b0a2526dd70 | pod2-stack-controller-0 | ACTIVE | - | Running | ctlplane=192.200.0.113 |
| 2519ce67-d836-4e5f-a672-1a915df75c7c | pod2-stack-controller-1 | ACTIVE | - | Running | ctlplane=192.200.0.105 |
| e19b9625-5635-4a52-a369-44310f3e6a21 | pod2-stack-controller-2 | ACTIVE | - | Running | ctlplane=192.200.0.120 |
| 6810c884-1cb9-4321-9a07-192443920f1f | pod2-stack-osd-compute-0 | ACTIVE | - | Running | ctlplane=192.200.0.109 |
| 26d3f7b1-ba97-431f-aa6e-ba91661db45d | pod2-stack-osd-compute-1 | ACTIVE | - | Running | ctlplane=192.200.0.117 |
| 6e4a8aa9-4870-465a-a7e2-0932ff55e34b | pod2-stack-osd-compute-2 | ACTIVE | - | Running | ctlplane=192.200.0.103 |
+--------------------------------------+--------------------------+--------+------------+-------------+------------------------+
[heat-admin@pod2-stack-controller-0 ~]$ sudo pcs cluster unstandby
[heat-admin@pod2-stack-controller-0 ~]$ sudo pcs status
Cluster name: tripleo_cluster
Stack: corosync
Current DC: pod2-stack-controller-2 (version 1.1.15-11.el7_3.4-e174ec8) - partition with quorum
Last updated: Fri Jul 6 09:03:37 2018Last change: Fri Jul 6 09:03:35 2018 by root via crm_attribute on pod2-stack-controller-0
3 nodes and 19 resources configured
Online: [ pod2-stack-controller-0 pod2-stack-controller-1 pod2-stack-controller-2 ]
Full list of resources:
ip-11.120.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
Clone Set: haproxy-clone [haproxy]
Started: [ pod2-stack-controller-0 pod2-stack-controller-1 pod2-stack-controller-2 ]
Master/Slave Set: galera-master [galera]
Masters: [ pod2-stack-controller-1 pod2-stack-controller-2 ]
Slaves: [ pod2-stack-controller-0 ]
ip-192.200.0.110(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
ip-11.120.0.44(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
ip-11.118.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
Clone Set: rabbitmq-clone [rabbitmq]
Started: [ pod2-stack-controller-1 pod2-stack-controller-2 ]
Stopped: [ pod2-stack-controller-0 ]
ip-10.225.247.214(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-1
Master/Slave Set: redis-master [redis]
Masters: [ pod2-stack-controller-2 ]
Slaves: [ pod2-stack-controller-0 pod2-stack-controller-1 ]
ip-11.119.0.49(ocf::heartbeat:IPaddr2):Started pod2-stack-controller-2
openstack-cinder-volume(systemd:openstack-cinder-volume):Started pod2-stack-controller-1
Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled
[heat-admin@pod2-stack-controller-0 ~]$ sudo ceph -s
cluster eb2bb192-b1c9-11e6-9205-525400330666
health HEALTH_OK
monmap e1: 3 mons at {pod2-stack-controller-0=11.118.0.10:6789/0,pod2-stack-controller-1=11.118.0.11:6789/0,pod2-stack-controller-2=11.118.0.12:6789/0}
election epoch 10, quorum 0,1,2 pod2-stack-controller-0,pod2-stack-controller-1,pod2-stack-controller-2
osdmap e81: 12 osds: 12 up, 12 in
flags sortbitwise,require_jewel_osds
pgmap v22844355: 704 pgs, 6 pools, 804 GB data, 423 kobjects
2404 GB used, 10989 GB / 13393 GB avail
704 active+clean
client io 3658 kB/s wr, 0 op/s rd, 502 op/s wr