تسعى مجموعة الوثائق لهذا المنتج جاهدة لاستخدام لغة خالية من التحيز. لأغراض مجموعة الوثائق هذه، يتم تعريف "خالية من التحيز" على أنها لغة لا تعني التمييز على أساس العمر، والإعاقة، والجنس، والهوية العرقية، والهوية الإثنية، والتوجه الجنسي، والحالة الاجتماعية والاقتصادية، والتمييز متعدد الجوانب. قد تكون الاستثناءات موجودة في الوثائق بسبب اللغة التي يتم تشفيرها بشكل ثابت في واجهات المستخدم الخاصة ببرنامج المنتج، أو اللغة المستخدمة بناءً على وثائق RFP، أو اللغة التي يستخدمها منتج الجهة الخارجية المُشار إليه. تعرّف على المزيد حول كيفية استخدام Cisco للغة الشاملة.
ترجمت Cisco هذا المستند باستخدام مجموعة من التقنيات الآلية والبشرية لتقديم محتوى دعم للمستخدمين في جميع أنحاء العالم بلغتهم الخاصة. يُرجى ملاحظة أن أفضل ترجمة آلية لن تكون دقيقة كما هو الحال مع الترجمة الاحترافية التي يقدمها مترجم محترف. تخلي Cisco Systems مسئوليتها عن دقة هذه الترجمات وتُوصي بالرجوع دائمًا إلى المستند الإنجليزي الأصلي (الرابط متوفر).
يصف هذا المستند الخطوات المطلوبة لاسترداد مجموعة CPS بالكامل في إعداد Ultra-M يستضيف وظائف الشبكة الظاهرية (VNF) ل CPS.
Ultra-M هو حل مركزي لحزم البيانات المحمولة تم تجميعه مسبقا والتحقق من صحته افتراضيا تم تصميمه لتبسيط عملية نشر شبكات VNF. يتكون حل Ultra-M من أنواع الأجهزة الافتراضية (VM) التالية:
تم توضيح البنية المعمارية عالية المستوى لتقنية Ultra-M والمكونات المعنية في هذه الصورة:
مخصص هذا المستند لموظفي Cisco المطلعين على نظام Cisco Ultra-M الأساسي.
ملاحظة: يتم إعتبار الإصدار Ultra M 5.1.x لتحديد الإجراءات الواردة في هذا المستند.
VNF | وظيفة الشبكة الظاهرية |
ESC | وحدة التحكم المرنة في الخدمة |
ممسحة | طريقة إجرائية |
OSD | أقراص تخزين الكائنات |
محرك الأقراص الثابتة | محرك الأقراص الثابتة |
محرك أقراص مزود بذاكرة مصنوعة من مكونات صلبة | محرك أقراص في الحالة الصلبة |
فيم | مدير البنية الأساسية الظاهرية |
VM | جهاز ظاهري |
uID | المعرف الفريد العالمي |
بالنسبة لهذا الإجراء، يفترض أنه سيتم إسترداد مجموعة CPS فقط وأن جميع المكونات على مستوى OpenStack تعمل بما في ذلك ESC
عند فشل ESC في بدء تشغيل VM:
root@abautotestvnfm1em-0:/etc/rsyslog.d# pwd
/etc/rsyslog.d
root@abautotestvnfm1em-0:/etc/rsyslog.d# ll
total 28
drwxr-xr-x 2 root root 4096 Jun 7 18:38 ./
drwxr-xr-x 86 root root 4096 Jun 6 20:33 ../]
-rw-r--r-- 1 root root 319 Jun 7 18:36 00-vnmf-proxy.conf
-rw-r--r-- 1 root root 317 Jun 7 18:38 01-ncs-java.conf
-rw-r--r-- 1 root root 311 Mar 17 2012 20-ufw.conf
-rw-r--r-- 1 root root 252 Nov 23 2015 21-cloudinit.conf
-rw-r--r-- 1 root root 1655 Apr 18 2013 50-default.conf
root@abautotestvnfm1em-0:/etc/rsyslog.d# ls /etc/rsyslog.conf
rsyslog.conf
1. إنشاء نسخة إحتياطية من برنامج Cluster-Manager لإدارة مجموعات CPS
الخطوة 1. أستخدم الأمر التالي لعرض مثيلات Nova وملاحظة اسم مثيل VM الخاص بمدير نظام المجموعة:
nova list
أوقف الكلومان من ESC.
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action STOP
الخطوة 2. تحقق من إدارة نظام المجموعة في حالة إيقاف التشغيل.
admin@esc1 ~]$ /opt/cisco/esc/confd/bin/confd_cli admin@esc1> show esc_datamodel opdata tenants tenant Core deployments * state_machine
الخطوة 3. قم بإنشاء صورة لقطة نوفا كما هو موضح في هذا الأمر:
nova image-create --poll
ملاحظة:تأكد من وجود مساحة كافية على القرص للقطة.
هام - في حالة عدم إمكانية الوصول إلى VM بعد إنشاء لقطة، تحقق من حالة VM باستخدام أمر قائمة نوفا. إذا كان في حالة "إيقاف التشغيل"، فأنت بحاجة إلى بدء تشغيل الجهاز الظاهري يدويا.
الخطوة 4. عرض قائمة الصور باستخدام الأمر التالي: صورة Nova Image-list شكل 1: مثال إخراج
الخطوة 5. عند إنشاء لقطة، يتم تخزين صورة اللقطة في نظرة OpenStack. لتخزين اللقطة في مخزن بيانات بعيد، قم بتنزيل اللقطة ونقل الملف في OSPD إلى ( /home/stack/CPS_BACKUP )
لتنزيل الصورة، أستخدم الأمر التالي في OpenStack:
glance image-download –-file For example: glance image-download –-file snapshot.raw 2bbfb51c-cd05-4b7c-ad77-8362d76578db
الخطوة 6. قم بسرد الصور التي تم تنزيلها كما هو موضح في الأمر التالي:
ls —ltr *snapshot*
Example output: -rw-r--r--. 1 root root 10429595648 Aug 16 02:39 snapshot.raw
الخطوة 7. قم بتخزين لقطة برنامج إدارة نظام المجموعة VM لاستعادتها في المستقبل.
2. النسخ الاحتياطي للتكوين وقاعدة البيانات.
1. config_br.py -a export --all /var/tmp/backup/ATP1_backup_all_$(date +\%Y-\%m-\%d).tar.gz OR 2. config_br.py -a export --mongo-all /var/tmp/backup/ATP1_backup_mongoall$(date +\%Y-\%m-\%d).tar.gz 3. config_br.py -a export --svn --etc --grafanadb --auth-htpasswd --haproxy /var/tmp/backup/ATP1_backup_svn_etc_grafanadb_haproxy_$(date +\%Y-\%m-\%d).tar.gz 4. mongodump - /var/qps/bin/support/env/env_export.sh --mongo /var/tmp/env_export_$date.tgz 5. patches - cat /etc/broadhop/repositories, check which patches are installed and copy those patches to the backup directory /home/stack/CPS_BACKUP on OSPD 6. backup the cronjobs by taking backup of the cron directory: /var/spool/cron/ from the Pcrfclient01/Cluman. Then move the file to CPS_BACKUP on the OSPD.
تحقق من Crontab -l إذا كانت هناك حاجة إلى أي نسخ إحتياطي آخر
نقل كافة النسخ الاحتياطية إلى OSPD /home/stack/CPS_Backup
3. نسخ إحتياطي لملف من ESC Master.
/opt/cisco/esc/confd/bin/netconf-console --host 127.0.0.1 --port 830 -u-p --get-config > /home/admin/ESC_config.xml
نقل الملف في OSPD /home/stack/CPS_Backup
4. نسخ إدخالات crontab -l إحتياطيا
إنشاء ملف txt باستخدام crontab -l وإفلاته إلى موقع بعيد ( في OSPD /home/stack/CPS_BACKUP )
5. قم بإجراء عملية نسخ إحتياطي لملفات المسار من عميل LB و PCRF.
Collect and scp the below conifgurations from both LBs and Pcrfclients route -n /etc/sysconfig/network-script/route-*
الخطوة 1. انسخ لقطة برنامج VM الخاص بإدارة المجموعة إلى الخادم النصلي لوحدة التحكم كما هو موضح في هذا الأمر:
ls —ltr *snapshot*
إخراج المثال: -rw-r-r— 1 جذر جذر 10429595648 أغسطس 1602:39 لقطة.raw
الخطوة 2. تحميل صورة اللقطة إلى OpenStack من Datastore:
glance image-create --name --file --disk-format qcow2 --container-format bare
الخطوة 3. تحقق ما إذا كان قد تم تحميل اللقطة باستخدام أمر Nova كما هو موضح في هذا المثال:
nova image-list
الشكل 2: مثال الإخراج
الخطوة 4. بناء على ما إذا كان مدير نظام المجموعة VM موجودا أم لا، يمكنك إختيار إنشاء مستنسخ أو إعادة إنشاء مستنسخ:
إذا لم يكن مثيل نظام المجموعة Cluster Manager VM موجودا، فقم بإنشاء نظام المجموعة الافتراضية VM باستخدام أمر Heat أو Nova كما هو موضح في المثال التالي:
إنشاء VM مستنسخ باستخدام ESC
/opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli edit-config /opt/cisco/esc/cisco-cps/config/gr/tmo/gen/
سيتم إنشاء نظام المجموعة PCRF بمساعدة الأمر المذكور أعلاه، ومن ثم إستعادة تكوينات مدير نظام المجموعة من عمليات النسخ الاحتياطي التي تم إجراؤها باستخدام ميزة Config_br.py Restore (الاستعادة الأحادية) من عملية التفريغ التي تم إجراؤها في عملية النسخ الاحتياطي
delete - nova boot --config-drive true --image "" --flavor "" --nic net-id=",v4-fixed-ip=" --nic net-id="network_id,v4-fixed-ip=ip_address" --block-device-mapping "/dev/vdb=2edbac5e-55de-4d4c-a427-ab24ebe66181:::0" --availability-zone "az-2:megh-os2-compute2.cisco.com" --security-groups cps_secgrp "cluman"
في حالة وجود مثيل Cluster Manager VM، أستخدم الأمر Nova Rebuild لإعادة إنشاء مثيل Cluman VM باستخدام اللقطة التي تم تحميلها كما هو موضح:
nova rebuild
على سبيل المثال: nova rebuild cps-cluman-5f3tujqvbi67 cluman_snapshot
الخطوة 5 سرد كافة المثيلات كما هو موضح والتحقق من إنشاء مثيل مدير نظام المجموعة الجديد وتشغيله:
قائمة المستعر
الشكل 3: مثال الإخراج
إستعادة أحدث برامج التصحيح الموجودة على النظام
1. Copy the patch files to cluster manager which were backed up in OSPD /home/stack/CPS_BACKUP 2. Login to the Cluster Manager as a root user. 3. Untar the patch by executing the following command: tar -xvzf [patch name].tar.gz 4. Edit /etc/broadhop/repositories and add the following entry: file:///$path_to_the plugin/[component name] 5. Run build_all.sh script to create updated QPS packages: /var/qps/install/current/scripts/build_all.sh 6. Shutdown all software components on the target VMs: runonall.sh sudo monit stop all 7. Make sure all software components are shutdown on target VMs: statusall.sh
ملاحظة: يجب أن تعرض جميع مكونات البرامج غير مراقبة بالحالة الحالية) 8. قم بتحديث QNS VMs باستخدام البرنامج الجديد باستخدام البرنامج النصي reinit.sh: /var/qps/install/current/scripts/upgrade/reinit.sh 9. إعادة تشغيل جميع مكونات البرامج على الأجهزة الافتراضية (VMs) الهدف: runonall.sh sudo monit ابدأ تشغيل كافة الأجهزة العشرة. تحقق من تحديث المكون، قم بتشغيل: about.sh
الخطوة 1. قم بتسجيل الدخول إلى VM الخاص بإدارة نظام المجموعة كمستخدم جذري.
الخطوة 2. لاحظ UID الخاص بمستودع SVN باستخدام الأمر التالي:
svn info http://pcrfclient02/repos | grep UUID
سيقوم الأمر بإخراج معرف المستخدم الخاص بالمستودع.
على سبيل المثال: UUID الخاص بالمستودع: ea50bbd2-5726-46b8-b807-10f4a7424f0e
الخطوة 3. قم باستيراد بيانات تكوين Backup Policy Builder على "إدارة نظام المجموعة"، كما هو موضح في المثال التالي:
config_br.py -a import --etc-oam --svn --stats --grafanadb --auth-htpasswd --users /mnt/backup/oam_backup_27102016.tar.gz
ملاحظة: تقوم العديد من عمليات النشر بتشغيل مهمة cron التي تدعم بيانات التكوين بشكل منتظم.راجع النسخ الاحتياطي لمستودع النسخ الاحتياطية، للحصول على مزيد من التفاصيل.
الخطوة 4. لإنشاء ملفات أرشيف VM على "إدارة المجموعة" باستخدام أحدث التكوينات، قم بتنفيذ الأمر التالي:
/var/qps/install/current/scripts/build/build_svn.sh
الخطوة 5. لنشر جهاز VM pcrfclient01، قم بتنفيذ أحد الأمور التالية:
في OpenStack، أستخدم قالب الحرارة أو الأمر Nova لإعادة إنشاء الجهاز الظاهري. لمزيد من المعلومات، راجع دليل تثبيت CPS ل OpenStack.
الخطوة 6. قم بإعادة إنشاء مزامنة مدير/تابع SVN بين pcrfclient01 و pcrfclient02 مع pcrfclient01 كمدير كما يقوم بتشغيل هذه الأوامر.
إذا كان SVN متزامن بالفعل، فلا تقم بإصدار هذه الأوامر.
للتحقق من مزامنة SVN، قم بتشغيل هذا الأمر من pcrfclient02.
إذا تم إرجاع قيمة، فإن SVN يكون متزامنا بالفعل:
/usr/bin/svn propget svn:sync-from-url --revprop -r0 http://pcrfclient01/repos
شغل هذا أمر من pcrfclient01:
/bin/rm -fr /var/www/svn/repos /usr/bin/svnadmin create /var/www/svn/repos /usr/bin/svn propset --revprop -r0 svn:sync-last-merged-rev 0 http://pcrfclient02/repos-proxy-sync /usr/bin/svnadmin setuuid /var/www/svn/repos/ "Enter the UUID captured in step 2" /etc/init.d/vm-init-client /var/qps/bin/support/recover_svn_sync.sh
الخطوة 7. إذا كانت PCRFclient01 هي أيضا معرف فئة المورد (VM) القابل للتحكيم، فقم بتشغيل الخطوات التالية:
1. قم بإنشاء البرامج النصية أحادية الإتجاه للبداية/الإيقاف استنادا إلى تكوين النظام. ليست كافة عمليات النشر قد تم تكوين جميع قواعد البيانات هذه.
ملاحظة:ارجع إلى /etc/broadhop/mongoConfig.cfg لتحديد قواعد البيانات التي يجب إعدادها.
cd /var/qps/bin/support/mongo build_set.sh --session --create-scripts build_set.sh --admin --create-scripts build_set.sh --spr --create-scripts build_set.sh --balance --create-scripts build_set.sh --audit --create-scripts build_set.sh --report --create-scripts
2. بدء عملية الرياح الموسمية:
/usr/bin/systemctl start sessionmgr-XXXXX
3. انتظر حتى يبدأ المحكم، ثم قم بتشغيل diagnostic.sh— get_replica_status للتحقق من صحة مجموعة النسخ المتماثلة.
الخطوة 1. قم بتسجيل الدخول إلى VM الخاص بإدارة نظام المجموعة كمستخدم جذري.
الخطوة 2. لإنشاء ملفات أرشيف VM على "إدارة المجموعة" باستخدام أحدث التكوينات، قم بتشغيل هذا الأمر:
/var/qps/install/current/scripts/build/build_svn.sh
الخطوة 3 لنشر الإصدار PCRFCLIENT02 VM، قم بتنفيذ أحد الإجراءات التالية:
في OpenStack، أستخدم قالب الحرارة أو الأمر Nova لإعادة إنشاء الجهاز الظاهري. لمزيد من المعلومات، راجع دليل تثبيت CPS ل OpenStack.
الخطوة 4 طبقة الأمان إلى pcrfclient01:
ssh pcrfclient01
الخطوة 5 قم بتشغيل هذا البرنامج النصي لاسترداد رسائل SVN من pcrfclient01:
/var/qps/bin/support/recover_svn_sync.sh
الخطوة 1. قم بتسجيل الدخول إلى الجهاز الظاهري لإدارة المجموعة كمستخدم جذري
الخطوة 2. لنشر VM الخاص بجلسة العمل واستبدال VM الفاشل أو الفاسد، قم بتنفيذ واحد مما يلي:
في OpenStack، أستخدم قالب الحرارة أو الأمر Nova لإعادة إنشاء الجهاز الظاهري. لمزيد من المعلومات، راجع دليل تثبيت CPS ل OpenStack
الخطوة 3. قم بإنشاء البرامج النصية أحادية الإتجاه للبداية/الإيقاف استنادا إلى تكوين النظام.
ليست كافة عمليات النشر قد تم تكوين جميع قواعد البيانات هذه. ارجع إلى /etc/broadhop/mongoConfig.cfg لتحديد قواعد البيانات التي يجب إعدادها
cd /var/qps/bin/support/mongo build_set.sh --session --create-scripts build_set.sh --admin --create-scripts build_set.sh --spr --create-scripts build_set.sh --balance --create-scripts build_set.sh --audit --create-scripts build_set.sh --report --create-scripts
الخطوة 4. طبقة آمنة إلى SessionMgr VM وبدء عملية mongo:
ssh sessionmgrXX /usr/bin/systemctl start sessionmgr-XXXXX
الخطوة 5. انتظر حتى يبدأ الأعضاء ومزامنة الأعضاء الثانويين، ثم قم بتشغيل diagnostics.sh— get_replica_status للتحقق من صحة قاعدة البيانات.
الخطوة 6. لاستعادة قاعدة بيانات "مدير جلسة العمل"، أستخدم أحد أوامر المثال التالي بناء على ما إذا كان قد تم إجراء النسخ الاحتياطي باستخدام خيار —mongo-all أو— mongo:
• config_br.py -a import --mongo-all --users /mnt/backup/Name of backup or • config_br.py -a import --mongo --users /mnt/backup/Name of backup
الخطوة 1. قم بتسجيل الدخول إلى VM الخاص بإدارة نظام المجموعة كمستخدم جذري.
الخطوة 2. لاستيراد بيانات تكوين "منشئ نهج النسخ الاحتياطي" على "إدارة نظام المجموعة"، قم بتشغيل هذا الأمر:
config_br.py -a import --network --haproxy --users /mnt/backup/lb_backup_27102016.tar.gz
الخطوة 3 لإنشاء ملفات أرشيف VM على مدير المجموعة باستخدام أحدث التكوينات، قم بتشغيل هذا الأمر:
/var/qps/install/current/scripts/build/build_svn.sh
الخطوة 4. لنشر الطراز LB01 VM، قم بتنفيذ واحد مما يلي:
في OpenStack، أستخدم قالب الحرارة أو الأمر Nova لإعادة إنشاء الجهاز الظاهري. لمزيد من المعلومات، راجع دليل تثبيت CPS ل OpenStack.
الخطوة 1. قم بتسجيل الدخول إلى VM الخاص بإدارة نظام المجموعة كمستخدم جذري.
الخطوة 2. قم باستيراد بيانات تكوين Backup Policy Builder على "إدارة نظام المجموعة"، كما هو موضح في هذا المثال:
config_br.py -a import --users /mnt/backup/qns_backup_27102016.tar.gz
الخطوة 3. لإنشاء ملفات أرشيف VM على "إدارة المجموعة" باستخدام أحدث التكوينات، قم بتشغيل هذا الأمر:
/var/qps/install/current/scripts/build/build_svn.sh
الخطوة 4 لنشر الوحدة الخاصة لمعرف فئة المورد (QNS)، قم بتنفيذ واحد مما يلي:
في OpenStack، أستخدم قالب الحرارة أو الأمر Nova لإعادة إنشاء الجهاز الظاهري. لمزيد من المعلومات، راجع دليل تثبيت CPS ل OpenStack
الخطوة 1. قم بتشغيل هذا الأمر لاستعادة قاعدة البيانات:
config_br.py –a import --mongo-all /mnt/backup/backup_$date.tar.gz where $date is the timestamp when the export was made.
على سبيل المثال,
config_br.py –a import --mongo-all /mnt/backup/backup_27092016.tgz
الخطوة 2. قم بتسجيل الدخول إلى قاعدة البيانات والتحقق مما إذا كانت تعمل ومن إمكانية الوصول إليها:
1. تسجيل الدخول إلى مدير الجلسة:
mongo --host sessionmgr01 --port $port
حيث $port هو رقم المنفذ لقاعدة البيانات التي سيتم فحصها. على سبيل المثال، 27718 هو منفذ التوازن الافتراضي.
2. عرض قاعدة البيانات من خلال تنفيذ الأمر التالي:
show dbs
3. قم بتبديل shell الأحادي إلى قاعدة البيانات من خلال تنفيذ الأمر التالي:
use $db
حيث $db هو اسم قاعدة بيانات معروض في الأمر السابق.
يقوم الأمر use بتحويل shell mongo إلى قاعدة البيانات هذه.
على سبيل المثال,
use balance_mgmt
4. لعرض المجموعات، قم بتشغيل الأمر التالي:
show collections
5. لعرض عدد السجلات في المجموعة، قم بتشغيل هذا الأمر:
db.$collection.count() For example, db.account.count()
سيظهر المثال أعلاه عدد السجلات في "حساب" المجموعة في قاعدة بيانات الرصيد (balance_mgmt).
لاستعادة بيانات تكوين منشئ السياسة من نسخة إحتياطية، قم بتنفيذ الأمر التالي:
config_br.py –a import --svn /mnt/backup/backup_$date.tgz where, $date is the date when the cron created the backup file.
يمكنك إستعادة لوحة معلومات Grafana باستخدام الأمر التالي:
config_br.py -a import --grafanadb /mnt/backup/
بعد إستعادة البيانات، تحقق من نظام العمل من خلال هذا الأمر:
/var/qps/bin/diag/diagnostics.sh
عند فشل ESC في بدء تشغيل VM