تسعى مجموعة الوثائق لهذا المنتج جاهدة لاستخدام لغة خالية من التحيز. لأغراض مجموعة الوثائق هذه، يتم تعريف "خالية من التحيز" على أنها لغة لا تعني التمييز على أساس العمر، والإعاقة، والجنس، والهوية العرقية، والهوية الإثنية، والتوجه الجنسي، والحالة الاجتماعية والاقتصادية، والتمييز متعدد الجوانب. قد تكون الاستثناءات موجودة في الوثائق بسبب اللغة التي يتم تشفيرها بشكل ثابت في واجهات المستخدم الخاصة ببرنامج المنتج، أو اللغة المستخدمة بناءً على وثائق RFP، أو اللغة التي يستخدمها منتج الجهة الخارجية المُشار إليه. تعرّف على المزيد حول كيفية استخدام Cisco للغة الشاملة.
ترجمت Cisco هذا المستند باستخدام مجموعة من التقنيات الآلية والبشرية لتقديم محتوى دعم للمستخدمين في جميع أنحاء العالم بلغتهم الخاصة. يُرجى ملاحظة أن أفضل ترجمة آلية لن تكون دقيقة كما هو الحال مع الترجمة الاحترافية التي يقدمها مترجم محترف. تخلي Cisco Systems مسئوليتها عن دقة هذه الترجمات وتُوصي بالرجوع دائمًا إلى المستند الإنجليزي الأصلي (الرابط متوفر).
يصف هذا المستند المعرفة العامة حول Cisco HyperFlex (HX) التي يجب أن يمتلكها المسؤولون في متناول أيديهم.
SCVM = الجهاز الظاهري لوحدة تحكم التخزين
VMNIC = بطاقة واجهة شبكة الجهاز الظاهري
VNIC = بطاقة واجهة الشبكة الظاهرية
SED = محرك أقراص يعمل على التشفير الذاتي
VM = الجهاز الظاهري
HX = HyperFlex
وقد نقح وضع بطاقة VMNIC في الإصدار 3.5 من HX والإصدارات اللاحقة.
قبل الإصدار 3.5، تم تخصيص شبكات VNIC استنادا إلى أرقام شبكات VNIC.
VNIC | المحول الظاهري (vSwitch) |
VNIC 0 و VNIC 1 | vSwitch-hx-inband-mgmt |
VNIC 2 و VNIC 3 | vSwitch-hx-storage-data |
VNIC 4 و VNIC 5 | شبكة vSwitch-hx-vm |
VNIC 6 و VNIC 7 | vMotion |
في الإصدار 3.5 والإصدارات الأحدث، يتم تعيين شبكات VNIC استنادا إلى عنوان التحكم في الوصول إلى الوسائط (MAC). ولذلك، لا يوجد ترتيب معين للإحالة.
إذا تم إجراء ترقية من إصدار أقدم من 3.5 إلى 3.5 أو أكثر، يتم الاحتفاظ بطلب VMNIC.
ملاحظة: بالنسبة ل HX Hyper-V، لن يكون هذا قابلا للتطبيق نظرا لأن Hyper-V يستخدم تسمية متسقة للأجهزة (CDN).
توجد نقاط SCVM على كل من العقد المجمعة و Compute، وهناك إختلافات بينها.
نظرا لأن وحدات SCVMs توفر الوظائف الهامة للنظام الأساسي للبيانات الموزعة على HX من Cisco، سيقوم مثبت HyperFlex بتكوين حجوزات موارد وحدة المعالجة المركزية (CPU) لوحدات التحكم VMs. يضمن هذا الحجز أن موارد وحدة المعالجة المركزية (CPU) الخاصة بجهاز التحكم VMs ستكون متوفرة في الحد الأدنى، وذلك في الحالات التي يتم فيها إستهلاك موارد وحدة المعالجة المركزية (CPU) المادية الخاصة بمضيف برنامج hypervisor ل ESXi بكثافة من قبل الأجهزة المضيفة الافتراضية (VM). وهذا ضمان سهل، مما يعني أن أجهزة SCVM في معظم الحالات لا تستخدم جميع موارد وحدة المعالجة المركزية المحجوزة، وبالتالي فهي تسمح للأجهزة الافتراضية المضيفة باستخدامها. يوضح الجدول التالي تفاصيل حجز موارد وحدة المعالجة المركزية (CPU) للأجهزة الافتراضية الخاصة بوحدة التحكم في التخزين:
عدد vCPU | مشاركات | حجز | حد |
8 | منخفض | 10800 ميغا هرتز | لامتناهي |
بما أن SCVMs توفر الوظائف الهامة لنظام البيانات الموزعة HX من Cisco، فإن مثبت HyperFlex سيقوم بتكوين حجوزات موارد الذاكرة للأجهزة الافتراضية الخاصة بوحدة التحكم. يضمن هذا الحجز أن تتوفر لدى أجهزة VM الخاصة بوحدة التحكم موارد ذاكرة على الحد الأدنى، في الحالات التي يتم فيها إستهلاك موارد الذاكرة الفعلية الخاصة بمضيف برنامج ESXi hypervisor بشكل كبير من قبل الأجهزة الافتراضية المضيفة. يوضح الجدول التالي تفاصيل حجز موارد الذاكرة الخاص بأجهزة VM الخاصة بوحدة التحكم في التخزين:
نماذج الخوادم | مقدار ذاكرة الضيف | حجز كافة ذاكرة الضيوف |
الطراز HX 220c-M5SX HXAF 220c-M5SX الطراز HX 220c-M4S HXAF220c-M4S |
48 غيجابايت | نعم |
الطراز HX 240c-M5SX الطراز HXAF 240c-M5SX HX240c-M4SX HXAF240c-M4SX |
72 غيجابايت | نعم |
الطراز HX240c-M5L | 78 غيجابايت | نعم |
تحتوي عقد الحوسبة فقط على SCVM خفيف الوزن. تم تكوينه بوحدة معالجة مركزية واحدة فقط بسرعة 1024 ميجاهرتز و 512 ميجابايت من حجز الذاكرة.
الغرض من وجود عقدة الحوسبة هو بشكل رئيسي للحفاظ على إعدادات ™DRS لجدول الموارد الموزعة vCluster، لضمان عدم قيام DRS بنقل أجهزة VMs الخاصة بالمستخدم مرة أخرى إلى العقد المجمعة.
يمكن أن تصبح مجموعة HX غير صحية في السيناريوهات التالية.
يدخل نظام المجموعة في حالة غير صحية عندما تنهار عقدة ما. من المتوقع أن تكون العقدة معطلة أثناء ترقية نظام المجموعة أو عند وضع خادم في وضع الصيانة.
root@SpringpathController:~# stcli cluster storage-summary --detail
<snip>
current ensemble size:3
# of caching failures before cluster shuts down:2
minimum cache copies remaining:2
minimum data copies available for some user data:2
current healing status:rebuilding/healing is needed, but not in progress yet. warning: insufficient node or space resources may prevent healing. storage node 10.197.252.99is either down or initializing disks.
minimum metadata copies available for cluster metadata:2
# of unavailable nodes:1
# of nodes failure tolerable for cluster to be available:0
health state reason:storage cluster is unhealthy. storage node 10.197.252.99 is unavailable.
# of node failures before cluster shuts down:2
# of node failures before cluster goes into readonly:2
# of persistent devices failures tolerable for cluster to be available:1
# of node failures before cluster goes to enospace warn trying to move the existing data:na
# of persistent devices failures before cluster shuts down:2
# of persistent devices failures before cluster goes into readonly:2
# of caching failures before cluster goes into readonly:na
# of caching devices failures tolerable for cluster to be available:1
resiliencyInfo:
messages:
----------------------------------------
Storage cluster is unhealthy.
----------------------------------------
Storage node 10.197.252.99 is unavailable.
----------------------------------------
state: 2
nodeFailuresTolerable: 0
cachingDeviceFailuresTolerable: 1
persistentDeviceFailuresTolerable: 1
zoneResInfoList: None
spaceStatus: normal
totalCapacity: 3.0T
totalSavings: 5.17%
usedCapacity: 45.9G
zkHealth: online
clusterAccessPolicy: lenient
dataReplicationCompliance: non_compliant
dataReplicationFactor: 3
يدخل نظام المجموعة في حالة غير سليمة عندما يكون القرص غير متوفر. يجب مسح الشرط عند توزيع البيانات على أقراص أخرى.
root@SpringpathController:~# stcli cluster storage-summary --detail
<snip>
current ensemble size:3
# of caching failures before cluster shuts down:2
minimum cache copies remaining:2
minimum data copies available for some user data:2
current healing status:rebuilding/healing is needed, but not in progress yet. warning: insufficient node or space resources may prevent healing. storage node is either down or initializing disks.
minimum metadata copies available for cluster metadata:2
# of unavailable nodes:1
# of nodes failure tolerable for cluster to be available:0
health state reason:storage cluster is unhealthy. persistent device disk [5000c5007e113d8b:0000000000000000] on node 10.197.252.99 is unavailable.
# of node failures before cluster shuts down:2
# of node failures before cluster goes into readonly:2
# of persistent devices failures tolerable for cluster to be available:1
# of node failures before cluster goes to enospace warn trying to move the existing data:na
# of persistent devices failures before cluster shuts down:2
# of persistent devices failures before cluster goes into readonly:2
# of caching failures before cluster goes into readonly:na
# of caching devices failures tolerable for cluster to be available:1
resiliencyInfo:
messages:
----------------------------------------
Storage cluster is unhealthy.
----------------------------------------
Persistent Device Disk [5000c5007e113d8b:0000000000000000] on node 10.197.252.99 is unavailable.
----------------------------------------
state: 2
nodeFailuresTolerable: 0
cachingDeviceFailuresTolerable: 1
persistentDeviceFailuresTolerable: 1
zoneResInfoList: None
spaceStatus: normal
totalCapacity: 3.0T
totalSavings: 8.82%
usedCapacity: 45.9G
zkHealth: online
clusterAccessPolicy: lenient
dataReplicationCompliance: non_compliant
dataReplicationFactor: 3
يمكن أن يدخل نظام المجموعة في حالة غير سليمة عندما لا تكون عقدة أو قرص في حالة تعطل. يحدث هذا الشرط إذا كانت عملية إعادة البناء قيد التقدم.
root@SpringpathController:~# stcli cluster storage-summary --detail <snip> resiliencyDetails: current ensemble size:5 # of caching failures before cluster shuts down:3 minimum cache copies remaining:3 minimum data copies available for some user data:2 current healing status:rebuilding is in progress, 98% completed. minimum metadata copies available for cluster metadata:2 time remaining before current healing operation finishes:7 hr(s), 15 min(s), and 34 sec(s) # of unavailable nodes:0 # of nodes failure tolerable for cluster to be available:1 health state reason:storage cluster is unhealthy. # of node failures before cluster shuts down:2 # of node failures before cluster goes into readonly:2 # of persistent devices failures tolerable for cluster to be available:1 # of node failures before cluster goes to enospace warn trying to move the existing data:na # of persistent devices failures before cluster shuts down:2 # of persistent devices failures before cluster goes into readonly:2 # of caching failures before cluster goes into readonly:na # of caching devices failures tolerable for cluster to be available:2 resiliencyInfo: messages: Storage cluster is unhealthy. state: 2 nodeFailuresTolerable: 1 cachingDeviceFailuresTolerable: 2 persistentDeviceFailuresTolerable: 1 zoneResInfoList: None spaceStatus: normal totalCapacity: 225.0T totalSavings: 42.93% usedCapacity: 67.7T clusterAccessPolicy: lenient dataReplicationCompliance: non_compliant dataReplicationFactor: 3
إذا لم يتوفر الوصول إلى HX Connect، يمكن إستخدام CLI للتحقق مما إذا كان نظام المجموعة SED أم لا.
# Check if the cluster is SED capable
root@SpringpathController:~# cat /etc/springpath/sed_capability.conf sed_capable_cluster=False
# Check if the cluster is SED enabled root@SpringpathController:~# cat /etc/springpath/sed.conf sed_encryption_state=unknown
root@SpringpathController:~# /usr/share/springpath/storfs-appliance/sed-client.sh -l WWN,Slot,Supported,Enabled,Locked,Vendor,Model,Serial,Size 5002538c40a42d38,1,0,0,0,Samsung,SAMSUNG_MZ7LM240HMHQ-00003,S3LKNX0K406548,228936 5000c50030278d83,25,1,1,0,MICRON,S650DC-800FIPS,ZAZ15QDM0000822150Z3,763097 500a07511d38cd36,2,1,1,0,MICRON,Micron_5100_MTFDDAK960TCB_SED,17261D38CD36,915715 500a07511d38efbe,4,1,1,0,MICRON,Micron_5100_MTFDDAK960TCB_SED,17261D38EFBE,915715 500a07511d38f350,7,1,1,0,MICRON,Micron_5100_MTFDDAK960TCB_SED,17261D38F350,915715 500a07511d38eaa6,3,1,1,0,MICRON,Micron_5100_MTFDDAK960TCB_SED,17261D38EAA6,915715 500a07511d38ce80,6,1,1,0,MICRON,Micron_5100_MTFDDAK960TCB_SED,17261D38CE80,915715 500a07511d38e4fc,5,1,1,0,MICRON,Micron_5100_MTFDDAK960TCB_SED,17261D38E4FC,915715
عندما يلزم تنفيذ أنشطة الصيانة على خادم يشكل جزءا من مجموعة HX، يجب إستخدام وضع الصيانة HX بدلا من وضع الصيانة ESXi. يتم إيقاف تشغيل SCVM برشاقة عند إستخدام وضع صيانة HX بينما يتم إغلاقه بشكل مفاجئ عند إستخدام وضع صيانة ESXi.
بينما تكون العقدة في وضع الصيانة، سيتم اعتبارها معطلة، أي فشل عقدة واحدة.
تأكد من أن نظام المجموعة يتمتع بصحة جيدة قبل نقل عقدة أخرى إلى وضع الصيانة.
root@SpringpathController:~# stcli cluster storage-summary --detail
<snip>
current ensemble size:3
# of caching failures before cluster shuts down:3
minimum cache copies remaining:3
minimum data copies available for some user data:3
minimum metadata copies available for cluster metadata:3
# of unavailable nodes:0
# of nodes failure tolerable for cluster to be available:1
health state reason:storage cluster is healthy.
# of node failures before cluster shuts down:3
# of node failures before cluster goes into readonly:3
# of persistent devices failures tolerable for cluster to be available:2
# of node failures before cluster goes to enospace warn trying to move the existing data:na
# of persistent devices failures before cluster shuts down:3
# of persistent devices failures before cluster goes into readonly:3
# of caching failures before cluster goes into readonly:na
# of caching devices failures tolerable for cluster to be available:2
resiliencyInfo:
messages:
Storage cluster is healthy.
state: 1
nodeFailuresTolerable: 1
cachingDeviceFailuresTolerable: 2
<snip>
يختلف موقع SCVM بين خوادم Cisco HyperFlex M4 و M5. يسرد الجدول التالي موقع SCVM ويوفر معلومات مفيدة أخرى.
خادم HX من Cisco | ESXi | SCVM الوصول المعرّف بالبرامج (sda) |
التخزين المؤقت لمحركات الأقراص المزودة بذاكرة مصنوعة من مكونات صلبة (SSD) | محرك أقراص مزود بذاكرة مصنوعة من مكونات صلبة لإدارة المنزل sdb1 و sdb2 |
الطراز HX 220 M4 | بطاقة Secure Digital (بطاقات SD) | 3.5 جيجا على بطاقات SD | الفتحة 2 | الفتحة 1 |
الطراز HX 240 M4 | بطاقات SD | على محركات الأقراص المزودة بذاكرة مصنوعة من مكونات صلبة (SSD) التي يتم التحكم فيها بواسطة PCH (يمتلك esxi التحكم في هذا) | الفتحة 1 | على محركات الأقراص المزودة بذاكرة مصنوعة من مكونات صلبة (SSD) التي يتم التحكم فيها بواسطة PCH |
الطراز HX 220 M5 | محرك أقراص M.2 | محرك أقراص M.2 | الفتحة 2 | الفتحة 1 |
الطراز HX 240 M5 | محرك أقراص M.2 | محرك أقراص M.2 | محرك أقراص مزود بذاكرة مصنوعة من مكونات صلبة (SSD) خلفي قابل للفتحة | الفتحة 1 |
يعتمد عدد حالات الفشل التي يمكن أن يتحملها نظام المجموعة على عامل النسخ المتماثل ونهج الوصول.
عندما يكون عامل النسخ المتماثل (RF) هو 3 ويتم تعيين "نهج الوصول" على "متساهل"، في حالة فشل عقدتين، سيظل نظام المجموعة في حالة القراءة/الكتابة. إذا فشلت 3 عقد، فسيتم إيقاف تشغيل نظام المجموعة.
عامل النسخ المتماثل | نهج الوصول | عدد العقد الفاشلة | ||
قراءة/كتابة | قراءة فقط | الإغلاق | ||
3 | متساهل | 2 | — | 3 |
3 | صارم | 1 | 2 | 3 |
2 | متساهل | 1 | — | 2 |
2 | صارم | — | 1 | 2 |
عندما يكون التردد اللاسلكي هو 3 ويتم تعيين نهج الوصول على متساهل أو مقيد، في حالة فشل عقدة واحدة، يظل نظام المجموعة في حالة القراءة/الكتابة. في حالة فشل عقدتين، سيتم إيقاف تشغيل نظام المجموعة.
عامل النسخ المتماثل | نهج الوصول | عدد العقد الفاشلة | ||
قراءة/كتابة | قراءة فقط | الإغلاق | ||
3 | متساهل أو مقيد | 1 | — | 2 |
2 | متساهل | 1 | — | 2 |
2 | صارم | — | 1 | 2 |
root@SpringpathController:~# stcli cluster storage-summary --detail
<snip>
current ensemble size:3
# of caching failures before cluster shuts down:3
minimum cache copies remaining:3
minimum data copies available for some user data:3
minimum metadata copies available for cluster metadata:3
# of unavailable nodes:0
# of nodes failure tolerable for cluster to be available:1
health state reason:storage cluster is healthy.
# of node failures before cluster shuts down:3
# of node failures before cluster goes into readonly:3
# of persistent devices failures tolerable for cluster to be available:2
# of node failures before cluster goes to enospace warn trying to move the existing data:na
# of persistent devices failures before cluster shuts down:3
# of persistent devices failures before cluster goes into readonly:3
# of caching failures before cluster goes into readonly:na
# of caching devices failures tolerable for cluster to be available:2
resiliencyInfo:
messages:
Storage cluster is healthy.
state: 1
<snip>
clusterAccessPolicy: lenient
تحذير: هذه العملية غير معتمدة على SCVM. يتم هذا فقط لأغراض العرض التوضيحي.
ملاحظة: تأكد من أن SCVM واحد فقط قد تعطل في كل مرة. تأكد أيضا من أن نظام المجموعة يتمتع بصحة جيدة قبل إيقاف تشغيل SCVM. يهدف هذا السيناريو فقط إلى توضيح أنه من المتوقع أن تعمل الأجهزة الافتراضية (VM) ومخازن البيانات حتى إذا كان جهاز SCVM معطلا أو غير متوفر.
سوف تستمر الأجهزة الافتراضية في العمل بشكل طبيعي. فيما يلي مثال إخراج حيث تم إيقاف تشغيل SCVM، ولكن ظلت مخططات البيانات مثبتة ومتاحة.
[root@node1:~] vim-cmd vmsvc/getallvms
Vmid Name File Guest OS Version Annotation
1 stCtlVM-F 9H [SpringpathDS-F 9H] stCtlVM-F 9H/stCtlVM-F 9H.vmx ubuntu64Guest vmx-13
[root@node1:~] vim-cmd vmsvc/power.off 1
Powering off VM:
[root@node1:~] vim-cmd vmsvc/power.getstate 1
Retrieved runtime info
Powered off
[root@node1:~] esxcfg-nas -l
Test is 10.197.252.106:Test from 3203172317343203629-5043383143428344954 mounted available
ReplSec is 10.197.252.106:ReplSec from 3203172317343203629-5043383143428344954 mounted available
New_DS is 10.197.252.106:New_DS from 3203172317343203629-5043383143428344954 mounted available
تحذير: هذه العملية غير معتمدة على SCVM. يتم هذا فقط لأغراض العرض التوضيحي.
ترقية إصدار جهاز VMware من خلال تحرير إعدادات VM في التوافق > ترقية توافق VM هو أن vSphere Web Client ليست عملية مدعومة على SCVM. سيكون SCVM غير متصل في HX Connect.
root@SpringpathController0 UE:~# lsblk NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 2.5G 0 disk `-sda1 8:1 0 2.5G 0 part / sdb 8:16 0 100G 0 disk |-sdb1 8:17 0 64G 0 part /var/stv `-sdb2 8:18 0 24G 0 part /var/zookeeper root@SpringpathController0 UE:~# lsscsi [2:0:0:0] disk VMware Virtual disk 2.0 /dev/sda [2:0:1:0] disk VMware Virtual disk 2.0 /dev/sdb root@SpringpathController0 UE:~# cat /var/log/springpath/diskslotmap-v2.txt 1.11.1:5002538a17221ab0:SAMSUNG:MZIES800HMHP/003:S1N2NY0J201389:EM19:SAS:SSD:763097:Inactive:/dev/sdc 1.11.2:5002538c405537e0:Samsung:SAMSUNG_MZ7LM3T8HMLP-00003:S 98:GXT51F3Q:SATA:SSD:3662830:Inactive:/dev/sdd 1.11.3:5002538c4055383a:Samsung:SAMSUNG_MZ7LM3T8HMLP-00003:S 88:GXT51F3Q:SATA:SSD:3662830:Inactive:/dev/sde 1.11.4:5002538c40553813:Samsung:SAMSUNG_MZ7LM3T8HMLP-00003:S 49:GXT51F3Q:SATA:SSD:3662830:Inactive:/dev/sdf 1.11.5:5002538c4055380e:Samsung:SAMSUNG_MZ7LM3T8HMLP-00003:S 44:GXT51F3Q:SATA:SSD:3662830:Inactive:/dev/sdg 1.11.6:5002538c40553818:Samsung:SAMSUNG_MZ7LM3T8HMLP-00003:S 54:GXT51F3Q:SATA:SSD:3662830:Inactive:/dev/sdh 1.11.7:5002538c405537d1:Samsung:SAMSUNG_MZ7LM3T8HMLP-00003:S 83:GXT51F3Q:SATA:SSD:3662830:Inactive:/dev/sdi 1.11.8:5002538c405537d8:Samsung:SAMSUNG_MZ7LM3T8HMLP-00003:S 90:GXT51F3Q:SATA:SSD:3662830:Inactive:/dev/sdj 1.11.9:5002538c4055383b:Samsung:SAMSUNG_MZ7LM3T8HMLP-00003:S 89:GXT51F3Q:SATA:SSD:3662830:Inactive:/dev/sdk 1.11.10:5002538c4055381f:Samsung:SAMSUNG_MZ7LM3T8HMLP-00003:S 61:GXT51F3Q:SATA:SSD:3662830:Inactive:/dev/sdl 1.11.11:5002538c40553823:Samsung:SAMSUNG_MZ7LM3T8HMLP-00003:S 65:GXT51F3Q:SATA:SSD:3662830:Inactive:/dev/sdm
تحذير: إذا تم إجراء هذه العملية بشكل عرضي، فيرجى الاتصال بدعم Cisco للحصول على مزيد من المساعدة. سيلزم إعادة نشر SCVM.