此产品的文档集力求使用非歧视性语言。在本文档集中,非歧视性语言是指不隐含针对年龄、残障、性别、种族身份、族群身份、性取向、社会经济地位和交叉性的歧视的语言。由于产品软件的用户界面中使用的硬编码语言、基于 RFP 文档使用的语言或引用的第三方产品使用的语言,文档中可能无法确保完全使用非歧视性语言。 深入了解思科如何使用包容性语言。
思科采用人工翻译与机器翻译相结合的方式将此文档翻译成不同语言,希望全球的用户都能通过各自的语言得到支持性的内容。 请注意:即使是最好的机器翻译,其准确度也不及专业翻译人员的水平。 Cisco Systems, Inc. 对于翻译的准确性不承担任何责任,并建议您总是参考英文原始文档(已提供链接)。
本文档从访客虚拟机(VM)、ESXi主机和(SCVM)的角度介绍Hyperflex环境中的性能影响
要对Hyperflex环境中的性能进行故障排除,必须确定群集的类型、性能降级的操作、性能降级的频率以及导致性能降级的性能影响级别。
在hyperflex集群中,在访客VM、ESXI主机级别和存储控制器VM级别存在多个级别的影响。
●混合节点:使用固态驱动器(SSD)进行缓存,使用硬盘进行容量层。
●全闪存节点:使用SSD驱动器或非易失性Memory Express(NVMe)存储进行缓存,使用SSD驱动器进行容量层。
● 全NVMe节点:使用NVMe存储进行缓存,使用容量层全NVMe节点通过缓存为要求最苛刻的工作负载提供最高性能
Hyperflex系统具有监控性能的功能,图表显示存储群集的读写性能。
每秒输入/输出操作(IOPS)是用于测量计算机存储设备(包括HDD)的通用性能指标。此指标用于评估随机I/O工作负载的性能。
该图显示了存储群集中数据传输的速率,以Mbps为测量单位。
延迟是衡量单个I/O请求完成所需的时间。它是发出请求与接收响应之间的持续时间,以毫秒为测量单位。
必须定义性能影响的频率和持续时间,以审查对环境可能的影响。
如果性能始终受到影响,则需要检查性能从何处开始下降,并检查群集之间的任何配置更改或问题。
如果性能间歇性受到影响,则需要检查此时是否正在运行操作或服务。
群集的性能可能受到外部因素的影响,如快照和备份操作。
有关外部因素的详细信息,请查看以下链接:
Cisco HyperFlex系统和Veeam备份和复制白皮书。
这是hyperflex环境中最明显的影响级别,它直接影响VM提供的服务,对直接受影响的用户影响更明显。
以下是用于在常见操作系统上标识性能的常见测试。
查看可用工具以确定Windows访客虚拟机中的性能问题:
在确定性能影响并查看性能降级的可能原因后,会进行一些性能检查以改进性能。
半虚拟SCSI(PVSCSI)适配器是高性能存储适配器,可为具有高磁盘IO需求的虚拟机带来更大的吞吐量和CPU利用率低,建议使用PVSCSI适配器。PVSCSI控制器是一种虚拟化感知型高性能SCSI适配器,能够以最低的CPU开销实现最低的延迟和最高吞吐量。
VMXNET 3是一个半虚拟化NIC,旨在实现高性能,并提供在现代网络中常用的高性能功能,例如巨型帧、多队列支持(在Windows中也称为接收端扩展)、IPv6卸载以及MSI/MSI-X中断交付和硬件卸载。
确保适配器类型为VMXNET3。
注:此检查仅适用于运行Windows操作系统的访客虚拟机。
接收端扩展(RSS)是一种网络驱动程序技术,可在多处理器系统中跨多个CPU有效分配网络接收处理。
Windows服务器具有驱动程序配置,可在多个CPU之间分配内核模式网络处理负载。
验证是否已启用,在Windows PowerShell上运行此命令:
netsh interface tcp set global rss=enabled
要启用RSS,请查看此链接
CPU热插拔功能使VM管理员能够将CPU添加到VM,而无需关闭其电源。这允许在不中断服务的情况下动态添加CPU资源。在VM上启用CPU热插拔后,vNUMA功能将被禁用。
查看通用操作系统和应用程序的最佳实践:
Windows 窗口版本.
红帽子。
SQL Server.
在VMware上构建Microsoft SQL Server。
RedHat。
要确定主机级别的性能影响,您可以查看ESXI主机内置于ESXI虚拟机监控程序中的性能图表,并检查受影响的主机数量。
您可以在vCenter的“监视器”选项卡中查看性能图表,单击“性能”选项卡。
在这些图表中,可以查看与CPU、内存和磁盘相关的性能图表。请参阅此链接以了解图表。
注意:CRC错误和MTU不匹配(尤其是在存储网络中)会导致延迟问题。 存储流量必须使用巨型帧。
存储I/O控制(SIOC)用于控制虚拟机的I/O使用情况,并逐步实施预定义的I/O共享级别,这是在Hyperflex群集中禁用此功能所必需的。
Queue depth是存储资源可随时处理的挂起输入/输出(I/O)请求数。
您可以使用这些步骤验证SIOC已禁用以及队列深度配置。
步骤1:通过SSH连接到HX ESXi主机,然后发出命令以列出datastore。
[root@] vsish -e ls /vmkModules/nfsclient/mnt
encrypted_app/
Prod/ <----- Datastore name
Dev/
App/
第二步:使用Data Store名称并发出命令。
vsish -e get /vmkModules/nfsclient/mnt/
/properties [root@] vsish -e get /vmkModules/nfsclient/mnt/Prod/properties mount point information { volume name:Prod server name:7938514614702552636-8713662604223381594 server IP:127.0.0.1 server volume:172.16.3.2:Prod UUID:63dee313-dfecdf62 client src port:641 busy:0 socketSendSize:1048576 socketReceiveSize:1048576 maxReadTransferSize:65536 maxWriteTransferSize:65536 reads:0 readsFailed:0 writes:285 writesFailed:0 readBytes:0 writeBytes:10705 readTime:0 writeTime:4778777 readSplitsIssued:0 writeSplitsIssued:285 readIssueTime:0 writeIssueTime:4766494 cancels:0 totalReqsQueued:0 metadataReqsQueued(non IO):0 reqsInFlight:0 readOnly:0 hidden:0 isPE:0 isMounted:1 isAccessible:1 unstableWrites:0 unstableNoCommit:0 maxQDepth:1024 <-------- Max Qdepth configuration iormState:0 <-------- I/O control disabled latencyThreshold:30 shares:52000 podID:0 iormInfo:0 NFS operational state: 0 -> Up enableDnlc:1 closeToOpenCache:0 highToAvgLatRatio:10 latMovingAvgSmoothingLevel:2 activeWorlds:55 inPreUnmount:0 }
第三步:在输出中查找行
iormState:0 0= disabled 2= enabled
行maxQDepth必须为1024
第四步:对于其余的Datastore,必须重复相同的步骤
要禁用SIOC,请运行以下步骤。
步骤1:使用HTML客户端登录到vsphere。
步骤2.从下拉菜单中选择存储,然后在左侧窗格中选择适用的HX数据存储。
第三步: 在Datastore的右窗格顶部部分中,选择configure选项卡。
第四步: 在右侧窗格中间的“更多”下,选择“常规”,在右侧向下滚动到“DataStore功能”并单击“编辑”
如果未选中“禁用存储I/O控制和统计信息收集”单选按钮,请选中该按钮。
如果选中禁用存储I/O控制和统计信息收集单选按钮,请在启用存储I/O控制和统计信息收集与禁用存储I/O控制和统计信息收集之间切换。
第五步:根据需要对所有其他Datastore重复步骤1到步骤4。
要修改maxQDepath,请对每个datastore发出下一个命令。
vsish -e set /vmkModules/nfsclient/mnt/
/properties maxQDepth 1024
具有大量网络流量的Hyperflex服务器或具有微爆发的网络流量可能导致以rx_no_bufs形式出现的数据包丢失。
要识别此问题,请在ESXi主机上运行这些命令以检查rx_no_buf计数器。
/usr/lib/vmware/vm-support/bin/nicinfo.sh | egrep "^NIC:|rx_no_buf"
NIC: vmnic0
rx_no_bufs: 1
NIC: vmnic1
rx_no_bufs: 2
NIC: vmnic2
rx_no_bufs: 2
NIC: vmnic3
rx_no_bufs: 71128211 <---------Very high rx_no_bufs counter
NIC: vmnic4
rx_no_bufs: 1730
NIC: vmnic5
rx_no_bufs: 897
NIC: vmnic6
rx_no_bufs: 24952
NIC: vmnic7
rx_no_bufs: 2
等待几分钟,然后再次运行该命令,并检查rx_no_bufs计数器是否没有增加。
如果您看到这些值的计数器,请与Cisco TAC联系,调整vNIC配置以获得更好的性能。
检查ESXI级别的最佳实践和其他检查。
验证群集是否正常。
hxshell:~$ sysmtool --ns cluster --cmd healthdetail
Cluster Health Detail:
---------------------:
State: ONLINE <---------- State of the cluster
HealthState: HEALTHY <---------- Health of the cluster
Policy Compliance: COMPLIANT
Creation Time: Tue May 30 04:48:45 2023
Uptime: 7 weeks, 19 hours, 45 mins, 51 secs
Cluster Resiliency Detail:
-------------------------:
Health State Reason: Storage cluster is healthy.
# of nodes failure tolerable for cluster to be fully available: 1
# of node failures before cluster goes into readonly: NA
# of node failures before cluster goes to be crticial and partially available: 3
# of node failures before cluster goes to enospace warn trying to move the existing data: NA
# of persistent devices failures tolerable for cluster to be fully available: 2
# of persistent devices failures before cluster goes into readonly: NA
# of persistent devices failures before cluster goes to be critical and partially available: 3
# of caching devices failures tolerable for cluster to be fully available: 2
# of caching failures before cluster goes into readonly: NA
# of caching failures before cluster goes to be critical and partially available: 3
Current ensemble size: 3
Minimum data copies available for some user data: 3
Minimum cache copies remaining: 3
Minimum metadata copies available for cluster metadata: 3
Current healing status:
Time remaining before current healing operation finishes:
# of unavailable nodes: 0
hxshell:~$
此输出显示由于节点不可用而导致不正常的群集。
hxshell:~$ sysmtool --ns cluster --cmd healthdetail
Cluster Health Detail:
---------------------:
State: ONLINE <-------State of the cluster
HealthState: UNHEALTHY <-------Health of the cluster
Policy Compliance: NON-COMPLIANT
Creation Time: Tue May 30 04:48:45 2023
Uptime: 7 weeks, 19 hours, 55 mins, 9 secs
Cluster Resiliency Detail:
-------------------------:
Health State Reason: Storage cluster is unhealthy.Storage node 172.16.3.9 is unavailable. <----------- Health state reason
# of nodes failure tolerable for cluster to be fully available: 0
# of node failures before cluster goes into readonly: NA
# of node failures before cluster goes to be crticial and partially available: 2
# of node failures before cluster goes to enospace warn trying to move the existing data: NA
# of persistent devices failures tolerable for cluster to be fully available: 1
# of persistent devices failures before cluster goes into readonly: NA
# of persistent devices failures before cluster goes to be critical and partially available: 2
# of caching devices failures tolerable for cluster to be fully available: 1
# of caching failures before cluster goes into readonly: NA
# of caching failures before cluster goes to be critical and partially available: 2
Current ensemble size: 3
Minimum data copies available for some user data: 2
Minimum cache copies remaining: 2
Minimum metadata copies available for cluster metadata: 2
Current healing status: Rebuilding/Healing is needed, but not in progress yet. Warning: Insufficient node or space resources may prevent healing. Storage Node 172.16.3.9 is either down or initializing disks.
Time remaining before current healing operation finishes:
# of unavailable nodes: 1
hxshell:~$
此输出显示由于重建导致的不正常群集。
Cluster Health Detail:
---------------------:
State: ONLINE
HealthState: UNHEALTHY
Policy Compliance: NON-COMPLIANT
Creation Time: Tue May 30 04:48:45 2023
Uptime: 7 weeks, 20 hours, 2 mins, 4 secs
Cluster Resiliency Detail:
-------------------------:
Health State Reason: Storage cluster is unhealthy.
# of nodes failure tolerable for cluster to be fully available: 1
# of node failures before cluster goes into readonly: NA
# of node failures before cluster goes to be crticial and partially available: 2
# of node failures before cluster goes to enospace warn trying to move the existing data: NA
# of persistent devices failures tolerable for cluster to be fully available: 1
# of persistent devices failures before cluster goes into readonly: NA
# of persistent devices failures before cluster goes to be critical and partially available: 2
# of caching devices failures tolerable for cluster to be fully available: 1
# of caching failures before cluster goes into readonly: NA
# of caching failures before cluster goes to be critical and partially available: 2
Current ensemble size: 3
Minimum data copies available for some user data: 3
Minimum cache copies remaining: 2
Minimum metadata copies available for cluster metadata: 2
Current healing status: Rebuilding is in progress, 58% completed.
Time remaining before current healing operation finishes: 18 hr(s), 10 min(s), and 53 sec(s)
# of unavailable nodes: 0
这些命令可显示集群运行状况的整体摘要,并让您知道是否有影响集群运行的因素,例如,是否有列入黑名单的磁盘、脱机节点,或者集群是否正在恢复。
性能可能会受到未参与输入和输出操作的节点的影响,要检查参与I/O的节点,请发出以下命令。
提示:从5.0(2a)版本开始,diag user可用于允许用户拥有更多权限进行故障排除,以访问无法通过Hyperflex版本4.5.x中引入的priv命令行访问的受限文件夹和命令。
步骤1:进入存储控制器VM上的diag shell。
hxshell:~$ su diag
Password:
_ _ _ _ _ _____ _ ___
| \ | (_)_ __ ___ | || | | ___(_)_ _____ / _ \ _ __ ___
| \| | | '_ \ / _ \ _____ | || |_ _____ | |_ | \ \ / / _ \ _____ | | | | '_ \ / _ \
| |\ | | | | | __/ |_____| |__ _| |_____| | _| | |\ V / __/ |_____| | |_| | | | | __/
|_| \_|_|_| |_|\___| |_| |_| |_| \_/ \___| \___/|_| |_|\___|
Enter the output of above expression: -1
Valid captcha
步骤2.发出此命令以验证参与I/O操作的节点,IP数量必须等于群集上的已收敛节点数量。
diag# nfstool -- -m | cut -f2 | sort | uniq
172.16.3.7
172.16.3.8
172.16.3.9
Cleaner的主要目标之一是识别系统中死存储块和活动存储块,并删除死存储块,释放它们所占用的存储空间。这是一个后台工作,其主动性是根据策略设定的。
您可以通过发出下一命令检查清理器服务。
bash-4.2# stcli cleaner info
{ 'name': '172.16.3.7', 'id': '1f82077d-6702-214d-8814-e776ffc0f53c', 'type': 'node' }: OFFLINE <----------- Cleaner shows as offline
{ 'name': '172.16.3.8', 'id': 'c4a24480-e935-6942-93ee-987dc8e9b5d9', 'type': 'node' }: OFFLINE
{ 'name': '172.16.3.9', 'id': '50a5dc5d-c419-9c48-8914-d91a98d43fe7', 'type': 'node' }: OFFLINE
要启动清理进程,请发出此命令。
bash-4.2# stcli cleaner start
WARNING: This command should be executed ONLY by Cisco TAC support as it may have very severe consequences. Do you want to proceed ? (y/n): y
bash-4.2# stcli cleaner info
{ 'type': 'node', 'id': '1f82077d-6702-214d-8814-e776ffc0f53c', 'name': '172.16.3.7' }: ONLINE
{ 'type': 'node', 'id': 'c4a24480-e935-6942-93ee-987dc8e9b5d9', 'name': '172.16.3.8' }: ONLINE
{ 'type': 'node', 'id': '50a5dc5d-c419-9c48-8914-d91a98d43fe7', 'name': '172.16.3.9' }: ONLINE <---------All nodes need to be online
bash-4.2#
注意:此命令必须经思科TAC批准后执行。
存储群集会定期重新平衡。它用于在可用存储更改之间重新调整存储数据的分布,并恢复存储群集的运行状况。
重新平衡在集群中运行的原因不同:
验证群集是否已启用重新平衡。
hxshell:~$ stcli rebalance status
rebalanceStatus:
percentComplete: 0
rebalanceState: cluster_rebalance_not_running
rebalanceEnabled: True <---------Rebalance should be enabled
hxshell:~$
注意:任何与再平衡相关的操作都必须经过思科TAC批准。
为正确操作,群集不能有任何列入黑名单的磁盘或脱机资源。
您需要检查HX Connect接口中的群集上是否有任何列入黑名单的磁盘。
在CLI上检查每个汇聚节点上的任何离线资源。
sysmtool --ns cluster --cmd offlineresources
UUID Type State InUse Last modified
---- ---- ----- ----- -------------
000cca0b019b4a80:0000000000000000 DISK DELETED YES <------- Offline disk
5002538c405e0bd1:0000000000000000 DISK BLOCKLISTED NO <------- Blacklisted disk
5002538c405e299e:0000000000000000 DISK DELETED NO
Total offline resources: 3, Nodes: 0, Disks: 3
验证是否有任何列入黑名单的资源。
hxshell:~$ sysmtool --ns disk --cmd list | grep -i blacklist
Blacklist Count: 0
Blacklist Count: 0
Blacklist Count: 0
Blacklist Count: 0
State: BLACKLISTED
Blacklist Count: 5
Blacklist Count: 0
Blacklist Count: 0
您需要使用此命令检查每个收敛节点中是否有任何故障磁盘。
admin:~$ cat /var/log/springpath/diskslotmap-v2.txt
0.0.1:5002538e000d59a3:Samsung:SAMSUNG_MZ7LH3T8HMLT-00003:S4F3NY0M302248:HXT76F3Q:SATA:SSD:3662830:Inactive:/dev/sdj <---------Inactive disk
1.0.2:5002538c40be79ac:Samsung:SAMSUNG_MZ7LM240HMHQ-00003:S4EGNX0KC04551:GXT51F3Q:SATA:SSD:228936:Active:/dev/sdb
1.0.3:5002538e000d599e:Samsung:SAMSUNG_MZ7LH3T8HMLT-00003:S4F3NY0M302243:HXT76F3Q:SATA:SSD:3662830:Active:/dev/sdc
1.0.4:5002538e000d59a0:Samsung:SAMSUNG_MZ7LH3T8HMLT-00003:S4F3NY0M302245:HXT76F3Q:SATA:SSD:3662830:Active:/dev/sdd
1.0.5:5002538e000eb00b:Samsung:SAMSUNG_MZ7LH3T8HMLT-00003:S4F3NY0M302480:HXT76F3Q:SATA:SSD:3662830:Active:/dev/sdi
1.0.6:5002538e000d599b:Samsung:SAMSUNG_MZ7LH3T8HMLT-00003:S4F3NY0M302240:HXT76F3Q:SATA:SSD:3662830:Active:/dev/sdf
1.0.7:5002538e000d57f6:Samsung:SAMSUNG_MZ7LH3T8HMLT-00003:S4F3NY0M301819:HXT76F3Q:SATA:SSD:3662830:Active:/dev/sdh
1.0.8:5002538e000d59ab:Samsung:SAMSUNG_MZ7LH3T8HMLT-00003:S4F3NY0M302256:HXT76F3Q:SATA:SSD:3662830:Active:/dev/sde
1.0.9:5002538e000d59a1:Samsung:SAMSUNG_MZ7LH3T8HMLT-00003:S4F3NY0M302246:HXT76F3Q:SATA:SSD:3662830:Active:/dev/sdg
1.0.10:5002538e0008c68f:Samsung:SAMSUNG_MZ7LH3T8HMLT-00003:S4F3NY0M200500:HXT76F3Q:SATA:SSD:3662830:Active:/dev/sdj
0.1.192:000cca0b01c83180:HGST:UCSC-NVMEHW-H1600:SDM000026904:KNCCD111:NVMe:SSD:1526185:Active:/dev/nvme0n1
admin:~$
没有任何磁盘故障的节点的示例。
hxshell:~$ sysmtool --ns cluster --cmd offlineresources
No offline resources found <-------- No offline resources
hxshell:~$ sysmtool --ns disk --cmd list | grep -i blacklist
hxshell:~$ <-------- No blacklisted disks
hxshell:~$ cat /var/log/springpath/diskslotmap-v2.txt
1.14.1:55cd2e404c234bf9:Intel:INTEL_SSDSC2BX016T4K:BTHC618505B51P6PGN:G201CS01:SATA:SSD:1526185:Active:/dev/sdc
1.14.2:5000c5008547c543:SEAGATE:ST1200MM0088:Z4009D7Y0000R637KMU7:N0A4:SAS:10500:1144641:Active:/dev/sdd
1.14.3:5000c5008547be1b:SEAGATE:ST1200MM0088:Z4009G0B0000R635L4D3:N0A4:SAS:10500:1144641:Active:/dev/sde
1.14.4:5000c5008547ca6b:SEAGATE:ST1200MM0088:Z4009F9N0000R637JZRF:N0A4:SAS:10500:1144641:Active:/dev/sdf
1.14.5:5000c5008547b373:SEAGATE:ST1200MM0088:Z4009GPM0000R634ZJHB:N0A4:SAS:10500:1144641:Active:/dev/sdg
1.14.6:5000c500854310fb:SEAGATE:ST1200MM0088:Z4008XFJ0000R6374ZE8:N0A4:SAS:10500:1144641:Active:/dev/sdh
1.14.7:5000c50085424b53:SEAGATE:ST1200MM0088:Z4008D2S0000R635M4VF:N0A4:SAS:10500:1144641:Active:/dev/sdi
1.14.8:5000c5008547bcfb:SEAGATE:ST1200MM0088:Z4009G3W0000R637K1R8:N0A4:SAS:10500:1144641:Active:/dev/sdj
1.14.9:5000c50085479abf:SEAGATE:ST1200MM0088:Z4009J510000R637KL1V:N0A4:SAS:10500:1144641:Active:/dev/sdk
1.14.11:5000c5008547c2c7:SEAGATE:ST1200MM0088:Z4009FR00000R637JPEQ:N0A4:SAS:10500:1144641:Active:/dev/sdl
1.14.13:5000c5008547ba93:SEAGATE:ST1200MM0088:Z4009G8V0000R634ZKLX:N0A4:SAS:10500:1144641:Active:/dev/sdm
1.14.14:5000c5008547b69f:SEAGATE:ST1200MM0088:Z4009GG80000R637KM30:N0A4:SAS:10500:1144641:Active:/dev/sdn
1.14.15:5000c5008547b753:SEAGATE:ST1200MM0088:Z4009GH90000R635L5F6:N0A4:SAS:10500:1144641:Active:/dev/sdo
1.14.16:5000c5008547ab7b:SEAGATE:ST1200MM0088:Z4009H3P0000R634ZK8T:N0A4:SAS:10500:1144641:Active:/dev/sdp <------All disks are active
hxshell:~$
使用此命令检查可用内存,可用内存必须大于2048 MB(可用的+缓存)。
hxshell:~$ free –m
total used free shared buff/cache available
Mem: 74225624 32194300 38893712 1672 3137612 41304336
Swap: 0 0 0
hxshell:~$
如果可用+缓存内存小于2048,则有必要标识生成内存不足情况的进程。
注意:您可以使用top命令识别消耗大量内存的进程,但任何更改都必须经过TAC批准,请联系思科TAC以排除OOM条件故障。
在HX Connect容量视图中,存储群集空间利用率的最佳实践是不超过76%。超过76%的HX Connect容量视图使用率会导致性能下降。
如果存储群集遇到ENOSPC情况,清理程序将自动以高优先级运行,这会在群集中产生性能问题,优先级由群集空间使用率决定。
如果存储群集达到ENOSPC WARN条件,清理程序会通过增加I/O的数量来使用ENOSPC设置条件收集垃圾,从而增加其强度,它以最高优先级运行。
您可以使用此命令检查集群上的ENOSPCINFO状态。
hxshell:~$ sysmtool --ns cluster --cmd enospcinfo
Cluster Space Details:
---------------------:
Cluster state: ONLINE
Health state: HEALTHY
Raw capacity: 42.57T
Usable capacity: 13.06T
Used capacity: 163.08G
Free capacity: 12.90T
Enospc state: ENOSPACE_CLEAR <--------End of space status
Space reclaimable: 0.00
Minimum free capacity
required to resume operation: 687.12G
Space required to clear
ENOSPC warning: 2.80T <--------Free space until the end of space warning appears
Rebalance In Progress: NO
Flusher in progress: NO
Cleaner in progress: YES
Disk Enospace: NO
hxshell:~$
查看Cisco HyperFlex中的容量管理白皮书,确定管理Hyperflex集群空间的最佳实践。
有时,Hyperflex性能图表不显示信息。
如果遇到此行为,您需要检查统计服务是否在集群中运行。
hxshell:~$ priv service carbon-cache status
carbon-cache stop/waiting
hxshell:~$ priv service carbon-aggregator status
carbon-aggregator stop/waiting
hxshell:~$ priv service statsd status
statsd stop/waiting
如果进程未运行,请手动启动服务。
hxshell:~$ priv service carbon-cache start
carbon-cache start/running, process 15750
hxshell:~$ priv service carbon-aggregator start
carbon-aggregator start/running, process 15799
hxshell:~$ priv service statsd start
statsd start/running, process 15855
版本 | 发布日期 | 备注 |
---|---|---|
1.0 |
27-Jul-2023 |
初始版本 |