Introduzione
In questo documento viene descritto come gestire gli FailedGetResourceMetric
eventi generati dai pod istiod.
Problema
Dopo la distribuzione del cluster Subscriber Microservices Infrastructure (SMI) con la versione 2023.01 Cloud Native Deployment Platform (CNDP) è stato notato che i pod continuano a generare FailedGetResourceMetric
eventi:
cloud-user@ndce-smi-1:~$ kubectl get events -A -o yaml
apiVersion: v1
items:
- apiVersion: v1
count: 467057
eventTime: null
firstTimestamp: "2023-12-31T03:57:42Z"
involvedObject:
apiVersion: autoscaling/v2beta2
kind: HorizontalPodAutoscaler
name: istiod
namespace: istio-system
resourceVersion: "4374"
uid: c85a05a1-b9ec-4241-8347-0b3c9eec1193
kind: Event
lastTimestamp: "2024-03-22T14:42:49Z"
message: 'unable to get metrics for resource cpu: unable to fetch metrics from resource
metrics API: the server could not find the requested resource (get pods.metrics.k8s.io)'
metadata:
creationTimestamp: "2023-12-31T03:57:42Z"
managedFields:
- apiVersion: v1
fieldsType: FieldsV1
fieldsV1:
f:count: {}
f:firstTimestamp: {}
f:involvedObject:
f:apiVersion: {}
f:kind: {}
f:name: {}
f:namespace: {}
f:resourceVersion: {}
f:uid: {}
f:lastTimestamp: {}
f:message: {}
f:reason: {}
f:source:
f:component: {}
f:type: {}
manager: kube-controller-manager
operation: Update
time: "2023-12-31T03:57:42Z"
name: istiod.17a5ce7b410bceb6
namespace: istio-system
resourceVersion: "55452121"
selfLink: /api/v1/namespaces/istio-system/events/istiod.17a5ce7b410bceb6
uid: 9616bdc6-90d1-4475-b6af-6d41e185b434
reason: FailedGetResourceMetric
reportingComponent: ""
reportingInstance: ""
source:
component: horizontal-pod-autoscaler
type: Warning
kind: List
metadata:
resourceVersion: ""
selfLink: ""
Analisi
Il problema sembra essere dovuto al fatto che l'opzione HPA (Horizontal Pod Autoscaler) è abilitata nei pod di posa durante l'installazione. Poiché HPA richiede l'API Metrics per determinare l'utilizzo della CPU per la scalatura dei pod verso l'alto e verso il basso e l'API Metrics non è attualmente utilizzata nel cluster Kubernetes gestito da CNDP, si tratta di un difetto di progettazione nella distribuzione dei pod.
Soluzione
HPA è stato rimosso a partire dal rilascio 2023.03 CNDP.