Dans le cadre de la documentation associée à ce produit, nous nous efforçons d’utiliser un langage exempt de préjugés. Dans cet ensemble de documents, le langage exempt de discrimination renvoie à une langue qui exclut la discrimination en fonction de l’âge, des handicaps, du genre, de l’appartenance raciale de l’identité ethnique, de l’orientation sexuelle, de la situation socio-économique et de l’intersectionnalité. Des exceptions peuvent s’appliquer dans les documents si le langage est codé en dur dans les interfaces utilisateurs du produit logiciel, si le langage utilisé est basé sur la documentation RFP ou si le langage utilisé provient d’un produit tiers référencé. Découvrez comment Cisco utilise le langage inclusif.
Cisco a traduit ce document en traduction automatisée vérifiée par une personne dans le cadre d’un service mondial permettant à nos utilisateurs d’obtenir le contenu d’assistance dans leur propre langue. Il convient cependant de noter que même la meilleure traduction automatisée ne sera pas aussi précise que celle fournie par un traducteur professionnel.
Ce document décrit comment utiliser le débogage TCP dans le shell de débogage StarOS pour résoudre les problèmes de connexion Diameter. Souvent, des demandes d'assistance sont soulevées pour déterminer pourquoi une connexion Diameter ne s'active pas ou n'est pas arrêtée, même si (supposément) aucune modification de configuration ou de réseau n'a eu lieu. La connexion de diamètre peut ne pas être établie au niveau de négociation TCP/IP initial, ou au niveau de requête d'échange de capacités (CER) / réponse d'échange de capacités (CEA).
Bien qu'il n'y ait pas de problème typique d'appairage en diamètre, ils se classent en quelques catégories :
En règle générale, le port TCP 3868 (par défaut) est utilisé pour le côté serveur Diameter, bien que d'autres ports puissent également être spécifiés, et confirmé comme étant différent de 3868 dans la configuration si les lignes de configuration homologues ont un numéro de port spécifié à la fin de la ligne.
Dans l'exemple ci-dessus, les homologues pour le point de terminaison 3gpp-aaa-s6b ont été signalés par show diamètre peer full all et n'ont pas de numéro de port spécifié dans les lignes homologues et donc par défaut utilisent le port 3868, tandis que les homologues pour Gy utilisent une combinaison de 3868, 3869 et 30 pour les différents pairs.
show diamètre peers all signale tous les homologues configurés pour tous les terminaux de diamètre. Ici, nous voyons 6 homologues configurés et les lignes de configuration associées pour 3gpp-aaa-s6b (cassés) ainsi que pour Gy (en fonctionnement), notant que Gy a des numéros de port personnalisés :
diameter endpoint 3gpp-aaa-s6b origin realm epc.mnc260.mcc310.3gppnetwork.org use-proxy origin host s6b.IEPCF201.epc.mnc260.mcc310.3gppnetwork.org address 10.168.86.144 max-outstanding 64 route-failure threshold 100 route-failure deadtime 600 route-failure recovery-threshold percent 50 dscp af31 peer mp2.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org realm epc.mnc260.mcc310.3gppnetwork.org address 10.160.113.136 peer mp2.elgdra01.dra.epc.mnc260.mcc310.3gppnetwork.org realm epc.mnc260.mcc310.3gppnetwork.org address 10.160.114.136 peer mp2.nvldra01.dra.epc.mnc260.mcc310.3gppnetwork.org realm epc.mnc260.mcc310.3gppnetwork.org address 10.160.115.136 peer tsa06.draaro01.dra.epc.mnc260.mcc310.3gppnetwork.org realm epc.mnc260.mcc310.3gppnetwork.org address 10.162.6.73 peer tsa06.drasyo01.dra.epc.mnc260.mcc310.3gppnetwork.org realm epc.mnc260.mcc310.3gppnetwork.org address 10.164.57.41 peer tsa06.drawsc01.dra.epc.mnc260.mcc310.3gppnetwork.org realm epc.mnc260.mcc310.3gppnetwork.org address 10.177.70.201 route-entry peer mp2.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org route-entry peer mp2.elgdra01.dra.epc.mnc260.mcc310.3gppnetwork.org route-entry peer mp2.nvldra01.dra.epc.mnc260.mcc310.3gppnetwork.org route-entry peer tsa06.draaro01.dra.epc.mnc260.mcc310.3gppnetwork.org route-entry peer tsa06.drasyo01.dra.epc.mnc260.mcc310.3gppnetwork.org route-entry peer tsa06.drawsc01.dra.epc.mnc260.mcc310.3gppnetwork.org #exit [local]IEPCF201# show diameter peers all Friday December 11 20:27:43 UTC 2020 Diameter Peer details ====================== ------------------------------------------------------------------------------- Context: billing Endpoint: 3gpp-aaa-s6b ------------------------------------------------------------------------------- Peer: mp2.daldra01.dra.epc.mnc260.mc Addr:Port 10.160.113.136:3868 Peer: mp2.elgdra01.dra.epc.mnc260.mc Addr:Port 10.160.114.136:3868 Peer: mp2.nvldra01.dra.epc.mnc260.mc Addr:Port 10.160.115.136:3868 Peer: tsa06.draaro01.dra.epc.mnc260. Addr:Port 10.162.6.73:3868 Peer: tsa06.drasyo01.dra.epc.mnc260. Addr:Port 10.164.57.41:3868 Peer: tsa06.drawsc01.dra.epc.mnc260. Addr:Port 10.177.70.201:3868 ------------------------------------------------------------------------------- diameter endpoint credit-control origin realm starent.gy.com use-proxy origin host iepcf201.gy address 10.168.86.151 destination-host-avp always route-failure threshold 100 route-failure deadtime 600 route-failure recovery-threshold percent 50 peer ln24.daldra01.dra.epc3.mnc260.mcc310.3gppnetwork.org realm nsn-gy address 10.160.113.136 port 3869 peer ln24.drawsc01.dra.epc3.mnc260.mcc310.3gppnetwork.org realm nsn-gy address 10.177.70.201 port 3870 peer tsa05.drachr01.dra.epc3.mnc260.mcc310.3gppnetwork.org realm nsn-gy address 10.164.144.88 peer tsa05.draphx01.dra.epc3.mnc260.mcc310.3gppnetwork.org realm nsn-gy address 10.198.93.88 peer tsa05.drapol01.dra.epc3.mnc260.mcc310.3gppnetwork.org realm nsn-gy address 10.182.16.88 peer tsa06.drachr01.dra.epc3.mnc260.mcc310.3gppnetwork.org realm nsn-gy address 10.164.144.89 peer tsa06.draphx01.dra.epc3.mnc260.mcc310.3gppnetwork.org realm nsn-gy address 10.198.93.89 peer tsa06.drapol01.dra.epc3.mnc260.mcc310.3gppnetwork.org realm nsn-gy address 10.182.16.89 route-entry peer ln24.drawsc01.dra.epc3.mnc260.mcc310.3gppnetwork.org weight 20 route-entry peer ln24.daldra01.dra.epc3.mnc260.mcc310.3gppnetwork.org route-entry peer tsa05.drapol01.dra.epc3.mnc260.mcc310.3gppnetwork.org route-entry peer tsa06.drapol01.dra.epc3.mnc260.mcc310.3gppnetwork.org route-entry peer tsa05.drachr01.dra.epc3.mnc260.mcc310.3gppnetwork.org weight 5 route-entry peer tsa05.draphx01.dra.epc3.mnc260.mcc310.3gppnetwork.org weight 5 route-entry peer tsa06.drachr01.dra.epc3.mnc260.mcc310.3gppnetwork.org weight 5 route-entry peer tsa06.draphx01.dra.epc3.mnc260.mcc310.3gppnetwork.org weight 5 #exit
Notez également que pour la plupart des configurations, le configurable use-proxy est spécifié pour configurer l'appairage côté ASR pour utiliser le processus diamproxy exécuté sur toutes les cartes actives, par exemple, il s'agit d'un vPC-DI où les cartes sont appelées Service Function Cards.
[local]IEPCF201# show task resources facility diamproxy all Friday December 11 20:34:37 UTC 2020 task cputime memory files sessions cpu facility inst used allc used alloc used allc used allc S status ----------------------- ----------- ------------- --------- ------------- ------ 3/0 diamproxy 5 0.12% 90% 41.62M 250.0M 38 2500 -- -- - good 5/0 diamproxy 2 0.11% 90% 41.63M 250.0M 51 2500 -- -- - good 6/0 diamproxy 6 0.13% 90% 41.62M 250.0M 35 2500 -- -- - good 7/0 diamproxy 3 0.12% 90% 41.64M 250.0M 34 2500 -- -- - good 8/0 diamproxy 4 0.13% 90% 41.65M 250.0M 34 2500 -- -- - good 10/0 diamproxy 1 0.10% 90% 41.64M 250.0M 49 2500 -- -- - good Total 6 0.71% 249.8M 241 0 [local]IEPCF201#
Ici show diamètre peers full all est extrait des détails du support show capture le fait que les homologues Diameter pour le point de terminaison 3gpp-aaa-s6b sont tous en panne. Notez qu'il s'agit d'une version de débogage spéciale de la commande show diamètre peers full tirée de la commande show support details (SSD) et qu'elle affiche également toutes les connexions homologues aux processus aamgr (ne montrant pas le résultat ici) et donc le nombre final de connexions est beaucoup plus élevé que si ceci était exécuté normalement, mais affiché en bas est le résultat résumé comme s'il était exécuté normalement avec moins de connexions (1) 44). La sortie COMPLÈTE est jointe à cet article, de sorte que seules les connexions pour un homologue (mais avec les 6 diamproxies) sont affichées pour la concision.
L'exemple suivant illustre une connexion ouverte pour les terminaux Gy, où vous pouvez voir un champ supplémentaire appelé Adresse locale qui capture la connexion active côté ASR, tandis que sur les homologues 3gpp-aaa-s6b rompus, ce champ n'existe pas. (Plus loin, la sortie après que le problème a été corrigé par le client pour l'homologue 3gpp-aaa-s6b où cette adresse locale est incluse.)
******** show diameter peers full ******* Sunday December 13 15:19:00 UTC 2020 ------------------------------------------------------------------------------- Context: billing Endpoint: 3gpp-aaa-s6b ------------------------------------------------------------------------------- Peer Hostname: mp2.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org Local Hostname: 0001-diamproxy.s6b.IEPCF201.epc.mnc260.mcc310.3gppnetwork.org Peer Realm: epc.mnc260.mcc310.3gppnetwork.org Local Realm: epc.mnc260.mcc310.3gppnetwork.org Peer Address: 10.160.113.136:3868 State: IDLE [TCP] CPU: 10/0 Task: diamproxy-1 Messages Out/Queued: 0/0 Supported Vendor IDs: None Admin Status: Enable DPR Disconnect: N/A Peer Backoff Timer running:N/A Peer Hostname: mp2.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org Local Hostname: 0002-diamproxy.s6b.IEPCF201.epc.mnc260.mcc310.3gppnetwork.org Peer Realm: epc.mnc260.mcc310.3gppnetwork.org Local Realm: epc.mnc260.mcc310.3gppnetwork.org Peer Address: 10.160.113.136:3868 State: IDLE [TCP] CPU: 5/0 Task: diamproxy-2 Messages Out/Queued: 0/0 Supported Vendor IDs: None Admin Status: Enable DPR Disconnect: N/A Peer Backoff Timer running:N/A Peer Hostname: mp2.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org Local Hostname: 0003-diamproxy.s6b.IEPCF201.epc.mnc260.mcc310.3gppnetwork.org Peer Realm: epc.mnc260.mcc310.3gppnetwork.org Local Realm: epc.mnc260.mcc310.3gppnetwork.org Peer Address: 10.160.113.136:3868 State: IDLE [TCP] CPU: 7/0 Task: diamproxy-3 Messages Out/Queued: 0/0 Supported Vendor IDs: None Admin Status: Enable DPR Disconnect: N/A Peer Backoff Timer running:N/A Peer Hostname: mp2.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org Local Hostname: 0004-diamproxy.s6b.IEPCF201.epc.mnc260.mcc310.3gppnetwork.org Peer Realm: epc.mnc260.mcc310.3gppnetwork.org Local Realm: epc.mnc260.mcc310.3gppnetwork.org Peer Address: 10.160.113.136:3868 State: IDLE [TCP] CPU: 8/0 Task: diamproxy-4 Messages Out/Queued: 0/0 Supported Vendor IDs: None Admin Status: Enable DPR Disconnect: N/A Peer Backoff Timer running:N/A Peer Hostname: mp2.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org Local Hostname: 0005-diamproxy.s6b.IEPCF201.epc.mnc260.mcc310.3gppnetwork.org Peer Realm: epc.mnc260.mcc310.3gppnetwork.org Local Realm: epc.mnc260.mcc310.3gppnetwork.org Peer Address: 10.160.113.136:3868 State: IDLE [TCP] CPU: 3/0 Task: diamproxy-5 Messages Out/Queued: 0/0 Supported Vendor IDs: None Admin Status: Enable DPR Disconnect: N/A Peer Backoff Timer running:N/A Peer Hostname: mp2.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org Local Hostname: 0006-diamproxy.s6b.IEPCF201.epc.mnc260.mcc310.3gppnetwork.org Peer Realm: epc.mnc260.mcc310.3gppnetwork.org Local Realm: epc.mnc260.mcc310.3gppnetwork.org Peer Address: 10.160.113.136:3868 State: IDLE [TCP] CPU: 6/0 Task: diamproxy-6 Messages Out/Queued: 0/0 Supported Vendor IDs: None Admin Status: Enable DPR Disconnect: N/A Peer Backoff Timer running:N/A ... ------------------------------------------------------------------------------- Context: billing Endpoint: credit-control ------------------------------------------------------------------------------- ... Peer Hostname: ln24.daldra01.dra.epc3.mnc260.mcc310.3gppnetwork.org Local Hostname: 0001-diamproxy.iepcf201.gy Peer Realm: nsn-gy Local Realm: starent.gy.com Peer Address: 10.160.113.136:3869 Local Address: 10.168.86.151:55584 State: OPEN [TCP] CPU: 10/0 Task: diamproxy-1 Messages Out/Queued: 0/0 Supported Vendor IDs: 10415 Admin Status: Enable DPR Disconnect: N/A Peer Backoff Timer running:N/A Peers Summary: Peers in OPEN state: 1404 Peers in CLOSED state: 468 Peers in intermediate state: 0 Total peers matching specified criteria: 1872
Pour référence, voici la sortie normale de cette commande montrant le nombre de connexions sans les aamgrs :
Peers Summary: Peers in OPEN state: 107 Peers in CLOSED state: 36 Peers in intermediate state: 1 Total peers matching specified criteria: 144
Comme nous l'avons vu, ce scénario montre que TOUS les homologues de diamètre sont désactivés pour le point de terminaison s6b, le problème n'est PAS pour un diamproxy/carte spécifique, ce qui signifie que la collecte PCAP pour l'une des cartes doit représenter le problème à des fins de dépannage. Si le problème n'était vu que sur un diamproxy spécifique, il serait alors plus important de capturer un PCAP pour ce processus. Ceci est important car le processus de collecte nécessite de spécifier une carte spécifique - elle ne peut pas être exécutée sur toutes les cartes avec une capture unique - et bien que dans ce scénario, le problème est effectivement visible sur toutes les cartes, montré ci-dessous sont des captures prises sur deux cartes pour aider à faire quelques points sur la façon d'analyser les données résultantes.
La première chose à faire est de regarder la table des cartes et de choisir quelques cartes ACTIVE (3 et 5) sur lesquelles exécuter la capture, ainsi que de noter qui est la carte Demux qui ne doit pas être spécifié.
[local]IEPCF201# show card table Friday December 11 17:15:28 UTC 2020 Slot Card Type Oper State SPOF Attach ----------- -------------------------------------- ------------- ---- ------ 1: CFC Control Function Virtual Card Active No 2: CFC Control Function Virtual Card Standby - 3: FC 4-Port Service Function Virtual Card Active No <===== 4: FC 4-Port Service Function Virtual Card Standby - 5: FC 4-Port Service Function Virtual Card Active No <===== 6: FC 4-Port Service Function Virtual Card Active No 7: FC 4-Port Service Function Virtual Card Active No 8: FC 4-Port Service Function Virtual Card Active No 9: FC 4-Port Service Function Virtual Card Active No 10: FC 4-Port Service Function Virtual Card Active No [local]IEPCF201# [local]IEPCF201# show session recovery status verbose Saturday December 12 21:43:11 UTC 2020 Session Recovery Status: Overall Status : Ready For Recovery Last Status Update : 4 seconds ago ----sessmgr--- ----aaamgr---- demux cpu state active standby active standby active status ---- ------- ------ ------- ------ ------- ------ ------------------------- 3/0 Active 12 1 12 1 0 Good 4/0 Standby 0 12 0 12 0 Good 5/0 Active 12 1 12 1 0 Good 6/0 Active 12 1 12 1 0 Good 7/0 Active 12 1 12 1 0 Good 8/0 Active 12 1 12 1 0 Good 9/0 Active 0 0 0 0 8 Good (Demux) 10/0 Active 12 1 12 1 0 Good [local]IEPCF201#
En outre, le numéro de contexte où les homologues de diamètre sont définis doit être récupéré, dans ce cas, le contexte de facturation est #2.
******** show context ******* Sunday December 13 15:14:24 UTC 2020 Context Name ContextID State Description --------------- --------- ---------- ----------------------- local 1 Active billing 2 Active <========== calea 3 Active gi 4 Active sgw 5 Active
Ensuite, connectez-vous au shell de débogage Linux pour les cartes où le PCAP doit être collecté, dans ce cas, les cartes 3 et 5, dans leur propre session CLI :
Note: L'accès à l'interpréteur de commandes de débogage n'est pas un accès auquel la plupart des opérateurs auront probablement accès à moins qu'on leur ait indiqué le mot de passe propre au châssis/client, selon la manière dont il a été configuré. Soyez prudent lors de la connexion au shell de débogage, car il se connecte au système d'exploitation sous-jacent de la carte (PSC ou DPC de ASR 5000 ou ASR 5500) ou de la machine virtuelle (fonction de service (SF) de vPC-DI).
[local]IEPCF201# cli test password <password> Saturday December 12 21:43:54 UTC 2020 Warning: Test commands enables internal testing and debugging commands USE OF THIS MODE MAY CAUSE SIGNIFICANT SERVICE INTERRUPTION [local]IEPCF201# [local]IEPCF201# debug shell card 3 cpu 0 Saturday December 12 21:44:02 UTC 2020 Last login: Fri Dec 11 19:26:34 +0000 2020 on pts/1 from card1-cpu0. qvpc-di:card3-cpu0#
Maintenant, exécutez un setvr de commande Linux spécial (set virtual router) uniquement disponible dans cette version personnalisée de StarOS de Linux, en spécifiant le contexte # récupéré précédemment. Notez que l'invite change :
qvpc-di:card3-cpu0# setvr 2 bash bash-2.05b#
À ce stade, le vidage TCP peut être exécuté à l'aide des paramètres suivants : Notez que si le numéro de port est différent comme dans l'exemple présenté précédemment pour gy, ce numéro de port doit être utilisé. En outre, une adresse IP hôte peut être spécifiée avec host <host ip address> s'il existe une adresse homologue spécifique pour laquelle capturer des paquets. Exécutez la commande pendant quelques minutes et arrêtez la capture avec Control-C. Si des paquets sont capturés, le nombre de paquets s'affiche.
bash-2.05b# tcpdump -i any -s 0 -w /tmp/diameter_SF3.pcap "port 3868" tcpdump: listening on any ^C 1458 packets received by filter 0 packets dropped by kernel bash-2.05b#
Ensuite, quittez l'espace du routeur virtuel avec la commande exit, puis copiez le fichier dans la mémoire flash de la carte de gestion active, qui pour ASR 5500 serait MIO 5 ou 6, ou dans le cas présent pour vPC-DI, 1 ou 2.
bash-2.05b# exit exit qvpc-di:card3-cpu0# scp /tmp/diameter_SF3.pcap card1:/flash/sftp/diameter_SF3.pcap diameter_SF3.pcap 100% 110KB 110.4KB/s 00:00 qvpc-di:card3-cpu0# exit [local]IEPCF201#
À ce stade, le fichier peut être récupéré avec sftp en utilisant tous les moyens disponibles sur le réseau pour atteindre le répertoire /flash.
Voici également les commandes de SF 5, qui est une répétition de ce qui vient d'être montré pour SF 3. Idéalement, exécutez les deux sessions en même temps afin d'avoir des captures simultanées pour l'analyse (bien que cela ne soit pas nécessaire).
[local]IEPCF201# cli test password <password> Saturday December 12 21:43:28 UTC 2020 Warning: Test commands enables internal testing and debugging commands USE OF THIS MODE MAY CAUSE SIGNIFICANT SERVICE INTERRUPTION [local]IEPCF201# debug shell card 5 cpu 0 Saturday December 12 21:44:13 UTC 2020 qvpc-di:card5-cpu0# qvpc-di:card5-cpu0# setvr 2 bash bash-2.05b# tcpdump -i any -s 0 -w /tmp/diameter_SF5.pcap "port 3868" tcpdump: listening on any ^C 1488 packets received by filter 0 packets dropped by kernel bash-2.05b# exit exit qvpc-di:card5-cpu0# scp /tmp/diameter_SF5.pcap card1:/flash/sftp/diameter_SF5.pcap diameter_SF5.pcap 100% 113KB 112.7KB/s 00:00 qvpc-di:card5-cpu0# exit [local]IEPCF201#
L'objectif ici est de déterminer où se trouve la ventilation dans le processus d'établissement de la connexion de diamètre. Comme mentionné précédemment, il peut s'agir de la connexion TCP/IP ou de l'étape CER/CEA suivante. Pour TCP/IP, vérifiez si un SYN TCP est envoyé et si un ACK SYN TCP est reçu, suivi d'un ACK envoyé par ASR. Les paquets peuvent être filtrés avec n'importe quel nombre de filtres pour faciliter l'analyse. Dans ce cas, le filtre tcp.flags.syn == 1 montre que le SYN est envoyé pour les 6 homologues pour cette carte particulière. En regardant une vue non filtrée, cliquez avec le bouton droit sur un paquet SYN et profitez de la fonctionnalité de flux TCP dans Wireshark qui agrège tous les paquets TCP qui utilisent le même numéro de port TCP, en choisissant Suivre ... Flux TCP pour voir s’il existe un échange correspondant de paquets TCP qui établissent la connexion.
Dans ce scénario, notez qu'il n'y a AUCUN autre paquet au-delà du SYN, et cela confirme que l'ASR envoie probablement un SYN mais ne reçoit aucune réponse, ce qui éliminerait l'ASR de la cause de l'échec de configuration de la connexion (bien que cela ne soit pas garanti, le paquet n'est peut-être pas envoyé, ou que la réponse est abandonnée, auquel cas un PCAP externe serait utile pour réduire le problème).
Notez également que le modèle est répété toutes les 30 secondes, ce qui correspond à la configuration par défaut du point de terminaison de diamètre de 30 secondes pour réessayer la connexion. L'ASR n'abandonne pas, mais réessaie définitivement jusqu'à ce que la connexion soit établie. Le PCAP pour SF 5 montre exactement le même comportement.
context billing diameter endpoint 3gpp-aaa-s6b connection timeout 30 connection retry-timeout 30
En associant les éléments, les statistiques de base de diamètre montrent que le nombre de connexions ayant échoué augmente à un rythme proportionnel au nombre de SF/diamproxies et au délai d'attente de la nouvelle tentative. Les calculs sont les suivants : 6 homologues * 6 diamproxies = 36 tentatives toutes les 30 secondes. Donc, plus d'une minute ce serait 72 tentatives, et cela peut être vu en exécutant show diamètre statistics proxy et en regardant Connection Timeouts en incrémentant de 60984 à 61056 = 72 sur une période de minutes comme indiqué par les horodatages CLI.
[local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:10 UTC 2020 Connection Timeouts: 60984 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:12 UTC 2020 Connection Timeouts: 60984 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:14 UTC 2020 Connection Timeouts: 60984 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:17 UTC 2020 Connection Timeouts: 60990 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:19 UTC 2020 Connection Timeouts: 60990 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:21 UTC 2020 Connection Timeouts: 60996 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:25 UTC 2020 Connection Timeouts: 61002 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:27 UTC 2020 Connection Timeouts: 61002 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:29 UTC 2020 Connection Timeouts: 61008 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:32 UTC 2020 Connection Timeouts: 61014 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:35 UTC 2020 Connection Timeouts: 61014 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:37 UTC 2020 Connection Timeouts: 61020 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:40 UTC 2020 Connection Timeouts: 61020 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:43 UTC 2020 Connection Timeouts: 61020 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:45 UTC 2020 Connection Timeouts: 61026 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:47 UTC 2020 Connection Timeouts: 61026 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:50 UTC 2020 Connection Timeouts: 61038 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:56 UTC 2020 Connection Timeouts: 61038 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:39:58 UTC 2020 Connection Timeouts: 61044 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:01 UTC 2020 Connection Timeouts: 61044 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:03 UTC 2020 Connection Timeouts: 61050 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:05 UTC 2020 Connection Timeouts: 61056 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:07 UTC 2020 Connection Timeouts: 61056 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:09 UTC 2020 Connection Timeouts: 61056 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:12 UTC 2020 Connection Timeouts: 61056 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:14 UTC 2020 Connection Timeouts: 61056 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:16 UTC 2020 Connection Timeouts: 61062 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:18 UTC 2020 Connection Timeouts: 61062 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:20 UTC 2020 Connection Timeouts: 61068 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:22 UTC 2020 Connection Timeouts: 61074 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:25 UTC 2020 Connection Timeouts: 61074 [local]IEPCF201# show diameter statistics proxy | grep "Connection Timeouts" Friday December 11 20:40:27 UTC 2020 Connection Timeouts: 61074 [local]IEPCF201#
Notez également que le nombre de CER/CEA (sur tous les homologues de diamètre) est trivial, ce qui prouve qu'il n'atteint jamais le point d'essayer d'échanger ces paquets, ce qui signifie qu'il s'agit d'un problème de configuration TCP/IP.
[local]IEPCF201# show diameter statistics proxy Friday December 11 20:57:09 UTC 2020 ... Capabilities Exchange Requests and Answers statistics: Connection CER sent: 109 Connection CER send errors: 0 CERs received: 0 Connection CER create failures: 0 CEAs received: 108 CEA AVPs unknown: 0 CEA Application ID mismatch: 0 Read CEA Messages: 108 Read CEA Messages Unexpected: 0 Read CEA Missing: 0 Read CEA Negotiation Failure: 0 Read CER Messages: 0 Read CER Messages Unexpected: 0 Read CER Missing: 0 Tw Expire Waiting for CEA: 0
Enfin, notez qu'une fois le problème résolu par le client, les homologues dans l'état CLOSED reviennent à 0 et le champ Adresse locale apparaît dans show diamètre peers full all output.
Peer Hostname: mp1.daldra01.dra.epc.mnc260.mcc310.3gppnetwork.org Local Hostname: 0001-diamproxy.s6b.IEPCF201.epc.mnc260.mcc310.3gppnetwork.org Peer Realm: epc.mnc260.mcc310.3gppnetwork.org Local Realm: epc.mnc260.mcc310.3gppnetwork.org Peer Address: 10.160.113.133:3868 Local Address: 10.168.86.144:32852 State: OPEN [TCP] CPU: 10/0 Task: diamproxy-1 Messages Out/Queued: 0/0 Supported Vendor IDs: None Admin Status: Enable DPR Disconnect: N/A Peer Backoff Timer running:N/A Peers Summary: Peers in OPEN state: 144 Peers in CLOSED state: 0 Peers in intermediate state: 0 Total peers matching specified criteria: 144 [local]IEPCF101#