El conjunto de documentos para este producto aspira al uso de un lenguaje no discriminatorio. A los fines de esta documentación, "no discriminatorio" se refiere al lenguaje que no implica discriminación por motivos de edad, discapacidad, género, identidad de raza, identidad étnica, orientación sexual, nivel socioeconómico e interseccionalidad. Puede haber excepciones en la documentación debido al lenguaje que se encuentra ya en las interfaces de usuario del software del producto, el lenguaje utilizado en función de la documentación de la RFP o el lenguaje utilizado por un producto de terceros al que se hace referencia. Obtenga más información sobre cómo Cisco utiliza el lenguaje inclusivo.
Cisco ha traducido este documento combinando la traducción automática y los recursos humanos a fin de ofrecer a nuestros usuarios en todo el mundo contenido en su propio idioma. Tenga en cuenta que incluso la mejor traducción automática podría no ser tan precisa como la proporcionada por un traductor profesional. Cisco Systems, Inc. no asume ninguna responsabilidad por la precisión de estas traducciones y recomienda remitirse siempre al documento original escrito en inglés (insertar vínculo URL).
Este documento describe cómo resolver cinco situaciones de problemas comunes con Cisco Unified Communications Manager (CUCM) en la plataforma Unified Computing System (UCS).
Algunas de las causas comunes son:
Los servicios Cisco Call Manager (CCM) y Computer Telephony Integration (CTI) se reinician debido al núcleo CCM CTI.
Rastros de CUCM
Utilice estos comandos CLI para recopilar seguimientos de CUCM:
Examine estos registros de la herramienta de supervisión en tiempo real (RTMT):
A continuación se muestra un ejemplo de salida:
admin:utils core active list
Size Date Core File Name
===============================================
355732 KB 2014-X-X 11:27:29 core.XXX.X.ccm.XXXX
110164 KB 2014-X-X 11:27:25 core.XXX.X.CTIManager.XXXX
admin:util core analyze output
====================================
CCM service backtrace
===================================
#0 0x00df6206 in raise () from /lib/libc.so.6
#1 0x00df7bd1 in abort () from /lib/libc.so.6
#2 0x084349cb in IntentionalAbort (reason=0xb0222f8 "CallManager unable to process
signals. This may be due to CPU or blocked function. Attempting to restart
CallManager.") at ProcessCMProcMon.cpp:80
#3 0x08434a8c in CMProcMon::monitorThread () at ProcessCMProcMon.cpp:530
#4 0x00a8fca7 in ACE_OS_Thread_Adapter::invoke (this=0xb2b04270) at OS_Thread_
Adapter.cpp:94
#5 0x00a45541 in ace_thread_adapter (args=0xb2b04270) at Base_Thread_Adapter.cpp:137
#6 0x004aa6e1 in start_thread () from /lib/libpthread.so.0
#7 0x00ea2d3e in clone () from /lib/libc.so.6
====================================
====================================
CTI Manager backtrace
===================================
#0 0x00b3e206 in raise () from /lib/libc.so.6
#1 0x00b3fbd1 in abort () from /lib/libc.so.6
#2 0x08497b11 in IntentionalAbort (reason=0x86fe488 "SDL Router Services declared
dead. This may be due to high CPU usage or blocked function. Attempting to restart
CTIManager.") at ProcessCTIProcMon.cpp:65
#3 0x08497c2c in CMProcMon::verifySdlTimerServices () at ProcessCTIProcMon.cpp:573
#4 0x084988d8 in CMProcMon::callManagerMonitorThread (cmProcMon=0x93c9638) at Process
CTIProcMon.cpp:330
#5 0x007bdca7 in ACE_OS_Thread_Adapter::invoke (this=0x992d710) at OS_Thread_
Adapter.cpp:94
#6 0x00773541 in ace_thread_adapter (args=0x992d710) at Base_Thread_Adapter.cpp:137
#7 0x0025d6e1 in start_thread () from /lib/libpthread.so.0
#8 0x00bead3e in clone () from /lib/li
====================================
Desde el recopilador de datos RIS PerfMonLogs, puede ver E/S de disco alto durante el tiempo de núcleo.
La traza trasera coincide con el ID de bug de Cisco CSCua79544 : Números de proceso frecuentes de CCM debido a la E/S de disco elevado. Este error describe un problema de hardware y explica cómo aislar aún más el problema.
Habilitar informes de E/S de archivos (FIOR):
Utilice estos comandos para habilitar FIOR:
utils fior start
utils fior enable
A continuación, espere a que ocurra la siguiente vez. Este es el comando CLI para recopilar el resultado: file get activelog platform/io-stats. Ingrese estos comandos para inhabilitar FIOR:
utils fior stop
utils fior disable
A continuación se muestra un ejemplo de salida del registro FIOR:
kern 4 kernel: fio_syscall_table address set to c0626500 based on user input
kern 4 kernel: fiostats: address of do_execve set to c048129a
kern 6 kernel: File IO statistics module version 0.99.1 loaded.
kern 6 kernel: file reads > 265000 and writes > 51200 will be logged
kern 4 kernel: fiostats: enabled.
kern 4 kernel: fiostats[25487] started.
La WAIT de E/S suele ser un problema con la plataforma UCS y su almacenamiento.
Se requiere el registro de UCS para aislar la ubicación de la causa. Refiérase a la sección Cómo Recopilar Registros UCS para obtener instrucciones para recopilar los seguimientos.
CUCM se reinicia debido a una caída de ESXI, pero el problema subyacente es que la máquina UCS pierde energía.
Examine estos seguimientos de CUCM:
No hay nada relevante en los seguimientos de CUCM. CUCM se detiene antes del incidente y esto se produce después de un reinicio normal del servicio. Esto elimina CUCM e indica que la causa reside en otro lugar.
La plataforma UCS donde se ejecuta CUCM presenta el problema. La plataforma UCS tiene muchas instancias de máquina virtual (VM) que se ejecutan en ella. Si alguna VM encuentra un error, se ve en los registros de UCS.
Se requiere el registro UCS para aislar la ubicación de la causa. Refiérase a la sección Cómo Recopilar Registros de UCS para obtener instrucciones sobre cómo recopilar los seguimientos.
A continuación se muestra un ejemplo de salida:
5:2014 May 11 13:10:48:BMC:kernel:-:<5>[lpc_reset_isr_handler]:79:LPC Reset ISR ->
ResetState: 1
5:2014 May 11 13:10:48:BMC:kernel:-:<5>drivers/bmc/usb/usb1.1/se_pilot2_udc_usb1_1.c:
2288:USB FS: VDD Power WAKEUP- Power Good = OFF
5:2014 May 11 13:10:48:BMC:kernel:-:<5>[se_pilot2_wakeup_interrupt]:2561:USB HS:
VDD Power = OFF
5:2014 May 11 13:10:48:BMC:BIOSReader:1176: BIOSReader.c:752:File Close :
/var/nuova/BIOS/BiosTech.txt
5:2014 May 11 13:10:48:BMC:kernel:-:<5>[block_transfer_fetch_host_request_for_app]:
1720:block_transfer_fetch_host_request_for_app : BT_FILE_CLOSE : HostBTDescr = 27 :
FName = BiosTech.txt
5:2014 May 11 13:10:48:BMC:IPMI:1357: Pilot2SrvPower.c:466:Blade Power Changed To:
[ OFF ]
5:2014 May 11 13:10:49:BMC:lv_dimm:-: lv_dimm.c:126:[lpc_reset_seen]LPC Reset Count
is Different [0x1:0x2] Asserted LPC Reset Seen
Cuando se produce este error, Pilot2SrvPower.c:466:Blade Power Changed To: [ OFF ] - Problema de alimentación, significa que la máquina UCS pierde energía. Por lo tanto, debe asegurarse de que la máquina UCS recibe la alimentación suficiente.
La VM CUCM se bloquea pero sigue respondiendo a los pings. La pantalla de la consola vSphere muestra esta información:
*ERROR* %No Memory Available *ERROR* %No Memory Available
Examine estos seguimientos de CUCM:
No hay nada relevante en los seguimientos de CUCM. CUCM se detiene antes del incidente y va seguido de un reinicio normal del servicio. Esto elimina CUCM e indica que la causa reside en otro lugar.
La plataforma UCS donde se ejecuta CUCM presenta el problema. La plataforma UCS tiene muchas instancias de VM que se ejecutan en ella. Si alguna VM encuentra un error, se ve en los registros de UCS.
Se requiere el registro UCS para aislar la ubicación de la causa. Refiérase a la sección Cómo Recopilar Registros de UCS para obtener instrucciones sobre cómo recopilar los seguimientos.
Apague la máquina virtual y reiniciarla. Después del reinicio, el sistema funciona bien.
El servidor CUCM pasa a un estado en el que se cuelga.
Examine estos seguimientos de CUCM:
No hay nada relevante en los seguimientos de CUCM. CUCM se detiene antes del incidente y va seguido de un reinicio normal del servicio. Esto elimina CUCM e indica que la causa reside en otro lugar.
La plataforma UCS donde se ejecuta CUCM presenta el problema. La plataforma UCS tiene muchas instancias de VM que se ejecutan en ella. Si alguna VM encuentra un error, se ve en los registros de UCS.
Se requiere el registro UCS para aislar la ubicación de la causa. Refiérase a la sección Cómo Recopilar Registros de UCS para obtener instrucciones sobre cómo recopilar los seguimientos.
Intente reiniciar manualmente para ver si ayuda.
Recibe este error:
The /common file system is mounted read only. Please use Recovery Disk to check the file system using fsck.
El editor (PUB) y un suscriptor (SUB) que están instalados en la misma máquina UCS muestran el error de modo de sólo lectura. El disco de recuperación no soluciona el problema.
No hay nada relevante en los seguimientos de CUCM. CUCM se detiene antes del incidente y va seguido de un reinicio normal del servicio. Esto elimina CUCM e indica que la causa reside en otro lugar.
La plataforma UCS donde se ejecuta CUCM presenta el problema. La plataforma UCS tiene muchas instancias de VM que se ejecutan en ella. Si alguna VM encuentra un error, se ve en los registros de UCS.
Se requiere el registro UCS para aislar la ubicación de la causa. Refiérase a la sección Cómo Recopilar Registros de UCS para obtener instrucciones sobre cómo recopilar los seguimientos.
Después de la sustitución del hardware, reconstruya los nodos problemáticos.
Esta sección describe cómo recopilar los seguimientos necesarios para identificar el problema o proporciona vínculos a artículos que proporcionan esa información.
Consulte estos artículos para obtener información sobre cómo recopilar registros de CICM:
Uso de la GUI de Cisco CIMC para recopilar detalles de show-tech
Guía visual para recopilar archivos de soporte técnico (series B y C)
Consulte este artículo para obtener información sobre cómo recopilar registros ESXI:
Obtención de Información de Diagnóstico para los hosts ESXi 5.x mediante el Cliente vSphere
A continuación se muestra un ejemplo de resultado de CIMC CLI de una falla de disco duro:
ucs-c220-m3 /chassis # show hdd
Name Status LocateLEDStatus
-------------------- -------------------- --------------------
HDD1_STATUS present TurnOFF
HDD2_STATUS present TurnOFF
HDD3_STATUS failed TurnOFF
HDD4_STATUS present TurnOFF
HDD5_STATUS absent TurnOFF
HDD6_STATUS absent TurnOFF
HDD7_STATUS absent TurnOFF
HDD8_STATUS absent TurnOFF
ucs-c220-m3 /chassis # show hdd-pid
Disk Controller Product ID Vendor Model
---- ----------- -------------------- ---------- ------------
1 SLOT-2 A03-D500GC3 ATA ST9500620NS
2 SLOT-2 A03-D500GC3 ATA ST9500620NS
3 SLOT-2 A03-D500GC3 ATA ST9500620NS
4 SLOT-2 A03-D500GC3 ATA ST9500620NS
ucs-c220-m3 /chassis/storageadapter # show physical-drive
Physical Drive Number Controller Health Status Manufacturer Model Predictive
Failure Count Drive Firmware Coerced Size Type
--------------------- ---------- -------------- ---------------------- ------
-------- -------------- ------------------------ -------------- -------------- -----
1 SLOT-2 Good Online ATA ST9500620NS 0 CC03 475883 MB HDD
2 SLOT-2 Good Online ATA ST9500620NS 0 CC03 475883 MB HDD
3 SLOT-2 Severe Fault Unconfigured Bad ATA ST9500620NS 0 CC03 0 MB HDD
4 SLOT-2 Good Online ATA ST9500620NS 0 CC03 475883 MB HDD
A continuación se muestra un ejemplo de resultado de CLI de CICM de la falla del controlador RAID:
ucs-c220-m3 /chassis/storageadapter # show virtual-drive
Virtual Drive Health Status Name Size RAID Level Boot Drive
------------- -------------- -------------------- ---------------- ----------
---------- ----------
0 Moderate Fault Degraded 951766 MB RAID 10 true
A continuación se muestra un ejemplo de salida de la GUI de CIMC de una falla de disco duro:
A continuación se muestra un ejemplo de resultado de la GUI de CIMC a partir de un error de pantalla morada:
( falla del controlador Raid | Defecto: CSCuh86924 ESXi PSOD PF excepción 14 - controlador RAID LSI 9266-8i )
A continuación se muestra un ejemplo de salida de la GUI de CIMC de una falla de BBU: