Esse documento fornece uma configuração de exemplo e as diretrizes gerais para configurar o suporte de transmissão múltipla para VPNs MPLS (arquitetura de switching de rótulo multiprotocolo). Este recurso foi incorporado no Cisco IOS® Software Release 12.0(23)S e 12.2(13)T.
Antes de tentar esta configuração, verifique se estes requisitos são atendidos:
Os provedores de serviços devem ter um núcleo habilitado para multicast para usar o recurso VPN Multicast da Cisco.
As informações neste documento são baseadas no Cisco IOS Software Release 12.2(13)T.
Nota: Para obter informações atualizadas sobre o suporte da plataforma para este recurso, use o Software Advisor (somente clientes registrados) . O Software Advisor atualiza dinamicamente a lista de plataformas suportadas à medida que o suporte a novas plataformas é adicionado ao recurso.
The information in this document was created from the devices in a specific lab environment. All of the devices used in this document started with a cleared (default) configuration. If your network is live, make sure that you understand the potential impact of any command.
Para obter mais informações sobre convenções de documento, consulte as Convenções de dicas técnicas Cisco.
Para obter informações de fundo, consulte a documentação do novo recurso do Software Cisco IOS versão 12.2(13)T para Suporte Multicast IP para VPNs MPLS.
Nesta seção, você encontrará informações para configurar os recursos descritos neste documento.
Este documento utiliza a configuração de rede mostrada neste diagrama.
O diagrama de rede representa o backbone de um provedor de serviços. Consiste nos roteadores R2, R3 e R4. O backbone está configurado para suportar MPLS VPN. R2 e R4 são roteadores de extremidade de provedor (PE), enquanto R3 é um roteador provedor (P). R1 e R5 representam roteadores CE (Edge de cliente) que pertencem à mesma instância amarela VRF (VPN Routing and Forwarding).
Para fornecer serviços multicast, o backbone deve ser configurado para executar o roteamento multicast. O protocolo de multicast selecionado para esse objetivo é o PIM (Multicast independente de protocolo) e o R3 está configurado como o RP (Ponto de reunião). R2 e R4 também estão configurados para executar o roteamento multicast em amarelo VRF. O modo PIM sparse-dense é configurado como o protocolo de roteamento multicast entre os PEs e os CEs. O R2 foi configurado para ser o RP para o amarelo VRF.
Para testar a conectividade multicast, a interface s0/0 de R5 está configurada para unir o grupo multicast 224.2.2.2. São enviados pings do endereço de loopback de R1 para 224.2.2.2. O eco do protocolo ICMP (Protocolo de mensagem de controle da Internet) é um pacote de multicast, enquanto a resposta ICMP é um pacote unicast, pois seu endereço IP de destino é o endereço de loopback R1.
As configurações apresentadas neste documento incluem:
R1-(CE) |
---|
version 12.2 service timestamps debug datetime msec service timestamps log datetime msec no service password-encryption ! hostname R1 ! ! clock timezone CET 1 ip subnet-zero no ip domain lookup ! ip multicast-routing !--- Enable multicast routing. ! ! interface Loopback0 ip address 100.0.0.1 255.255.255.255 ! interface Serial0/0 ip address 10.1.0.1 255.255.255.0 ip pim sparse-dense-mode !--- PIM sparce-dense mode is used between the PE and CE. !--- PIM sparce-dense mode is the multicast routing protocol. ! router rip version 2 network 10.0.0.0 network 100.0.0.0 no auto-summary ! ip classless no ip http server ip pim bidir-enable ! ! ! ! line con 0 exec-timeout 0 0 line aux 0 line vty 0 4 login ! end |
R2-(PE) |
---|
version 12.2 service timestamps debug datetime msec service timestamps log datetime msec no service password-encryption ! hostname R2 ! ! clock timezone CET 1 ip subnet-zero no ip domain lookup ! ip vrf yellow rd 2:200 route-target export 2:200 route-target import 2:200 mdt default 239.1.1.1 !--- Configure the default Multicast Distribution Tree (MDT) !--- for VRF yellow. mdt data 239.2.2.0 0.0.0.255 threshold 1 !--- Configure the range global addresses for !--- data MDTs and the threshold. ip multicast-routing !--- Enable global multicast routing. ip multicast-routing vrf yellow !--- Enable multicast routing in VRF yellow. ip cef mpls label protocol ldp tag-switching tdp router-id Loopback0 ! ! ! interface Loopback0 ip address 50.0.0.2 255.255.255.255 ip pim sparse-dense-mode !--- Multicast needs to be enabled on loopback !--- interface. This is used as a source !--- for MPBGP sessions between PE routers that participate in MVPN. ! interface Loopback100 ip vrf forwarding yellow ip address 100.0.0.2 255.255.255.255 ip pim sparse-dense-mode ! !--- This router needs to be RP for !--- multicast in VRF yellow. Therefore, multicast !--- needs to be enabled on the interface which is used as RP. ! interface Serial1/0 ip vrf forwarding yellow ip address 10.1.0.2 255.255.255.0 ip pim sparse-dense-mode !--- Multicast is enabled on PE-CE interfaces in VRF. ! interface Serial2/0 ip address 10.2.0.2 255.255.255.0 ip pim sparse-dense-mode !--- Service provider core needs to run multicast !--- to support MVPN services, !--- so multicast is enabled on PE-P links. tag-switching ip ! router ospf 1 router-id 50.0.0.2 log-adjacency-changes network 10.0.0.0 0.255.255.255 area 0 network 50.0.0.0 0.0.0.255 area 0 ! router rip version 2 no auto-summary ! address-family ipv4 vrf yellow version 2 redistribute bgp 1 network 10.0.0.0 network 100.0.0.0 default-metric 5 no auto-summary exit-address-family ! router bgp 1 no synchronization no bgp default ipv4-unicast bgp log-neighbor-changes redistribute rip neighbor 50.0.0.4 remote-as 1 neighbor 50.0.0.4 update-source Loopback0 neighbor 50.0.0.4 activate neighbor 50.0.0.6 remote-as 1 neighbor 50.0.0.6 update-source Loopback0 neighbor 50.0.0.6 activate no auto-summary ! address-family ipv4 vrf yellow redistribute connected redistribute rip no auto-summary no synchronization exit-address-family ! address-family vpnv4 neighbor 50.0.0.4 activate neighbor 50.0.0.4 send-community extended neighbor 50.0.0.6 activate neighbor 50.0.0.6 send-community extended no auto-summary exit-address-family ! ip classless no ip http server ip pim bidir-enable ip pim vrf yellow send-rp-announce Loopback100 scope 100 ip pim vrf yellow send-rp-discovery Loopback100 scope 100 !--- Configure auto-RP. The R2's loopback !--- 100 is the RP in VRF yellow. ! ! ! line con 0 exec-timeout 0 0 line aux 0 line vty 0 4 login ! end |
R3-(P) |
---|
version 12.2 service timestamps debug datetime msec service timestamps log datetime msec no service password-encryption ! hostname R3 ! ! clock timezone CET 1 ip subnet-zero ! ip multicast-routing !--- Enable global multicast routing. ip cef mpls label protocol ldp tag-switching tdp router-id Loopback0 ! ! ! interface Loopback0 ip address 50.0.0.3 255.255.255.255 ip pim sparse-dense-mode ! ! interface Serial1/0 ip address 10.2.0.3 255.255.255.0 ip pim sparse-dense-mode !--- Enable multicast on links to PE routers !--- which have MVPNs configured. tag-switching ip ! interface Serial2/0 ip address 10.3.0.3 255.255.255.0 ip pim sparse-dense-mode tag-switching ip ! router ospf 1 router-id 50.0.0.3 log-adjacency-changes network 10.0.0.0 0.255.255.255 area 0 network 50.0.0.0 0.0.0.255 area 0 ! ip classless no ip http server ip pim bidir-enable ip pim send-rp-announce Loopback0 scope 100 ip pim send-rp-discovery Loopback0 scope 100 !--- R3 is configured to announce itself as !--- the RP through auto-RP. ! ! ! ! line con 0 exec-timeout 0 0 line aux 0 line vty 0 4 login ! end |
R4-(PE) |
---|
version 12.2 service timestamps debug datetime msec service timestamps log datetime msec no service password-encryption ! hostname R4 ! ! clock timezone CET 1 ip subnet-zero no ip domain lookup ! ip vrf yellow rd 2:200 route-target export 2:200 route-target import 2:200 mdt default 239.1.1.1 !--- Configure the default MDT address. mdt data 238.2.2.0 0.0.0.255 threshold 1 !--- Configure the data MDT range and threshold. ! ip multicast-routing !--- Enable global multicast routing. ip multicast-routing vrf yellow !--- Enable multicast routing in VRF yellow. ip cef mpls label protocol ldp tag-switching tdp router-id Loopback0 ! ! ! interface Loopback0 ip address 50.0.0.4 255.255.255.255 ip pim sparse-dense-mode ! interface Loopback100 ip vrf forwarding yellow ip address 100.0.0.4 255.255.255.255 ip pim sparse-dense-mode ! interface Serial1/0 ip address 10.3.0.4 255.255.255.0 ip pim sparse-dense-mode tag-switching ip ! interface Serial2/0 ip vrf forwarding yellow ip address 10.4.0.4 255.255.255.0 ip pim sparse-dense-mode !--- Enable the PIM toward the CE. ! router ospf 1 router-id 50.0.0.4 log-adjacency-changes network 10.0.0.0 0.255.255.255 area 0 network 50.0.0.0 0.0.0.255 area 0 ! router rip version 2 no auto-summary ! address-family ipv4 vrf yellow version 2 redistribute bgp 1 network 10.0.0.0 network 100.0.0.0 default-metric 5 no auto-summary exit-address-family ! router bgp 1 no synchronization no bgp default ipv4-unicast bgp log-neighbor-changes redistribute rip neighbor 50.0.0.2 remote-as 1 neighbor 50.0.0.2 update-source Loopback0 neighbor 50.0.0.2 activate no auto-summary ! address-family ipv4 vrf yellow redistribute connected redistribute rip no auto-summary no synchronization exit-address-family ! address-family vpnv4 neighbor 50.0.0.2 activate neighbor 50.0.0.2 send-community extended no auto-summary exit-address-family ! ip classless no ip http server ip pim bidir-enable ! ! ! ! ! line con 0 exec-timeout 0 0 line aux 0 line vty 0 4 login ! end |
R5-(CE) |
---|
version 12.2 service timestamps debug datetime msec service timestamps log datetime msec no service password-encryption ! hostname R5 ! ! clock timezone CET 1 ip subnet-zero no ip domain lookup ! ip multicast-routing !--- Enable global multicast routing in the CE. ! ! interface Loopback0 ip address 100.0.0.5 255.255.255.255 ! interface Serial0/0 ip address 10.4.0.5 255.255.255.0 ip pim sparse-dense-mode ip igmp join-group 224.2.2.2 ! router rip version 2 network 10.0.0.0 network 100.0.0.0 no auto-summary ! ip classless no ip http server ip pim bidir-enable ! ! ! ! ! line con 0 exec-timeout 0 0 line aux 0 line vty 0 4 login ! end |
O multicast para VPNs MPLS (MVPN) é configurado sobre a configuração da VPN. A rede VPN MPLS precisa ser cuidadosamente projetada para observar todas as recomendações para redes VPN MPLS primeiro.
O provedor do serviço principal deve ser configurado para serviço de multicast nativo. O núcleo deve ser configurado para o modo PIM escasso (PIM-SM), Multicast de origem específica (PIM-SSM) ou PIM Bidirectional (PIM-BIDIR). O PIM de modo denso (PIM-DM) não é suportado como protocolo principal nas configurações de MVPN. É possível configurar uma combinação de protocolos suportados no núcleo do provedor. Isso pode ser feito quando alguns grupos multicast são tratados por um modo PIM e alguns outros grupos são tratados por outro modo PIM suportado.
Todos os protocolos multicast são suportados no VRF multicast. Isto é, dentro do VRF de multicast é possível usar MSDP e PIM-DM além de PIM-SM, PIM-SSM e PIM-BIDIR
O serviço MVPN pode ser adicionado separadamente para cada VRF. Isto é, um roteador de PE pode ter configurados VRFs com capacidade de transmissão múltipla e VRFs somente de envio único.
Nem todos os sites de um único VRF unicast devem ser configurados para multicast. É possível ter alguns sites (e até mesmo interfaces do roteador MVPN PE) onde o multicast não está ativado. Você deve garantir que as rotas nunca sejam calculadas para apontar para interfaces não habilitadas para multicast. Caso contrário, o encaminhamento multicast será interrompido.
Mais de um VRF pode pertencer ao mesmo domínio multicast MVPN. O endereçamento IP deve ser exclusivo em um domínio multicast. O vazamento de rotas e/ou pacotes entre domínios multicast ou em uma tabela de roteamento multicast global não é possível no momento.
Uma configuração padrão de MDT é obrigatória para que o MVPN funcione. A configuração de MDT de dados é opcional. É altamente recomendável definir o limite para MDT de dados se você optar por configurar um.
O endereço IP do MDT padrão determina a qual domínio de multicast o VRF pertence. Portanto, é possível ter o mesmo endereço MDT padrão para mais de um VRF. No entanto, eles compartilharão pacotes multicast entre eles e devem observar outros requisitos em domínios multicast (como esquema de endereçamento IP exclusivo).
O MDT de dados pode ou não ser configurado com o mesmo intervalo de endereços IP em roteadores PE diferentes. Isso depende do modo PIM que é usado no centro de um provedor. Se o núcleo do provedor de serviços estiver usando PIM de modo escasso, cada roteador PE deve usar um intervalo exclusivo de endereços IP para grupos de MDT de dados. Se o núcleo do provedor de serviços estiver usando multicast específico da origem, todos os roteadores PE podem ser configurados com o mesmo intervalo de endereços IP para MDT de dados de cada domínio multicast.
Esta seção fornece informações que você pode usar para confirmar se sua configuração está funcionando adequadamente.
A Output Interpreter Tool (somente clientes registrados) oferece suporte a determinados comandos show, o que permite exibir uma análise da saída do comando show.
show ip igmp groups —Exibe os grupos multicast com receptores diretamente conectados ao roteador e que foram aprendidos através do Internet Group Management Protocol (IGMP).
show ip pim mdt bgp — Exibe o anúncio BGP (Border Gateway Protocol) detalhado do RD (Route Distinguisher) para o grupo padrão MDT.
show ip pim vrf <vrf-name> mdt send — Exibe os anúncios de MDT de dados que o roteador fez no VRF especificado.
show ip pim vrf <vrf-name> mdt receive — Exibe os anúncios MDT de dados recebidos pelo roteador no VRF especificado.
show ip mroute-Exibe o conteúdo da tabela de roteamento de transmissão múltipla no centro do provedor.
show ip mroute vrf <vrf-name> — Exibe a tabela de roteamento multicast no VRF do cliente.
Conclua estes passos para verificar se sua configuração está funcionando corretamente.
Verifique se os PEs ingressaram no grupo IGMP para o túnel MDT padrão.
Se for configurado depois que o comando default-mdt for emitido na configuração do VRF, o PE poderá não conseguir se unir ao grupo MDT padrão. Depois de configurado o circuito fechado, remova e recoloque o comando mdt do VRF para solucionar o problema.
Para PE-R2, emita o comando show ip igmp groups.
IGMP Connected Group Membership Group Address Interface Uptime Expires Last Reporter 224.0.1.40 Serial2/0 02:21:23 stopped 10.2.0.2 239.1.1.1 Loopback0 02:36:59 stopped 0.0.0.0
Para PE-R4, emita o comando show ip igmp groups.
IGMP Connected Group Membership Group Address Interface Uptime Expires Last Reporter 224.0.1.40 Loopback0 02:51:48 00:02:39 50.0.0.4 239.1.1.2 Loopback0 02:51:45 stopped 0.0.0.0 239.1.1.1 Loopback0 02:51:45 stopped 0.0.0.0 239.2.2.0 Loopback0 01:40:03 stopped 0.0.0.0
Verifique o anúncio BGP recebido para cada PE.
Observação: neste exemplo, verifique os MDTs originados dos PEs PE-R2 e PE-R4 correspondentes.
Para PE-R2, emita o comando show ip pim mdt bgp.
MDT-default group 239.1.1.1 rid: 50.0.0.4 next_hop: 50.0.0.4 WAVL tree nodes MDT-default: 239.1.1.1 Tunnel0 source-interface: Loopback0
Para PE-R4, emita o comando show ip pim mdt bgp
MDT-default group 239.1.1.1 rid: 50.0.0.2 next_hop: 50.0.0.2 WAVL tree nodes MDT-default: 239.1.1.1 Tunnel0 source-interface: Loopback0 MDT-data : 239.2.2.0 Tunnel0 source-interface: Loopback0
Verifique os MDTs de dados.
Observação: neste exemplo, verifique os dados originados ou associados por PE-R2 e PE-R4 no MDT.
Para PE-R2, emita o comando show ip pim vrf yellow mdt send.
MDT-data send list for VRF: yellow (source, group) MDT-data group ref_count (100.0.0.1, 224.2.2.2) 239.2.2.0 1
Para PE-R2, emita o comando show ip pim vrf yellow mdt receive.
Flags: D - Dense, S - Sparse, B - Bidir Group, s - SSM Group, C - Connected, L - Local, P - Pruned, R - RP-bit set, F - Register flag, T - SPT-bit set, J - Join SPT, M - MSDP created entry, X - Proxy Join Timer Running, A - Candidate MSDP Advertisement, U - URD, I - Received Source Specific Host Report, Z - Multicast Tunnel Y - Joined MDT-data group, y - Sending to MDT-data group Joined MDT-data groups for VRF: yellow group: 239.2.2.0 source: 0.0.0.0 ref_count: 1
Verifique a tabela de roteamento multicast global para o MDT padrão.
Observação: observe estas informações:
A lista de interfaces de saída é amarelo MVRF nos PEs.
O roteador P vê o grupo como um grupo Multicast regular.
Cada PE é uma origem para o MDT padrão e está somente nos roteadores PE.
Um novo flag, Z, indica que este é um túnel multicast.
Para PE-R2, emita o comando show ip mroute 239.1.1.1.
IP Multicast Routing Table Flags: D - Dense, S - Sparse, B - Bidir Group, s - SSM Group, C - Connected, L - Local, P - Pruned, R - RP-bit set, F - Register flag, T - SPT-bit set, J - Join SPT, M - MSDP created entry, X - Proxy Join Timer Running, A - Candidate MSDP Advertisement, U - URD, I - Received Source Specific Host Report, Z - Multicast Tunnel Y - Joined MDT-data group, y - Sending to MDT-data group Outgoing interface flags: H - Hardware switched Timers: Uptime/Expires Interface state: Interface, Next-Hop or VCD, State/Mode (*, 239.1.1.1), 02:37:16/stopped, RP 50.0.0.3, flags: SJCFZ Incoming interface: Serial2/0, RPF nbr 10.2.0.3 Outgoing interface list: MVRF yellow, Forward/Sparse-Dense, 02:21:26/00:00:28 (50.0.0.2, 239.1.1.1), 02:37:12/00:03:29, flags: FTZ Incoming interface: Loopback0, RPF nbr 0.0.0.0 Outgoing interface list: Serial2/0, Forward/Sparse-Dense, 02:36:09/00:02:33 ( 50.0.0.4, 239.1.1.1), 02:36:02/00:02:59, flags: JTZ Incoming interface: Serial2/0, RPF nbr 10.2.0.3 Outgoing interface list: MVRF yellow, Forward/Sparse-Dense, 02:21:26/00:00:28
Para P-R3, emita o comando show ip mroute 239.1.1.1.
IP Multicast Routing Table Flags: D - Dense, S - Sparse, B - Bidir Group, s - SSM Group, C - Connected, L - Local, P - Pruned, R - RP-bit set, F - Register flag, T - SPT-bit set, J - Join SPT, M - MSDP created entry, X - Proxy Join Timer Running, A - Candidate MSDP Advertisement, U - URD, I - Received Source Specific Host Report, Z - Multicast Tunnel Y - Joined MDT-data group, y - Sending to MDT-data group Outgoing interface flags: H - Hardware switched Timers: Uptime/Expires Interface state: Interface, Next-Hop or VCD, State/Mode (*, 239.1.1.1), 02:50:24/stopped, RP 50.0.0.3, flags: S Incoming interface: Null, RPF nbr 0.0.0.0 Outgoing interface list: Serial1/0, Forward/Sparse-Dense, 02:34:41/00:03:16 Serial2/0, Forward/Sparse-Dense, 02:49:24/00:02:37 (50.0.0.2, 239.1.1.1), 02:49:56/00:03:23, flags: T Incoming interface: Serial1/0, RPF nbr 10.2.0.2 Outgoing interface list: Serial2/0, Forward/Sparse-Dense, 02:49:24/00:02:37 (50.0.0.4, 239.1.1.1), 02:49:47/00:03:23, flags: T Incoming interface: Serial2/0, RPF nbr 10.3.0.4 Outgoing interface list: Serial1/0, Forward/Sparse-Dense, 02:34:41/00:03:16
Para PE-R4, emita o comando show ip mroute 239.1.1.1.
IP Multicast Routing Table Flags: D - Dense, S - Sparse, B - Bidir Group, s - SSM Group, C - Connected, L - Local, P - Pruned, R - RP-bit set, F - Register flag, T - SPT-bit set, J - Join SPT, M - MSDP created entry, X - Proxy Join Timer Running, A - Candidate MSDP Advertisement, U - URD, I - Received Source Specific Host Report, Z - Multicast Tunnel Y - Joined MDT-data group, y - Sending to MDT-data group Outgoing interface flags: H - Hardware switched Timers: Uptime/Expires Interface state: Interface, Next-Hop or VCD, State/Mode (*, 239.1.1.1), 02:51:06/stopped, RP 50.0.0.3, flags: SJCFZ Incoming interface: Serial1/0, RPF nbr 10.3.0.3 Outgoing interface list: MVRF yellow, Forward/Sparse-Dense, 02:51:06/00:00:48 (50.0.0.2, 239.1.1.1), 02:50:06/00:02:58, flags: JTZ Incoming interface: Serial1/0, RPF nbr 10.3.0.3 Outgoing interface list: MVRF yellow, Forward/Sparse-Dense, 02:50:06/00:00:48 (50.0.0.4, 239.1.1.1), 02:51:00/00:03:10, flags: FTZ Incoming interface: Loopback0, RPF nbr 0.0.0.0 Outgoing interface list: Serial1/0, Forward/Sparse-Dense, 02:35:24/00:03:00
Verifique se há MDTs de dados na tabela de roteamento multicast global.
Observação: para PE-R2, observe que a interface de saída é tunnel0.
Para PE-R2, onde a origem está localizada (lado VRF), emita o comando show ip mroute vrf yellow 224.2.2.2.
IP Multicast Routing Table Flags: D - Dense, S - Sparse, B - Bidir Group, s - SSM Group, C - Connected, L - Local, P - Pruned, R - RP-bit set, F - Register flag, T - SPT-bit set, J - Join SPT, M - MSDP created entry, X - Proxy Join Timer Running, A - Candidate MSDP Advertisement, U - URD, I - Received Source Specific Host Report, Z - Multicast Tunnel Y - Joined MDT-data group, y - Sending to MDT-data group Outgoing interface flags: H - Hardware switched Timers: Uptime/Expires Interface state: Interface, Next-Hop or VCD, State/Mode (*, 224.2.2.2), 2d01h/stopped, RP 100.0.0.2, flags: S Incoming interface: Null, RPF nbr 0.0.0.0 Outgoing interface list: Tunnel0, Forward/Sparse-Dense, 2d01h/00:02:34 (100.0.0.1, 224.2.2.2), 00:05:32/00:03:26, flags: Ty Incoming interface: Serial1/0, RPF nbr 10.1.0.1 Outgoing interface list: Tunnel0, Forward/Sparse-Dense, 00:05:37/00:02:34
Para PE-R2, onde a origem está localizada (rota multicast global), emita o comando show ip mroute 239.2.2.0.
IP Multicast Routing Table Flags: D - Dense, S - Sparse, B - Bidir Group, s - SSM Group, C - Connected, L - Local, P - Pruned, R - RP-bit set, F - Register flag, T - SPT-bit set, J - Join SPT, M - MSDP created entry, X - Proxy Join Timer Running, A - Candidate MSDP Advertisement, U - URD, I - Received Source Specific Host Report, Z - Multicast Tunnel Y - Joined MDT-data group, y - Sending to MDT-data group Outgoing interface flags: H - Hardware switched Timers: Uptime/Expires Interface state: Interface, Next-Hop or VCD, State/Mode (*, 239.2.2.0), 02:13:27/stopped, RP 50.0.0.3, flags: SJPFZ Incoming interface: Serial2/0, RPF nbr 10.2.0.3 Outgoing interface list: Null (50.0.0.2, 239.2.2.0), 02:13:27/00:03:22, flags: FTZ Incoming interface: Loopback0, RPF nbr 0.0.0.0 Outgoing interface list: Serial2/0, Forward/Sparse-Dense, 02:13:27/00:03:26
Observação: somente o roteador PE com a origem multicast conectada a ele aparece como a origem do tráfego multicast do endereço de grupo MDT de dados.
Emita o comando show ip pim vrf neighbor para verificar se os roteadores PE estabeleceram uma relação de vizinhança de PIM através da interface de túnel dinâmico. Se o fizeram, o MDT padrão opera corretamente.
Se o MDT padrão não funcionar, emita o comando show ip pim mdt bgp para verificar se os loopbacks dos roteadores PE remotos que participam do MVPN são conhecidos pelo roteador local. Se não estiverem, verifique se o PIM está ativado nas interfaces de loopback usadas como origem das sessões de BGP do MP
Verifique se o núcleo da controladora de armazenamento está configurado corretamente para fornecer multicast entre roteadores PE. Para fins de teste, você pode configurar ip igmp join-group na interface de loopback de um roteador PE e fazer ping multicast originado do loopback de outro roteador PE.
Revisão | Data de publicação | Comentários |
---|---|---|
1.0 |
10-Aug-2005 |
Versão inicial |