Dieses Dokument enthält eine Beispielkonfiguration und allgemeine Richtlinien zum Konfigurieren der Multicast-Unterstützung für MPLS-VPNs (Multiprotocol Label Switching). Diese Funktion wurde in der Cisco IOS® Softwareversion 12.0(23)S und 12.2(13)T eingeführt.
Stellen Sie vor dem Versuch dieser Konfiguration sicher, dass Sie die folgenden Anforderungen erfüllen:
Service Provider benötigen einen Multicast-fähigen Core, um die Cisco Multicast VPN-Funktion nutzen zu können.
Die Informationen in diesem Dokument basieren auf der Cisco IOS Software-Version 12.2(13)T.
Hinweis: Um aktualisierte Informationen über die Plattformunterstützung für diese Funktion zu erhalten, verwenden Sie den Software Advisor (nur registrierte Kunden). Der Software Advisor aktualisiert die Liste der unterstützten Plattformen dynamisch, sobald neue Plattformunterstützung für die Funktion hinzugefügt wird.
Die Informationen in diesem Dokument wurden von den Geräten in einer bestimmten Laborumgebung erstellt. Alle in diesem Dokument verwendeten Geräte haben mit einer leeren (Standard-)Konfiguration begonnen. Wenn Ihr Netzwerk in Betrieb ist, stellen Sie sicher, dass Sie die potenziellen Auswirkungen eines Befehls verstehen.
Weitere Informationen zu Dokumentkonventionen finden Sie unter Cisco Technical Tips Conventions.
Hintergrundinformationen finden Sie in der neuen Funktionsdokumentation der Cisco IOS Software Release 12.2(13)T für die IP Multicast-Unterstützung für MPLS-VPNs.
In diesem Abschnitt erhalten Sie Informationen zum Konfigurieren der in diesem Dokument beschriebenen Funktionen.
In diesem Dokument wird die in diesem Diagramm dargestellte Netzwerkeinrichtung verwendet.
Das Netzwerkdiagramm stellt den Backbone eines Service Providers dar. Diese Router bestehen aus R2, R3 und R4. Der Backbone ist so konfiguriert, dass er MPLS-VPN unterstützt. R2 und R4 sind Provider Edge (PE)-Router, während R3 ein Provider (P)-Router ist. R1 und R5 sind CE-Router (Customer Edge), die zur gleichen gelben VPN Routing and Forwarding (VRF)-Instanz gehören.
Um Multicast-Services bereitstellen zu können, muss der Backbone für die Ausführung von Multicast-Routing konfiguriert werden. Zu diesem Zweck wird das Multicast-Protokoll Protocol Independent Multicast (PIM) und R3 als Rendezvous Point (RP) konfiguriert. R2 und R4 sind auch so konfiguriert, dass Multicast-Routing in VRF-Gelb ausgeführt wird. Der PIM Sparse-Dense-Modus wird als Multicast-Routing-Protokoll zwischen den PEs und den CEs konfiguriert. R2 wurde als RP für VRF Gelb konfiguriert.
Um die Multicast-Verbindung zu testen, ist die s0/0-Schnittstelle von R5 so konfiguriert, dass sie der Multicast-Gruppe 224.2.2.2 beitritt. Pings werden von der Loopback-Adresse von R1 an 224.2.2.2 gesendet. Das ICMP-Echo (Internet Control Message Protocol) ist ein Multicast-Paket, während die ICMP-Antwort ein Unicast-Paket ist, da die IP-Zieladresse die R1-Loopback-Adresse ist.
Die in diesem Dokument vorgestellten Konfigurationen umfassen Folgendes:
R1-CE |
---|
version 12.2 service timestamps debug datetime msec service timestamps log datetime msec no service password-encryption ! hostname R1 ! ! clock timezone CET 1 ip subnet-zero no ip domain lookup ! ip multicast-routing !--- Enable multicast routing. ! ! interface Loopback0 ip address 100.0.0.1 255.255.255.255 ! interface Serial0/0 ip address 10.1.0.1 255.255.255.0 ip pim sparse-dense-mode !--- PIM sparce-dense mode is used between the PE and CE. !--- PIM sparce-dense mode is the multicast routing protocol. ! router rip version 2 network 10.0.0.0 network 100.0.0.0 no auto-summary ! ip classless no ip http server ip pim bidir-enable ! ! ! ! line con 0 exec-timeout 0 0 line aux 0 line vty 0 4 login ! end |
R2-(PE) |
---|
version 12.2 service timestamps debug datetime msec service timestamps log datetime msec no service password-encryption ! hostname R2 ! ! clock timezone CET 1 ip subnet-zero no ip domain lookup ! ip vrf yellow rd 2:200 route-target export 2:200 route-target import 2:200 mdt default 239.1.1.1 !--- Configure the default Multicast Distribution Tree (MDT) !--- for VRF yellow. mdt data 239.2.2.0 0.0.0.255 threshold 1 !--- Configure the range global addresses for !--- data MDTs and the threshold. ip multicast-routing !--- Enable global multicast routing. ip multicast-routing vrf yellow !--- Enable multicast routing in VRF yellow. ip cef mpls label protocol ldp tag-switching tdp router-id Loopback0 ! ! ! interface Loopback0 ip address 50.0.0.2 255.255.255.255 ip pim sparse-dense-mode !--- Multicast needs to be enabled on loopback !--- interface. This is used as a source !--- for MPBGP sessions between PE routers that participate in MVPN. ! interface Loopback100 ip vrf forwarding yellow ip address 100.0.0.2 255.255.255.255 ip pim sparse-dense-mode ! !--- This router needs to be RP for !--- multicast in VRF yellow. Therefore, multicast !--- needs to be enabled on the interface which is used as RP. ! interface Serial1/0 ip vrf forwarding yellow ip address 10.1.0.2 255.255.255.0 ip pim sparse-dense-mode !--- Multicast is enabled on PE-CE interfaces in VRF. ! interface Serial2/0 ip address 10.2.0.2 255.255.255.0 ip pim sparse-dense-mode !--- Service provider core needs to run multicast !--- to support MVPN services, !--- so multicast is enabled on PE-P links. tag-switching ip ! router ospf 1 router-id 50.0.0.2 log-adjacency-changes network 10.0.0.0 0.255.255.255 area 0 network 50.0.0.0 0.0.0.255 area 0 ! router rip version 2 no auto-summary ! address-family ipv4 vrf yellow version 2 redistribute bgp 1 network 10.0.0.0 network 100.0.0.0 default-metric 5 no auto-summary exit-address-family ! router bgp 1 no synchronization no bgp default ipv4-unicast bgp log-neighbor-changes redistribute rip neighbor 50.0.0.4 remote-as 1 neighbor 50.0.0.4 update-source Loopback0 neighbor 50.0.0.4 activate neighbor 50.0.0.6 remote-as 1 neighbor 50.0.0.6 update-source Loopback0 neighbor 50.0.0.6 activate no auto-summary ! address-family ipv4 vrf yellow redistribute connected redistribute rip no auto-summary no synchronization exit-address-family ! address-family vpnv4 neighbor 50.0.0.4 activate neighbor 50.0.0.4 send-community extended neighbor 50.0.0.6 activate neighbor 50.0.0.6 send-community extended no auto-summary exit-address-family ! ip classless no ip http server ip pim bidir-enable ip pim vrf yellow send-rp-announce Loopback100 scope 100 ip pim vrf yellow send-rp-discovery Loopback100 scope 100 !--- Configure auto-RP. The R2's loopback !--- 100 is the RP in VRF yellow. ! ! ! line con 0 exec-timeout 0 0 line aux 0 line vty 0 4 login ! end |
R3-(P) |
---|
version 12.2 service timestamps debug datetime msec service timestamps log datetime msec no service password-encryption ! hostname R3 ! ! clock timezone CET 1 ip subnet-zero ! ip multicast-routing !--- Enable global multicast routing. ip cef mpls label protocol ldp tag-switching tdp router-id Loopback0 ! ! ! interface Loopback0 ip address 50.0.0.3 255.255.255.255 ip pim sparse-dense-mode ! ! interface Serial1/0 ip address 10.2.0.3 255.255.255.0 ip pim sparse-dense-mode !--- Enable multicast on links to PE routers !--- which have MVPNs configured. tag-switching ip ! interface Serial2/0 ip address 10.3.0.3 255.255.255.0 ip pim sparse-dense-mode tag-switching ip ! router ospf 1 router-id 50.0.0.3 log-adjacency-changes network 10.0.0.0 0.255.255.255 area 0 network 50.0.0.0 0.0.0.255 area 0 ! ip classless no ip http server ip pim bidir-enable ip pim send-rp-announce Loopback0 scope 100 ip pim send-rp-discovery Loopback0 scope 100 !--- R3 is configured to announce itself as !--- the RP through auto-RP. ! ! ! ! line con 0 exec-timeout 0 0 line aux 0 line vty 0 4 login ! end |
R4-(PE) |
---|
version 12.2 service timestamps debug datetime msec service timestamps log datetime msec no service password-encryption ! hostname R4 ! ! clock timezone CET 1 ip subnet-zero no ip domain lookup ! ip vrf yellow rd 2:200 route-target export 2:200 route-target import 2:200 mdt default 239.1.1.1 !--- Configure the default MDT address. mdt data 238.2.2.0 0.0.0.255 threshold 1 !--- Configure the data MDT range and threshold. ! ip multicast-routing !--- Enable global multicast routing. ip multicast-routing vrf yellow !--- Enable multicast routing in VRF yellow. ip cef mpls label protocol ldp tag-switching tdp router-id Loopback0 ! ! ! interface Loopback0 ip address 50.0.0.4 255.255.255.255 ip pim sparse-dense-mode ! interface Loopback100 ip vrf forwarding yellow ip address 100.0.0.4 255.255.255.255 ip pim sparse-dense-mode ! interface Serial1/0 ip address 10.3.0.4 255.255.255.0 ip pim sparse-dense-mode tag-switching ip ! interface Serial2/0 ip vrf forwarding yellow ip address 10.4.0.4 255.255.255.0 ip pim sparse-dense-mode !--- Enable the PIM toward the CE. ! router ospf 1 router-id 50.0.0.4 log-adjacency-changes network 10.0.0.0 0.255.255.255 area 0 network 50.0.0.0 0.0.0.255 area 0 ! router rip version 2 no auto-summary ! address-family ipv4 vrf yellow version 2 redistribute bgp 1 network 10.0.0.0 network 100.0.0.0 default-metric 5 no auto-summary exit-address-family ! router bgp 1 no synchronization no bgp default ipv4-unicast bgp log-neighbor-changes redistribute rip neighbor 50.0.0.2 remote-as 1 neighbor 50.0.0.2 update-source Loopback0 neighbor 50.0.0.2 activate no auto-summary ! address-family ipv4 vrf yellow redistribute connected redistribute rip no auto-summary no synchronization exit-address-family ! address-family vpnv4 neighbor 50.0.0.2 activate neighbor 50.0.0.2 send-community extended no auto-summary exit-address-family ! ip classless no ip http server ip pim bidir-enable ! ! ! ! ! line con 0 exec-timeout 0 0 line aux 0 line vty 0 4 login ! end |
R5-(CE) |
---|
version 12.2 service timestamps debug datetime msec service timestamps log datetime msec no service password-encryption ! hostname R5 ! ! clock timezone CET 1 ip subnet-zero no ip domain lookup ! ip multicast-routing !--- Enable global multicast routing in the CE. ! ! interface Loopback0 ip address 100.0.0.5 255.255.255.255 ! interface Serial0/0 ip address 10.4.0.5 255.255.255.0 ip pim sparse-dense-mode ip igmp join-group 224.2.2.2 ! router rip version 2 network 10.0.0.0 network 100.0.0.0 no auto-summary ! ip classless no ip http server ip pim bidir-enable ! ! ! ! ! line con 0 exec-timeout 0 0 line aux 0 line vty 0 4 login ! end |
Multicast für MPLS VPNs (MVPN) wird zusätzlich zur VPN-Konfiguration konfiguriert. Das MPLS-VPN-Netzwerk muss sorgfältig konzipiert werden, um allen Empfehlungen für MPLS-VPN-Netzwerke zuerst gerecht zu werden.
Der Core des Service Providers muss für einen nativen Multicast-Service konfiguriert werden. Der Core muss für den PIM Sparse Mode (PIM-SM), Source Specific Multicast (PIM-SSM) oder Bidirectional PIM (PIM-BIDIR) konfiguriert werden. Dense Mode PIM (PIM-DM) wird in MVPN-Konfigurationen nicht als Kernprotokoll unterstützt. Es ist möglich, eine Mischung aus unterstützten Protokollen im Core des Anbieters zu konfigurieren. Dies ist möglich, wenn einige Multicast-Gruppen von einem PIM-Modus behandelt werden und andere Gruppen von einem anderen unterstützten PIM-Modus behandelt werden.
Alle Multicast-Protokolle werden in Multicast-VRF unterstützt. In Multicast-VRF können Sie also MSDP und PIM-DM zusätzlich zu PIM-SM, PIM-SSM und PIM-BIDIR verwenden.
Der MVPN-Service kann separat auf VRF-Basis hinzugefügt werden. Das heißt, ein PE-Router kann sowohl Multicast-fähige VRFs als auch Unicast-only-VRFs konfiguriert haben.
Nicht alle Standorte einer einzelnen Unicast-VRF-Instanz müssen für Multicast konfiguriert werden. Es ist möglich, dass einige Standorte (und sogar Schnittstellen des MVPN-PE-Routers), an denen Multicast nicht aktiviert ist, vorhanden sind. Sie müssen sicherstellen, dass Routen nie so berechnet werden, dass sie auf nicht-Multicast-fähige Schnittstellen zeigen. Andernfalls wird die Multicast-Weiterleitung unterbrochen.
Mehrere VRFs können derselben MVPN-Multicast-Domäne angehören. Die IP-Adressierung muss innerhalb einer Multicast-Domäne eindeutig sein. Das Leaking von Routen und/oder Paketen zwischen Multicast-Domänen oder in eine globale Multicast-Routing-Tabelle ist derzeit nicht möglich.
Für die Funktion von MVPN ist eine MDT-Standardkonfiguration erforderlich. Die Konfiguration des Daten-MDTs ist optional. Es wird dringend empfohlen, den Grenzwert für Daten-MDT festzulegen, wenn Sie einen MDT konfigurieren möchten.
Die IP-Adresse des Standard-MDT bestimmt, zu welcher Multicast-Domäne das VRF gehört. Daher ist es möglich, für mehrere VRFs dieselbe Standard-MDT-Adresse zu verwenden. Sie teilen jedoch Multicast-Pakete untereinander und müssen andere Anforderungen an Multicast-Domänen (z. B. ein eindeutiges IP-Adressierungsschema) beachten.
Der Daten-MDT kann mit demselben IP-Adressbereich auf verschiedenen PE-Routern konfiguriert werden. Dies hängt davon ab, welcher PIM-Modus im Core eines Providers verwendet wird. Wenn der Core des Service Providers PIM im Sparse-Mode verwendet, muss jeder PE-Router einen eindeutigen Bereich von IP-Adressen für Daten-MDT-Gruppen verwenden. Wenn der Core des Service Providers Source-spezifisches Multicast verwendet, können alle PE-Router mit demselben IP-Adressbereich für den Daten-MDT jeder Multicast-Domäne konfiguriert werden.
Dieser Abschnitt enthält Informationen, mit denen Sie überprüfen können, ob Ihre Konfiguration ordnungsgemäß funktioniert.
Bestimmte show-Befehle werden vom Output Interpreter Tool unterstützt (nur registrierte Kunden), mit dem Sie eine Analyse der show-Befehlsausgabe anzeigen können.
show ip igmp groups: Zeigt die Multicast-Gruppen mit Empfängern an, die direkt mit dem Router verbunden sind und die über das Internet Group Management Protocol (IGMP) abgerufen wurden.
show ip pim mdt bgp: Zeigt eine detaillierte Border Gateway Protocol (BGP)-Meldung für den Route Distinguisher (RD) für die MDT-Standardgruppe an.
show ip pim vrf <vrf-name> mdt send: Zeigt die Daten-MDT-Meldungen an, die der Router im angegebenen VRF gemacht hat.
show ip pim vrf <vrf-name> mdt receive: Zeigt die Daten-MDT-Meldungen an, die der Router im angegebenen VRF erhalten hat.
show ip mroute: Zeigt den Inhalt der IP-Multicast-Routing-Tabelle im Core des Anbieters an.
show ip mroute vrf <vrf-name>: Zeigt die Multicast-Routing-Tabelle im VRF des Clients an.
Führen Sie diese Schritte aus, um sicherzustellen, dass Ihre Konfiguration ordnungsgemäß funktioniert.
Überprüfen Sie, ob die PEs zur IGMP-Gruppe für den Standard-MDT-Tunnel hinzugefügt haben.
Wenn die Konfiguration nach Ausführung des Befehls default-mdt unter der VRF-Konfiguration erfolgt, kann es vorkommen, dass der PE der Standard-MDT-Gruppe nicht beitritt. Nach der Konfiguration des Loopbacks entfernen Sie den Befehl mdt aus der VRF-Instanz, und setzen ihn zurück, um das Problem zu beheben.
Führen Sie für PE-R2 den Befehl show ip igmp groups aus.
IGMP Connected Group Membership Group Address Interface Uptime Expires Last Reporter 224.0.1.40 Serial2/0 02:21:23 stopped 10.2.0.2 239.1.1.1 Loopback0 02:36:59 stopped 0.0.0.0
Führen Sie für PE-R4 den Befehl show ip igmp groups aus.
IGMP Connected Group Membership Group Address Interface Uptime Expires Last Reporter 224.0.1.40 Loopback0 02:51:48 00:02:39 50.0.0.4 239.1.1.2 Loopback0 02:51:45 stopped 0.0.0.0 239.1.1.1 Loopback0 02:51:45 stopped 0.0.0.0 239.2.2.0 Loopback0 01:40:03 stopped 0.0.0.0
Überprüfen Sie die BGP-Werbung, die für jeden PE empfangen wurde.
Hinweis: Überprüfen Sie in diesem Beispiel die MDTs, die von den Peer-PEs PE-R2 und PE-R4 stammen.
Führen Sie für PE-R2 den Befehl show ip pim mdt bgp aus.
MDT-default group 239.1.1.1 rid: 50.0.0.4 next_hop: 50.0.0.4 WAVL tree nodes MDT-default: 239.1.1.1 Tunnel0 source-interface: Loopback0
Geben Sie für PE-R4 den Befehl show ip pim mdt bgp ein.
MDT-default group 239.1.1.1 rid: 50.0.0.2 next_hop: 50.0.0.2 WAVL tree nodes MDT-default: 239.1.1.1 Tunnel0 source-interface: Loopback0 MDT-data : 239.2.2.0 Tunnel0 source-interface: Loopback0
Überprüfen Sie die Daten-MDTs.
Hinweis: Überprüfen Sie in diesem Beispiel den Daten-MDT, der von PE-R2 und PE-R4 stammt oder zu ihnen gehört.
Geben Sie für PE-R2 den Befehl show ip pim vrf yellow mdt send ein.
MDT-data send list for VRF: yellow (source, group) MDT-data group ref_count (100.0.0.1, 224.2.2.2) 239.2.2.0 1
Geben Sie für PE-R2 den Befehl show ip pim vrf yellow mdt ein.
Flags: D - Dense, S - Sparse, B - Bidir Group, s - SSM Group, C - Connected, L - Local, P - Pruned, R - RP-bit set, F - Register flag, T - SPT-bit set, J - Join SPT, M - MSDP created entry, X - Proxy Join Timer Running, A - Candidate MSDP Advertisement, U - URD, I - Received Source Specific Host Report, Z - Multicast Tunnel Y - Joined MDT-data group, y - Sending to MDT-data group Joined MDT-data groups for VRF: yellow group: 239.2.2.0 source: 0.0.0.0 ref_count: 1
Überprüfen Sie die globale Multicast-Routing-Tabelle auf den Standard-MDT.
Hinweis: Beachten Sie diese Informationen:
Die Liste der ausgehenden Schnittstellen ist MVRF-Gelb auf den PEs.
Der P-Router sieht die Gruppe als normale Multicast-Gruppe.
Jeder PE ist eine Quelle für den Standard-MDT und befindet sich nur in den PE-Routern.
Ein neues Flag, Z, zeigt an, dass es sich um einen Multicast-Tunnel handelt.
Führen Sie für PE-R2 den Befehl show ip mroute 239.1.1.1 aus.
IP Multicast Routing Table Flags: D - Dense, S - Sparse, B - Bidir Group, s - SSM Group, C - Connected, L - Local, P - Pruned, R - RP-bit set, F - Register flag, T - SPT-bit set, J - Join SPT, M - MSDP created entry, X - Proxy Join Timer Running, A - Candidate MSDP Advertisement, U - URD, I - Received Source Specific Host Report, Z - Multicast Tunnel Y - Joined MDT-data group, y - Sending to MDT-data group Outgoing interface flags: H - Hardware switched Timers: Uptime/Expires Interface state: Interface, Next-Hop or VCD, State/Mode (*, 239.1.1.1), 02:37:16/stopped, RP 50.0.0.3, flags: SJCFZ Incoming interface: Serial2/0, RPF nbr 10.2.0.3 Outgoing interface list: MVRF yellow, Forward/Sparse-Dense, 02:21:26/00:00:28 (50.0.0.2, 239.1.1.1), 02:37:12/00:03:29, flags: FTZ Incoming interface: Loopback0, RPF nbr 0.0.0.0 Outgoing interface list: Serial2/0, Forward/Sparse-Dense, 02:36:09/00:02:33 ( 50.0.0.4, 239.1.1.1), 02:36:02/00:02:59, flags: JTZ Incoming interface: Serial2/0, RPF nbr 10.2.0.3 Outgoing interface list: MVRF yellow, Forward/Sparse-Dense, 02:21:26/00:00:28
Führen Sie für P-R3 den Befehl show ip mroute 239.1.1.1 aus.
IP Multicast Routing Table Flags: D - Dense, S - Sparse, B - Bidir Group, s - SSM Group, C - Connected, L - Local, P - Pruned, R - RP-bit set, F - Register flag, T - SPT-bit set, J - Join SPT, M - MSDP created entry, X - Proxy Join Timer Running, A - Candidate MSDP Advertisement, U - URD, I - Received Source Specific Host Report, Z - Multicast Tunnel Y - Joined MDT-data group, y - Sending to MDT-data group Outgoing interface flags: H - Hardware switched Timers: Uptime/Expires Interface state: Interface, Next-Hop or VCD, State/Mode (*, 239.1.1.1), 02:50:24/stopped, RP 50.0.0.3, flags: S Incoming interface: Null, RPF nbr 0.0.0.0 Outgoing interface list: Serial1/0, Forward/Sparse-Dense, 02:34:41/00:03:16 Serial2/0, Forward/Sparse-Dense, 02:49:24/00:02:37 (50.0.0.2, 239.1.1.1), 02:49:56/00:03:23, flags: T Incoming interface: Serial1/0, RPF nbr 10.2.0.2 Outgoing interface list: Serial2/0, Forward/Sparse-Dense, 02:49:24/00:02:37 (50.0.0.4, 239.1.1.1), 02:49:47/00:03:23, flags: T Incoming interface: Serial2/0, RPF nbr 10.3.0.4 Outgoing interface list: Serial1/0, Forward/Sparse-Dense, 02:34:41/00:03:16
Führen Sie für PE-R4 den Befehl show ip mroute 239.1.1.1 aus.
IP Multicast Routing Table Flags: D - Dense, S - Sparse, B - Bidir Group, s - SSM Group, C - Connected, L - Local, P - Pruned, R - RP-bit set, F - Register flag, T - SPT-bit set, J - Join SPT, M - MSDP created entry, X - Proxy Join Timer Running, A - Candidate MSDP Advertisement, U - URD, I - Received Source Specific Host Report, Z - Multicast Tunnel Y - Joined MDT-data group, y - Sending to MDT-data group Outgoing interface flags: H - Hardware switched Timers: Uptime/Expires Interface state: Interface, Next-Hop or VCD, State/Mode (*, 239.1.1.1), 02:51:06/stopped, RP 50.0.0.3, flags: SJCFZ Incoming interface: Serial1/0, RPF nbr 10.3.0.3 Outgoing interface list: MVRF yellow, Forward/Sparse-Dense, 02:51:06/00:00:48 (50.0.0.2, 239.1.1.1), 02:50:06/00:02:58, flags: JTZ Incoming interface: Serial1/0, RPF nbr 10.3.0.3 Outgoing interface list: MVRF yellow, Forward/Sparse-Dense, 02:50:06/00:00:48 (50.0.0.4, 239.1.1.1), 02:51:00/00:03:10, flags: FTZ Incoming interface: Loopback0, RPF nbr 0.0.0.0 Outgoing interface list: Serial1/0, Forward/Sparse-Dense, 02:35:24/00:03:00
Suchen Sie in der globalen Multicast-Routing-Tabelle nach Daten-MDTs.
Hinweis: Beachten Sie für PE-R2, dass die ausgehende Schnittstelle tunnel0 ist.
Führen Sie für PE-R2, wo sich die Quelle befindet (VRF-Seite), den Befehl show ip mroute vrf gelb 224.2.2.2 aus.
IP Multicast Routing Table Flags: D - Dense, S - Sparse, B - Bidir Group, s - SSM Group, C - Connected, L - Local, P - Pruned, R - RP-bit set, F - Register flag, T - SPT-bit set, J - Join SPT, M - MSDP created entry, X - Proxy Join Timer Running, A - Candidate MSDP Advertisement, U - URD, I - Received Source Specific Host Report, Z - Multicast Tunnel Y - Joined MDT-data group, y - Sending to MDT-data group Outgoing interface flags: H - Hardware switched Timers: Uptime/Expires Interface state: Interface, Next-Hop or VCD, State/Mode (*, 224.2.2.2), 2d01h/stopped, RP 100.0.0.2, flags: S Incoming interface: Null, RPF nbr 0.0.0.0 Outgoing interface list: Tunnel0, Forward/Sparse-Dense, 2d01h/00:02:34 (100.0.0.1, 224.2.2.2), 00:05:32/00:03:26, flags: Ty Incoming interface: Serial1/0, RPF nbr 10.1.0.1 Outgoing interface list: Tunnel0, Forward/Sparse-Dense, 00:05:37/00:02:34
Führen Sie für PE-R2, wo sich die Quelle befindet (globale Multicast-Route), den Befehl show ip mroute 239.2.2.0 aus.
IP Multicast Routing Table Flags: D - Dense, S - Sparse, B - Bidir Group, s - SSM Group, C - Connected, L - Local, P - Pruned, R - RP-bit set, F - Register flag, T - SPT-bit set, J - Join SPT, M - MSDP created entry, X - Proxy Join Timer Running, A - Candidate MSDP Advertisement, U - URD, I - Received Source Specific Host Report, Z - Multicast Tunnel Y - Joined MDT-data group, y - Sending to MDT-data group Outgoing interface flags: H - Hardware switched Timers: Uptime/Expires Interface state: Interface, Next-Hop or VCD, State/Mode (*, 239.2.2.0), 02:13:27/stopped, RP 50.0.0.3, flags: SJPFZ Incoming interface: Serial2/0, RPF nbr 10.2.0.3 Outgoing interface list: Null (50.0.0.2, 239.2.2.0), 02:13:27/00:03:22, flags: FTZ Incoming interface: Loopback0, RPF nbr 0.0.0.0 Outgoing interface list: Serial2/0, Forward/Sparse-Dense, 02:13:27/00:03:26
Hinweis: Nur der PE-Router mit angeschlossener Multicast-Quelle wird als Quelle für Multicast-Datenverkehr der Daten-MDT-Gruppenadresse angezeigt.
Geben Sie den Befehl show ip pim vrf neighbor ein, um zu überprüfen, ob PE-Router über die dynamische Tunnelschnittstelle eine PIM-Nachbarbeziehung hergestellt haben. Ist dies der Fall, funktioniert der Standard-MDT ordnungsgemäß.
Wenn der Standard-MDT nicht funktioniert, führen Sie den Befehl show ip pim mdt bgp aus, um zu überprüfen, ob die Loopbacks der am MVPN teilnehmenden Remote-PE-Router vom lokalen Router erkannt werden. Ist dies nicht der Fall, stellen Sie sicher, dass PIM an Loopback-Schnittstellen aktiviert ist, die als Quelle für MP-BGP-Sitzungen verwendet werden.
Überprüfen Sie, ob der SP-Core für die Bereitstellung von Multicast zwischen PE-Routern korrekt konfiguriert ist. Zu Testzwecken können Sie ip igmp join-group auf der Loopback-Schnittstelle eines PE-Routers konfigurieren und Multicast-Pings durchführen, die vom Loopback eines anderen PE-Routers stammen.
Überarbeitung | Veröffentlichungsdatum | Kommentare |
---|---|---|
1.0 |
10-Aug-2005 |
Erstveröffentlichung |