Jump to content
Калькуляторы

MPLS и MTU

Всем привет!

 

Запустил на сети MPLS (LDP). После чего, один клиент (с реальным ip) стал жаловаться, что не все сайты открываются. После изучения проблемы выяснилось, что если на клиентской машине снизить MTU до 1400, то все начинает работать. В общем стало ясно, что проблема из за тегированного трафика и что нужно увеличить MTU на интерфейсах. Но не понятно, на всех или только на тех, где бегает тегированный трафик? И какой рекомендованный размер? 

Share this post


Link to post
Share on other sites

возможно у вас трафик стал маршрутизироваться на lsp-next-hop тем самым к пакету добавляется l2+ заголовок (mpls-метка). В сетях с mpls или qinq туннелированием включение jumbo обязательно. т.е. на физическом интерфейсе ставить максимально возможный на парке оборудования, а на l3 интерфейсах во общем не обязательно менять - они работают уже над l2/l2+ заголовками. на cisco кажется есть mtu и ip mtu для случаев когда ip поднимается на голом физическом интерфейсе

Share this post


Link to post
Share on other sites
2 часа назад, dmvy сказал:

возможно у вас трафик стал маршрутизироваться на lsp-next-hop тем самым к пакету добавляется l2+ заголовок (mpls-метка). В сетях с mpls или qinq туннелированием включение jumbo обязательно. т.е. на физическом интерфейсе ставить максимально возможный на парке оборудования, а на l3 интерфейсах во общем не обязательно менять - они работают уже над l2/l2+ заголовками. на cisco кажется есть mtu и ip mtu для случаев когда ip поднимается на голом физическом интерфейсе

 

Да, судя по всему так и есть. Если посмотреть в cef маршрут к хосту юзера, то видно, что добавляется метка. У меня канал между площадками - 802.1q (оператор выделил vlan для этого). MTU менять на 802.1q интерфейсе или на физическом интерфейсе?

Edited by fox_m

Share this post


Link to post
Share on other sites
2 часа назад, fox_m сказал:

MTU менять на 802.1q интерфейсе или на физическом интерфейсе?

менять придется и на ip интерфейсе, и на физических интерфейсах (зачастую хватает включения джамбы и/или корректировки mtu на портах)

 

можно пройтись в гугле по запросу "mpls mtu calculation", и у разных вендоров найдется вполне простые схемы и объяснения как и что считается.

типовых значений для l2 mtu, ip mtu, и mpls mtu в принципе не существует, каждый делает под себя, с учетом предоставляемых услуг. 

и прежде чем пытаться собрать все это в лабе, стоит получше изучить мат.часть.

можно начать хоть с цикла статей "сети для самых маленьких" на хабре. 

 

 

4 часа назад, dmvy сказал:

т.е. на физическом интерфейсе ставить максимально возможный на парке оборудования

это настолько спорный вопрос, что может очень сильно аукнуться. правда для маленьких аеспи и операторов чуть меньше средних это настолько некритично, что большинство пренебрегает и действительно выкручивают все на максимум. 

проблемы корреляции mtu/latency уже не первый год и очень наглядно показывают, в т.ч. на различных больших конференциях, гугл в помощь. за примерами далеко ходить не надо https://superuser.com/questions/715590/why-do-jumbo-frames-hurt-latency

Share this post


Link to post
Share on other sites
59 минут назад, darkagent сказал:

менять придется и на ip интерфейсе, и на физических интерфейсах (зачастую хватает включения джамбы и/или корректировки mtu на портах)

 

можно пройтись в гугле по запросу "mpls mtu calculation", и у разных вендоров найдется вполне простые схемы и объяснения как и что считается.

типовых значений для l2 mtu, ip mtu, и mpls mtu в принципе не существует, каждый делает под себя, с учетом предоставляемых услуг. 

и прежде чем пытаться собрать все это в лабе, стоит получше изучить мат.часть.

можно начать хоть с цикла статей "сети для самых маленьких" на хабре. 

 

 

это настолько спорный вопрос, что может очень сильно аукнуться. правда для маленьких аеспи и операторов чуть меньше средних это настолько некритично, что большинство пренебрегает и действительно выкручивают все на максимум. 

проблемы корреляции mtu/latency уже не первый год и очень наглядно показывают, в т.ч. на различных больших конференциях, гугл в помощь. за примерами далеко ходить не надо https://superuser.com/questions/715590/why-do-jumbo-frames-hurt-latency

 

И кстати, менять нужно просто mtu, не ip mtu? 

Share this post


Link to post
Share on other sites
16 минут назад, fox_m сказал:

 

И кстати, менять нужно просто mtu, не ip mtu? 

Речь про циску? Если да, mtu. На верхних L3- интерфейсах при этом сменится mtu на максимальный. Если на соседних с mpls интерфейсах есть ospf/bgp с соседом - нужно перед этим по ним пробежаться и прописать ip mtu 1500.

Edited by uxcr

Share this post


Link to post
Share on other sites
2 минуты назад, uxcr сказал:

Речь про циску? Если да, mtu. На верхних L3- интерфейсах при этом сменится mtu на максимальный. Если на соседних с mpls интерфейсах есть ospf/bgp с соседом - нужно перед этим по ним пробежаться и прописать ip mtu 1500.

 

Да, циска. (IOS XR). Так, кстати есть особенность, в mtu учитывается L2 заголовок. 

Share this post


Link to post
Share on other sites

Короче, на IOS-XR при изменении mtu на физическом интерфейсе, нужно еще добавлять 14 байт на L2 заголовок. А значения для ip mtu и для 802.1q интерфейсов он уже сам высчитывает.

 

Тут я указал mtu 1500+14 байт заголовок L2+4 байта на метку. Для 802.1q он сам добавил еще 4 байта на vlan tag. Для ip mtu посчитал 1504. 
 

interface GigabitEthernet0/0/0/4
 mtu 1518


RP/0/0/CPU0:M9-ASR01#sh  int gigabitEthernet 0/0/0/4   
Tue Dec 11 11:23:28.202 UTC
GigabitEthernet0/0/0/4 is up, line protocol is up 
  Interface state transitions: 1
  Hardware is GigabitEthernet, address is 5000.0001.0005 (bia 5000.0001.0005)
  Internet address is Unknown
  MTU 1518 bytes, BW 1000000 Kbit (Max: 1000000 Kbit)
     reliability 255/255, txload 0/255, rxload 0/255
  Encapsulation ARPA,
  Full-duplex, 1000Mb/s, unknown, link type is force-up
  output flow control is off, input flow control is off
  Carrier delay (up) is 10 msec
  loopback not set,
  Last input 00:00:00, output 00:00:00
  Last clearing of "show interface" counters never
  5 minute input rate 0 bits/sec, 0 packets/sec
  5 minute output rate 0 bits/sec, 1 packets/sec
     605300 packets input, 51489250 bytes, 0 total input drops
     0 drops for unrecognized upper-level protocol
     Received 4 broadcast packets, 451991 multicast packets
              0 runts, 0 giants, 0 throttles, 0 parity
     0 input errors, 0 CRC, 0 frame, 0 overrun, 0 ignored, 0 abort
     744627 packets output, 59736572 bytes, 0 total output drops
     Output 2 broadcast packets, 500128 multicast packets
     0 output errors, 0 underruns, 0 applique, 0 resets
     0 output buffer failures, 0 output buffers swapped out
     1 carrier transitions


RP/0/0/CPU0:M9-ASR01#sh  int gigabitEthernet 0/0/0/4.10
Tue Dec 11 11:23:32.091 UTC
GigabitEthernet0/0/0/4.10 is up, line protocol is up 
  Interface state transitions: 1
  Hardware is VLAN sub-interface(s), address is 5000.0001.0005
  Internet address is 10.100.30.1/24
  MTU 1522 bytes, BW 1000000 Kbit (Max: 1000000 Kbit)
     reliability 255/255, txload 0/255, rxload 0/255
  Encapsulation 802.1Q Virtual LAN, VLAN Id 10,  loopback not set,
  ARP type ARPA, ARP timeout 04:00:00
  Last input 00:00:05, output 00:00:00
  Last clearing of "show interface" counters never
  5 minute input rate 0 bits/sec, 0 packets/sec
  5 minute output rate 0 bits/sec, 0 packets/sec
     627 packets input, 283506 bytes, 0 total input drops
     0 drops for unrecognized upper-level protocol
     Received 2 broadcast packets, 2167 multicast packets
     914 packets output, 435541 bytes, 0 total output drops
     Output 1 broadcast packets, 2246 multicast packets


RP/0/0/CPU0:M9-ASR01#sh  ipv4 int gigabitEthernet 0/0/0/4.10
Tue Dec 11 11:23:37.981 UTC
GigabitEthernet0/0/0/4.10 is Up, ipv4 protocol is Up
  Vrf is default (vrfid 0x60000000)
  Internet address is 10.100.30.1/24
  MTU is 1522 (1504 is available to IP)
  Helper address is not set
  Multicast reserved groups joined: 224.0.0.2 224.0.0.1 224.0.0.1
      224.0.0.2 224.0.0.5 224.0.0.6 224.0.0.13 224.0.0.22
  Directed broadcast forwarding is disabled
  Outgoing access list is not set
  Inbound  access list is not set
  Proxy ARP is disabled
  ICMP redirects are never sent
  ICMP unreachables are always sent
  ICMP mask replies are never sent
  Table Id is 0xe0000000

 

Share this post


Link to post
Share on other sites

А не лучше сразу до 9к поднять? Лэйбл стэк не всегда состоит из одной метки

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this