djserg-minyar Опубликовано 25 февраля, 2016 · Жалоба С обоих сторон провайдера мы принимаем влан в Cisco свитчи, а вот за нашими цисками уже длинки с вланами. Если предположить, что со стороны нашей локалки я в циску в порт с такими настройками interface GigabitEthernet1/0/11 description From_LAN switchport access vlan 1234 switchport mode dot1q-tunnel подключу dlink, который будет отдавать ТЭГированный вланы, то получиться с экономить один порт на нашем оборудовании. Со стороны провайдера порты с настройками должны выглядить так interface GigabitEthernet1/0/1 description QnQ_Provider switchport trunk encapsulation dot1q switchport trunk allowed vlan 1234 switchport mode trunk spanning-tree bpdufilter enable spanning-tree bpduguard enable spanning-tree guard root Я все правильно представляю? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
djserg-minyar Опубликовано 25 февраля, 2016 (изменено) · Жалоба Изменено 25 февраля, 2016 пользователем djserg-minyar Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
swelf Опубликовано 25 февраля, 2016 · Жалоба да, все верно. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vurd Опубликовано 25 февраля, 2016 · Жалоба В конфиге объявите vlan 1234 тоже,а то у вас его не хватает. Возможно будет что-то с stp, но не факт, я не помню надо ли фильтр ставить или нет. По последней схеме всё круто, если только вам не нужно выводить 101 и 102 на самой 3x50. Если не нужно, то петля не нужна на самом деле. Остается вопрос где у вас управление свитчами останется. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
djserg-minyar Опубликовано 26 февраля, 2016 · Жалоба похоже придется петлей заморочиться, т.к. коммутаторы без управления оставлять не вариант. еще вспомнил что провайдер на одной из точек выдает два влана, и этот влан так же тегированный надо прогнать по сети. Все такие остается только вариант с петлей(((. Еще провайдера надо попросить, чтобы на своих длинках Jumbo Frame активировал. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Butch3r Опубликовано 26 февраля, 2016 · Жалоба У меня через dlink'и ходил qinq с Jumbo frame off Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
djserg-minyar Опубликовано 26 февраля, 2016 · Жалоба У меня через dlink'и ходил qinq с Jumbo frame off а MTU правили на них? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Butch3r Опубликовано 26 февраля, 2016 · Жалоба У меня через dlink'и ходил qinq с Jumbo frame off а MTU правили на них? а разве на длинки его можно править? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roysbike Опубликовано 27 февраля, 2016 (изменено) · Жалоба У меня через dlink'и ходил qinq с Jumbo frame off а MTU правили на них? а разве на длинки его можно править? по умолчанию на некоторых моделях mtu больше 1500 , поэтому qinq проелезет без включенного Jumbo frame. А в dlink можно только включить и выключить jumbo frame Изменено 27 февраля, 2016 пользователем roysbike Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
djserg-minyar Опубликовано 28 февраля, 2016 · Жалоба В общем не поднялось(( может, что в конфиге не так, но на эксперимент времени очень мало было. Порты подключения чуть изменились, но логика та же осталась Настройка Cisco 3750 System MTU size is 1504 bytes System Jumbo MTU size is 1504 bytes Routing MTU size is 1504 bytes spanning-tree mode pvst spanning-tree extend system-id ! vlan internal allocation policy ascending vlan 2037 name Provider ! vlan 3800 name LAN interface GigabitEthernet1/0/19 description loop_QinQ switchport access vlan 2037 switchport mode dot1q-tunnel l2protocol-tunnel cdp l2protocol-tunnel stp l2protocol-tunnel vtp spanning-tree bpdufilter enable spanning-tree bpduguard enable spanning-tree guard root ! interface GigabitEthernet1/0/20 description loop_QinQ switchport trunk encapsulation dot1q switchport trunk allowed vlan 3800 switchport mode trunk spanning-tree bpdufilter enable spanning-tree bpduguard enable spanning-tree guard root ! interface GigabitEthernet1/0/23 description Provider switchport trunk encapsulation dot1q switchport mode trunk spanning-tree bpdufilter enable spanning-tree bpduguard enable spanning-tree guard root interface GigabitEthernet1/0/24 description Server switchport trunk encapsulation dot1q switchport mode trunk spanning-tree bpdufilter enable spanning-tree bpduguard enable spanning-tree guard root Настройки 3550 System MTU size is 1504 bytes spanning-tree mode rapid-pvst spanning-tree extend system-id ! vlan internal allocation policy ascending vlan dot1q tag native vlan 2037 name Provider ! vlan 3800 name LAN interface GigabitEthernet0/9 description Provider switchport trunk encapsulation dot1q switchport trunk allowed vlan 2037 switchport mode trunk spanning-tree bpdufilter enable spanning-tree bpduguard enable spanning-tree guard root ! interface GigabitEthernet0/10 description LAN switchport trunk encapsulation dot1q switchport mode trunk spanning-tree bpdufilter enable spanning-tree bpduguard enable spanning-tree guard root ! interface GigabitEthernet0/11 description loop_QinQ switchport access vlan 2037 switchport mode dot1q-tunnel duplex full no cdp enable spanning-tree bpdufilter enable spanning-tree bpduguard enable spanning-tree guard root ! interface GigabitEthernet0/12 description loop_QinQ switchport trunk encapsulation dot1q switchport trunk allowed vlan 3800 switchport mode trunk duplex full spanning-tree bpdufilter enable spanning-tree bpduguard enable spanning-tree guard root смущает присутствие на 3550 vlan dot1q tag native и еще один момент, на 3750 порты для петли соединили обычным прямым кабелем, линк поднялся. На 3550 прямым кабелем не поднимается, пришлось делать кросовер. Схема подключения принципиально не менялась вопрос, либо, что то с настройками не так, либо дело все таки в провайдере. Как отдебажить это? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vurd Опубликовано 28 февраля, 2016 · Жалоба Кстати да, "vlan dot1q tag native" надо на обоих цисках. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Butch3r Опубликовано 28 февраля, 2016 · Жалоба Надо снифером посмотреть что летит и что прилетает. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
djserg-minyar Опубликовано 29 февраля, 2016 · Жалоба Кстати да, "vlan dot1q tag native" надо на обоих цисках. На сколько понял, данная команда NATIV VLAN начинает с ТЕГОМ передавать через TRUNK порты. По идее данная команда никак не должна была повлиять. Или я ошибаюсь? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
djserg-minyar Опубликовано 29 февраля, 2016 (изменено) · Жалоба в общем провел еще один Эксперимент. С ПК (10.255.255.1), Цех 1 - пингую Cisco3750 (10.255.255.3) без проблем, очень редко проскакивают пинги до сервера (10.255.255.4) с Циски 3750 (10.255.255.3), пингую только машину в Цехе1 (10.255.255.1) когда SYSTEM MTU было 1546 пролазили пинги только с mtu 1500 Request 51 timed out (size 1501) Success rate is 0 percent (0/55) сделал system mtu 1500 Reply to request 41 (1 ms) (size 1491) Reply to request 42 (1 ms) (size 1492) Reply to request 43 (9 ms) (size 1493) Reply to request 44 (1 ms) (size 1494) Reply to request 45 (1 ms) (size 1495) Reply to request 46 (8 ms) (size 1496) Request 47 timed out (size 1497) Request 48 timed out (size 1498) Request 49 timed out (size 1499) Request 50 timed out (size 1500) Request 51 timed out (size 1501) Request 52 timed out (size 1502) Request 53 timed out (size 1503) Request 54 timed out (size 1504) но вопрос, почему трафик icmp так избирательно ходит, собственно в этот момент ничего не работает((( Изменено 29 февраля, 2016 пользователем djserg-minyar Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Kergorn Опубликовано 29 февраля, 2016 · Жалоба Если я правильно помню, на каталистах нужно увеличивать system MTU и перезагружать после этого коммутаторы. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
djserg-minyar Опубликовано 29 февраля, 2016 · Жалоба на каталистах нужно увеличивать system MTU и перезагружать после этого коммутаторы все верно, так и делал. Он оповещает об этом в консоли. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Igory Опубликовано 2 марта, 2016 · Жалоба либо 2 свича, либо петлю делайте, но петля это так себе решение, можно получить некоторую порцию геммороя. а можно поподробнее про геморрой? ) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Butch3r Опубликовано 2 марта, 2016 · Жалоба Если вы заворачиваете управляющий влан свича, на котором делаете заворот, то могут быть проблемы с MAC/ARP таблицами. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...