Перейти к содержимому
Калькуляторы

Avensis

Пользователи
  • Публикации

    65
  • Зарегистрирован

  • Посещение

О Avensis

  • Звание
    Абитуриент
    Абитуриент

Посетители профиля

1345 просмотров профиля
  1. Модуль стоит - VS-SUP2T-10G и иос s2t54-advipservicesk9-mz.SPA.155-1.SY3.bin Попробую обновить до s2t54-adventerprisek9-mz.SPA.155-1.SY4.bin
  2. А есть пример на sup2t? Есть пару цисок с ним, но там нет, к примеру, l2 vfi. А обычный xconnect на svi интерфейсе дает: sup2t(config-if)#xconnect 10.200.1.2 1031 encapsulation mpls %EoMPLS configuration not allowed on SVIs Если делать через pseudowire-class с interworking, все однотипно, и та же ошибка. Хотя все доки показывают, что можно делать так Вот, например Модуль стоит - VS-SUP2T-10G и иос s2t54-advipservicesk9-mz.SPA.155-1.SY3.bin
  3. Только EoMPLS, насколько я вычитал... Походу magic cable только мой выход
  4. Может просто мой sup не поддерживает vpls-vlan?
  5. Ага, опечатка, из sh run | sec подтянулось 0. Supervisor Engine 720 10GE (Active) VS-S720-10G 1. Вот еще бы понять из-за чего) 3. Сделал чтобы было, перенес xconnect на физический интерфейс - все отлично работает. Теперь вопрос, почему не работает с логическим интерфейсом на влане?
  6. Здравствуйте! Уже сломал голову и не могу найти проблему в максимально простой конфигурации с поднятием vpls на двух устройствах. Для начала пытался поднять связь между циской и экстримом по схеме Client(1031 untag)--Extreme(3303 vlan)--Cisco(3303 vlan)--Client(1031 untag). Все отлично поднимается, состояние канала up. Но трафик ходит только в одну сторону: l2 vfi VLAN_1031 manual vpn id 1031 neighbor 10.200.1.2 encapsulation mpls xconnect vfi VLAN_1031 interface Vlan3303 mtu 9192 ip address 10.200.200.18 255.255.255.252 mpls ip end interface Vlan1031 mtu 2000 no ip address xconnect vfi VLAN_1031 end interface GigabitEthernet5/28 switchport switchport access vlan 1031 switchport mode access mtu 9216 end show mpls forwarding-table 10.200.1.2 Local Outgoing Prefix Bytes Label Outgoing Next Hop Label Label or Tunnel Id Switched interface 128 1076 10.200.1.2/32 0 Vl3303 10.200.200.17 show mpls l2transport vc 1031 detail Local interface: VFI VLAN_1031 VFI up Interworking type is Ethernet Destination address: 10.200.1.2, VC ID: 1031, VC status: up Output interface: Vl3303, imposed label stack {1076 1087} Preferred path: not configured Default path: active Next hop: 10.200.200.17 Load Balance: none Flow Label: Disabled Create time: 00:10:33, last status change time: 00:00:03 Signaling protocol: LDP, peer 10.200.1.2:0 up Targeted Hello: 10.200.1.16(LDP Id) -> 10.200.1.2 Status TLV support (local/remote) : enabled/supported Label/status state machine : established, LruRru Last local dataplane status rcvd: no fault Last local SSS circuit status rcvd: no fault Last local SSS circuit status sent: no fault Last local LDP TLV status sent: no fault Last remote LDP TLV status rcvd: no fault MPLS VC labels: local 182, remote 1087 Group ID: local 0, remote 0 MTU: local 2000, remote 2000 Remote interface description: Sequencing: receive disabled, send disabled VC statistics: packet totals: receive 6, send 0 byte totals: receive 336, send 0 packet drops: receive 0, seq error 0, send 0 На экстриме: create l2vpn vpls VLAN_1031 fec-id-type pseudo-wire 1031 configure l2vpn vpls VLAN_1031 add service vlan vlan1031 configure l2vpn vpls VLAN_1031 mtu 2000 configure l2vpn vpls VLAN_1031 add peer 10.200.1.16 core full-mesh show l2vpn vpls "VLAN_1031" detail L2VPN Name: VLAN_1031 VPN ID : 1031 Admin State : Enabled Source Address : 10.200.1.2 Oper State : Enabled VCCV Status : Disabled MTU : 2000 VCCV Interval Time : 5 sec. Ethertype : 0x8100 VCCV Fault Multiplier : 4 .1q tag : exclude L2VPN Type : VPLS Redundancy : None Service Interface : vlan1031 Created By : CLI Peer IP: 10.200.1.16 PW State : Up PW Index : 10018 PW Signaling : LDP PW Uptime : 0d:0h:0m:4s PW Installed : True Local PW Status : No Faults Remote PW Status : No Faults Remote I/F MTU : 2000 PW Mode : Core-to-Core Transport LSP : LDP LSP (Not Configured) Next Hop I/F : vlan3303 Next Hop Addr : 10.200.200.18 Tx Label : 0x00003 Tx Pkts : 2250 Tx Bytes : 193500 PW Rx Label : 0x0043f PW Tx Label : 0x000b6 PW Rx Pkts : 0 PW Tx Pkts : 2250 PW Rx Bytes : 0 PW Tx Bytes : 193500 MAC Limit : No Limit VCCV HC Status : Not Sending (VCCV Not Enabled For This L2VPN) CC Type : Rtr Alert Total Pkts Sent : 0 CV Type : LSP Ping Total Pkts Rcvd : 0 Send Next Pkt : -- Total Failures : 0 Pkts During Last Failure : 0 Last Failure Tm : -- Что меня очень смущает, так это то, что сессия постоянно падает и встает... Хотя может это нормально поведение.... В дебаге следующее: debug mpls l2transport vc status event Dec 22 15:36:42: AToM MGR [10.200.1.2, 1031]: .. Send SSS STATUS(UP) Dec 22 15:36:42: AToM MGR [10.200.1.2, 1031]: .. [filtered] Dec 22 15:36:42: AToM MGR [10.200.1.2, 1031]: Receive SSS STATUS(UP) И так по кругу. В случае когда делаю между цисками схема выглядит так : Client(1031 untag)--(1031 untag)Extreme(1031 tag)--(1031 tag)Cisco(1031 untag)--Client(1031 untag). Только другая циска подключена в экстрим по аналогичной схеме. В таком случае счетчики пакетов вообще не изменяются и состояние канала так же меняется. Помогите понять, что я делаю неправильно? Возможно даже все:) Но впал в ступор с этой задачи...
  7. Мммм, хорошо, спасибо. Буду еще тестить.
  8. Только вот на стенде все это не так. В моем случае он большую часть запросов шлет на один сервер.... Почему и возник этот вопрос
  9. Здравствуйте, Может кто подскажет насчет реализации использования нескольких dhcp серверов с помощью dhcp relay на джуниперах? Имею стандартный конфиг: dhcp-relay { forward-snooped-clients all-interfaces; overrides { trust-option-82; relay-source lo0.3000; } relay-option-82 { circuit-id; } server-group { MAC-DHCP { server-1; server-2; } } active-server-group allow-server-change; group eth-user { active-server-group MAC-DHCP; interface xe-1/0/3.5000; } Работа dhcp relay на джунипер работает не так как, например, на циске. То есть запросы идут не по типу round-robin, а как-будто использует приоритет по списку. Но, если отваливается server-1, запросы не перестраиваются на другой сервер, а продолжают пытаться достучаться до этого "неактивного" сервера... Нашел только возможность использования dhcp relay в proxy mode, где можно указать как раз тип распределения нагрузки между серверами. Но выглядит это конечно... Так же есть возможно детектирования активности серверов в группе тык . Но похоже, что с этим только костылить и скриптовать по данному сообщению.. Есть ли более гибкие и простые решения для какого-либо резервирования или проверки?
  10. Мне правильно подсказали выше :) Абсолютно все хосты, на которые жаловались, оказались заблокированы ркном.
  11. Мда... Поиск по доменным именам ничего не дал.. Дальше не стал искать. Спасибо!
  12. Добрый день. Некоторые https сайты перестали открываться и вываливаются в reset by peer. Как примеры... Причем проблема актуально только для наших абонентов с белыми ip-адресами... Схема простая, Juniper MX480(bras) -(load-balancing)- СКАТx4 - Juniper MX480(R1). Проблеме примерно с полгода, все попытки писать в сапорт различных сайтов не увенчались успехом (никто не отвечал). В данный момент список сайтов понемногу начинает увеличиваться... Погуглив, находил подобные проблемы на другом форуме https://sysadmins.ru/topic488609.html Так что, возможно, кто-то из аплинков просто блокирует эти соединения... Хотя я уже не знаю в какую сторону думать. Кто-нибудь сталкивался с подобным? Место действия - Сибирь.
  13. Тоже так думал, но: тут джунипер даже не перезагружался...
  14. Более подробно можно почитать в их книге-мануале Day One: Dynamic Subscriber Management Или начать с более простого с доков
  15. Советую включить логирование при отладке. Мне при настройке помогло увидеть банальные ошибки типа: