lystor
-
Публикации
20 -
Зарегистрирован
-
Посещение
Сообщения, опубликованные пользователем lystor
-
-
Опубликовано · Изменено пользователем lystor · Жалоба на ответ
Начиная с версии прошивки 400BBC0C0 глюков не замечено
У меня больше десятка XGS-4728F + 400BBC0C0
Уже два года на них нет ни одной новой прошивки. Делал официальный запрос по поводу прекращения поддержки данного коммутатора - ответили мол еще поддерживаем, но прошивок больше не выпускаем - не жди и не спрашивай больше - коммутатор 2007 года.
А глюков хватает:
1) Не работает Storm Control (ARP/BPDU/IGMP protection), т.е. если в кольце частично подвисает домовой коммутатор (перестает пропускать BPDU) - трафик начинает летать по кругу и микрорайон умирает. Баг фиксят вот уже второй год...
2) Проблемы с SFP-модулями - пишет нет линка, удаленная сторона говорит - линк есть. Воспроизводится и на метровых патч-кордах. Или линк может упасть, а со временет сам подняться (касательно оптического бюджета все ОК).
3) Есть сгоревшие SFP-порты на коммутаторах, которым меньше 3 мес
4) Непонятные скачки загрузки по CPU до 100% длительностью 5-15 мин
http://s21.postimage.org/7u4tqyv5j/zyxel_cpu.png
5) При откате с 4.0 до 3.90 теряет свой конфиг - не понимает новые параметры, которых не было в 3.90.
Использую только LACP, RSTP, IGMP Snooping, несколько VLAN'ов, никакого L3, 10G нет.
В общем потихоньку отказываюсь в пользу D-Link.
-
Работает у вас на четырех - см. счетчики "search found new, trunc frag alloc maxflows".
Отправка идет с двух - см. sock.
У меня же есть ядра, счетчики "search found new, trunc frag alloc maxflows" которых нулевые.
-
Картина с восьмиядерника:
# cat /proc/net/stat/ipt_netflow Flows: active 60 (peak 635 reached 1d19h31m ago), mem 5K Hash: size 8192 (mem 64K), metric 1.0, 1.0, 1.0, 1.0. MemTraf: 19744 pkt, 1218 K (pdu 0, 0). Timeout: active 1800, inactive 15. Maxflows 2000000 Rate: 265192 bits/sec, 56 packets/sec; Avg 1 min: 87691 bps, 64 pps; 5 min: 50326 bps, 39 pps cpu# stat: <search found new, trunc frag alloc maxflows>, sock: <ok fail cberr, bytes>, traffic: <pkt, bytes>, drop: <pkt, bytes> Total stat: 261719 24575622 1340387, 0 0 0 0, sock: 47441 0 0, 63939 K, traffic: 25916009, 17787 MB, drop: 0, 0 K cpu0 stat: 2 1094 106, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 1200, 0 MB, drop: 0, 0 K cpu1 stat: 0 882 113, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 995, 0 MB, drop: 0, 0 K cpu2 stat: 0 869 41, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 910, 0 MB, drop: 0, 0 K cpu3 stat: 0 18 4, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 22, 0 MB, drop: 0, 0 K cpu4 stat: 163448 17399148 687284, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 18086432, 14895 MB, drop: 0, 0 K cpu5 stat: 96216 7132114 646863, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 7778977, 2864 MB, drop: 0, 0 K cpu6 stat: 2053 41483 5973, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 47456, 26 MB, drop: 0, 0 K cpu7 stat: 0 14 3, 0 0 0 0, sock: 47441 0 0, 63939 K, traffic: 17, 0 MB, drop: 0, 0 K sock0: 194.44.18.65:2055, sndbuf 229376, filled 1, peak 11521; err: sndbuf reached 0, other 0 aggr#0 port: ports 0-65535 replace 0
-
Опубликовано · Изменено пользователем lystor · Жалоба на ответ
Здравствуйте
Решил поиграться с ipt_netflow.
Собрал ipt_netflow 1.8
Ядро 3.4.25
RHEL 6.3 x86_64
Параметры модуля:
modprobe -v ipt_NETFLOW hashsize=131072 destination=194.44.18.65:2055 aggregation=0-65535=0
Сервер древний: 2 процессора x Intel® Xeon CPU 3.20GHz на SE7520
# grep processor /proc/cpuinfo processor : 0 processor : 1
# cat /proc/net/stat/ipt_netflow Flows: active 8043 (peak 10664 reached 0d0h19m ago), mem 691K Hash: size 131072 (mem 1024K), metric 1.0, 1.0, 1.0, 1.0. MemTraf: 5908992 pkt, 2595141 K (pdu 1, 129). Timeout: active 1800, inactive 15. Maxflows 2000000 Rate: 40217618 bits/sec, 13761 packets/sec; Avg 1 min: 39543584 bps, 13404 pps; 5 min: 40476023 bps, 12628 pps cpu# stat: <search found new, trunc frag alloc maxflows>, sock: <ok fail cberr, bytes>, traffic: <pkt, bytes>, drop: <pkt, bytes> Total stat: 8846003 86182139 4032004, 0 0 0 0, sock: 134132 0 0, 191766 K, traffic: 90214143, 36858 MB, drop: 0, 0 K cpu0 stat: 0 0 0, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 0, 0 MB, drop: 0, 0 K cpu1 stat: 8846003 86182139 4032004, 0 0 0 0, sock: 134132 0 0, 191766 K, traffic: 90214143, 36858 MB, drop: 0, 0 K sock0: 194.44.18.65:2055, sndbuf 212992, filled 1, peak 18433; err: sndbuf reached 0, other 0 aggr#0 port: ports 0-65535 replace 0
Как сделать, чтобы ipt_netflow работал на обоих cpu, а не только на cpu1?
Спасибо
-
Опубликовано · Изменено пользователем lystor · Жалоба на ответ
3.2.х весьма стабильно себя ведет начиная уже с 10-х ядер.
Также пользую 2.6.32.х на разных машинах. Нареканий тоже нет.
Спасибо
Сегодня тоже феерический баг словил:
RHEL 6.3 x86_64
Старый сервер на SE7520 под нагрузкой до гигабита (только NAT).
Решил обновить kernel 2.6.32-131.0.15.el6 + igb 3.0.22 до 2.6.32-279.19.1.el6 + igb 4.1.2.
После ребута сразу же получил:
Jan 11 14:59:20 vega kernel: irq 16: nobody cared (try booting with the "irqpoll" option) Jan 11 14:59:20 vega kernel: Pid: 0, comm: swapper Not tainted 2.6.32-279.19.1.el6.x86_64 #1 Jan 11 14:59:20 vega kernel: Call Trace: Jan 11 14:59:20 vega kernel: <IRQ> [<ffffffff810daa5b>] ? __report_bad_irq+0x2b/0xa0 Jan 11 14:59:20 vega kernel: [<ffffffff810dac5c>] ? note_interrupt+0x18c/0x1d0 Jan 11 14:59:20 vega kernel: [<ffffffff810db37d>] ? handle_fasteoi_irq+0xcd/0xf0 Jan 11 14:59:20 vega kernel: [<ffffffff8100de89>] ? handle_irq+0x49/0xa0 Jan 11 14:59:20 vega kernel: [<ffffffff814f1eac>] ? do_IRQ+0x6c/0xf0 Jan 11 14:59:20 vega kernel: [<ffffffff8100b9d3>] ? ret_from_intr+0x0/0x11 Jan 11 14:59:20 vega kernel: <EOI> [<ffffffff81014707>] ? mwait_idle+0x77/0xd0 Jan 11 14:59:20 vega kernel: [<ffffffff814ef7aa>] ? atomic_notifier_call_chain+0x1a/0x20 Jan 11 14:59:20 vega kernel: [<ffffffff81009fc6>] ? cpu_idle+0xb6/0x110 Jan 11 14:59:20 vega kernel: [<ffffffff814e32aa>] ? start_secondary+0x22a/0x26d Jan 11 14:59:20 vega kernel: handlers: Jan 11 14:59:20 vega kernel: [<ffffffff81396730>] (usb_hcd_irq+0x0/0x90) Jan 11 14:59:20 vega kernel: Disabling IRQ #16
Но самый смак - как только приходит 10-20 Mbit трафика - %sy в top сразу возрастает до 80-90%,
после чего все умирает, включая клавиатуру.
Откаты igb 4.1.2 -> 3.4.8 -> 3.0.22 проблему не решили, irqpoll тоже, только возврат к предыдущей версии ядра.
Вручную собрал 3.0.57 + igb 4.1.2 - полет нормальный.
Вот такой вот хваленый Enterprise...
Еще кто опытом может поделиться? :)
-
Опубликовано · Изменено пользователем lystor · Жалоба на ответ
Здравствуйте, коллеги
Какую из актуальных ветку ядра посоветуете для задач NAT + ipt_netflow на одном сервере?
Или кто какие использует?
Сетевые карты - классика в виде Intel 82576 с 2-4 портами на борту.
Задача - переваривать 2-4 Gb на одном сервере с x86_64 архитектурой.
На данный момент на kernel.org имеем следующую картину:
stable: 3.7.2 mainline: 3.7 stable: 3.6.11 (EOL) stable: 3.5.7 (EOL) stable: 3.4.25 stable: 3.2.36 stable: 3.0.58 stable: 2.6.34.13 stable: 2.6.32.60
Спасибо
-
Так проще PIM сделать, чем чудо-железки искать...
Я не собираюсь их искать :)
Мне интересны альтернативные решения от других производителей такой приятной фичи.
А внедрение PIM может оказаться еще той прелестью, которая начинается с покупки IP Services на Cisco и т.д. (отдельная тема).
-
Опубликовано · Изменено пользователем lystor · Жалоба на ответ
А зачем это надо?
Сокращение количества MAC-адресов в VLAN-е с мультикастом с кол-ва активных IGMP-абонентов до 1 на коммутатор агрегации.
Т.е. если у вас в сети нет PIM и вы абонентам раздаете мультикаст в отдельном vlan'e (на доступе MVR или ISM) - в ядро сети придут все 100500 MAC-адресов ваших клиентов, как бы вы свою сеть не делили маршрутизаторами.
-
config igmp_snooping multicast_vlan <mcast_vlan_name> replace_source_ip <ip> state enable
Это совсем не из той оперы.
-
Здравствуйте
Встречал кто-то реализацию на коммутаторах Cisco и D-Link фичи igmp-snooping report-proxy, которая есть у Zyxel, в частности на XGS-4728F:
Enables IGMP snooping report-proxy mode.
In this mode, the Switch acts as an IGMP v1/v2 report proxy.
The Switch not only checks IGMP packets between multicast routers/switches and multicast hosts to learn the
multicast group membership, but also replaces the source MAC address in an IGMP v1/v2 report with its own MAC address before forwarding to the multicast router/switch.
When the Switch receives more than one IGMP v1/v2 join reports that request to join the same multicast group, it only sends a new join report with its MAC address. This helps reduce the number of multicast join reports passed to the multicast router/switch.
Спасибо
-
ivan999, спасибо за информацию.
-
Хотелось бы собрать как можно больше фактов.L3 на сабже плохоеНайденные отзывы:
-
Поделитесь опытом использования XGS-4728F на агрегации в качестве маршрутизатора внутреннего трафика между микрорайонами:
- OSPF;
- На XGS-4728F начинаются и заканчиваются 7-10 колец по 5-7 коммутаторов доступа в каждом (DES-3200-28);
- 1 VLAN на одно кольцо;
- MVR, IGMP snooping;
- *STP.
Смотрим также в сторону использования на одном узле агрегации CISCO WS-C3750G-24T-S + 2 х шасси TP-Link MC 1400 + N x TP-Link MC220L, но не нравится:
1) Отсутствие 10GE-портов (про существование WS-C3560E-24TD-S знаем, но в 2 раза дороже WS-C3750G-24T-S);
2) Наличие шасси с медиаконверторами;
3) Большие размеры коммутатора 3750G - необходимо держать на агрегации большой шкаф/стойку.
Заранее благодарен за ответы.
-
-
Можете привести модели (>=15 км), которые будут работать с 3750G "из коробки" и с которыми будет минимум проблем?Сейчас SFP модулей для циски навалом, аналоги продают на каждом шагу. Мы ставим вообще 40 километровые аналоги и не задумываемся. цена за пару примероно 5000 рублей. если интересно
Намного ли ниже вероятность возникновения проблем при использовании SFP-"аналога" по сравнению с медиаконвертером?Трассы, насколько я понимаю, важные, дополнительные точки отказа в виде конверторов совсем ни к чему. -
Читал описание этого NONAME чуда и радовался поднятию настроения: сверху пишут, что "на расстояние до 10 км", снизу страницы - "Distance: 10-20 KM".
Не хочется такого счастья :)
У кого-то были проблемы с:
* D-Link DMC-1910T + DMC-1910R
* Planet GT-706A15 + GT-706B15?
Другие проверенные варианты медиаконвертеров без SFP?
-
Ответить не могу - перемонтажа еще не было.Рефлектограмма какое затухание показала ?
Но в текущей ситуации, получается, что самое предсказуемое.3. Воспользоваться медиаконверторами гигабитными, из недостатков - Гигабит по меди это немного меньше гигабита по оптике и дополнительное устройство- лишняя точка отказа.Кто какие медиаконвертеры посоветует (SMF, >=12 km)?
-
Насколько понимаю - заведется на 13 км или нет - как повезет, а в текущей ситуации это не приемлемо.Играет рольне столько расстояние, сколько затухание сигнала.Если оптика хорошего качества - то 10км SFP могут завестись и на 15-20 км.
из личного опыта - SFP с маркировкой 20км работали на 24 км оптики.
Какое кто посоветует оборудование (SFP/медиаконвертеры), чтобы решить данную проблему?
-
Здравствуйте, форумчане.
Помогите решить следующую проблему.
Есть 3 х Catalyst 3750G (12.2(25)SEE), которые между собой объединены при помощи:
1-2: Cisco SFP 1000BaseLX <--> 1000BaseLX
2-3: Cisco SFP 1000BaseBX10-U <--> 1000BaseBX10-D
Тип кабеля - SMF. Расстояние между коммутаторами < 10 км.
Возникла необходимость перенести центральный коммутатор (N2) так, что расстояние между ним и другими увеличится до 13 км.
Собственно вопросы:
1) Будут ли на 13 км работать Cisco SFP 1000BaseLX/1000BaseBX10-U/1000BaseBX10-D?
2) Может лучше данные SFP заменить на другие (какие?) или медиаконвертеры (какие?)?
3) Если на медиаконвертеры - кто что думает о D-Link DMC-1910T + DMC-1910R?
P.S. На Cisco SFP 1000BASE-ZX денег нет.
Связка cisco 3750 + d-link DGS 3120 iptv мультикаст
в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
Опубликовано · Жалоба на ответ
Нет :)
Используем 3750X + DGS-3420