Перейти к содержимому
Калькуляторы

lystor

Пользователи
  • Публикации

    20
  • Зарегистрирован

  • Посещение

Сообщения, опубликованные пользователем lystor


  1. Начиная с версии прошивки 400BBC0C0 глюков не замечено

     

    У меня больше десятка XGS-4728F + 400BBC0C0

     

    Уже два года на них нет ни одной новой прошивки. Делал официальный запрос по поводу прекращения поддержки данного коммутатора - ответили мол еще поддерживаем, но прошивок больше не выпускаем - не жди и не спрашивай больше - коммутатор 2007 года.

     

    А глюков хватает:

    1) Не работает Storm Control (ARP/BPDU/IGMP protection), т.е. если в кольце частично подвисает домовой коммутатор (перестает пропускать BPDU) - трафик начинает летать по кругу и микрорайон умирает. Баг фиксят вот уже второй год...

     

    2) Проблемы с SFP-модулями - пишет нет линка, удаленная сторона говорит - линк есть. Воспроизводится и на метровых патч-кордах. Или линк может упасть, а со временет сам подняться (касательно оптического бюджета все ОК).

     

    3) Есть сгоревшие SFP-порты на коммутаторах, которым меньше 3 мес

     

    4) Непонятные скачки загрузки по CPU до 100% длительностью 5-15 мин

    http://s21.postimage.org/7u4tqyv5j/zyxel_cpu.png

     

    5) При откате с 4.0 до 3.90 теряет свой конфиг - не понимает новые параметры, которых не было в 3.90.

     

    Использую только LACP, RSTP, IGMP Snooping, несколько VLAN'ов, никакого L3, 10G нет.

     

    В общем потихоньку отказываюсь в пользу D-Link.

  2. Работает у вас на четырех - см. счетчики "search found new, trunc frag alloc maxflows".

    Отправка идет с двух - см. sock.

     

    У меня же есть ядра, счетчики "search found new, trunc frag alloc maxflows" которых нулевые.

  3. Картина с восьмиядерника:

     

    # cat /proc/net/stat/ipt_netflow 
    Flows: active 60 (peak 635 reached 1d19h31m ago), mem 5K
    Hash: size 8192 (mem 64K), metric 1.0, 1.0, 1.0, 1.0. MemTraf: 19744 pkt, 1218 K (pdu 0, 0).
    Timeout: active 1800, inactive 15. Maxflows 2000000
    Rate: 265192 bits/sec, 56 packets/sec; Avg 1 min: 87691 bps, 64 pps; 5 min: 50326 bps, 39 pps
    cpu#  stat: <search found new, trunc frag alloc maxflows>, sock: <ok fail cberr, bytes>, traffic: <pkt, bytes>, drop: <pkt, bytes>
    Total stat: 261719 24575622 1340387,    0    0    0    0, sock:  47441 0 0, 63939 K, traffic: 25916009, 17787 MB, drop: 0, 0 K
    cpu0  stat:      2   1094    106,    0    0    0    0, sock:      0 0 0, 0 K, traffic: 1200, 0 MB, drop: 0, 0 K
    cpu1  stat:      0    882    113,    0    0    0    0, sock:      0 0 0, 0 K, traffic: 995, 0 MB, drop: 0, 0 K
    cpu2  stat:      0    869     41,    0    0    0    0, sock:      0 0 0, 0 K, traffic: 910, 0 MB, drop: 0, 0 K
    cpu3  stat:      0     18      4,    0    0    0    0, sock:      0 0 0, 0 K, traffic: 22, 0 MB, drop: 0, 0 K
    cpu4  stat: 163448 17399148 687284,    0    0    0    0, sock:      0 0 0, 0 K, traffic: 18086432, 14895 MB, drop: 0, 0 K
    cpu5  stat:  96216 7132114 646863,    0    0    0    0, sock:      0 0 0, 0 K, traffic: 7778977, 2864 MB, drop: 0, 0 K
    cpu6  stat:   2053  41483   5973,    0    0    0    0, sock:      0 0 0, 0 K, traffic: 47456, 26 MB, drop: 0, 0 K
    cpu7  stat:      0     14      3,    0    0    0    0, sock:  47441 0 0, 63939 K, traffic: 17, 0 MB, drop: 0, 0 K
    sock0: 194.44.18.65:2055, sndbuf 229376, filled 1, peak 11521; err: sndbuf reached 0, other 0
    aggr#0 port: ports 0-65535 replace 0
    

  4. Здравствуйте

     

    Решил поиграться с ipt_netflow.

     

    Собрал ipt_netflow 1.8

    Ядро 3.4.25

    RHEL 6.3 x86_64

    Параметры модуля:

    modprobe -v ipt_NETFLOW hashsize=131072 destination=194.44.18.65:2055 aggregation=0-65535=0

     

    Сервер древний: 2 процессора x Intel® Xeon CPU 3.20GHz на SE7520

     

    # grep processor /proc/cpuinfo
    processor       : 0
    processor       : 1

     

    # cat /proc/net/stat/ipt_netflow
    Flows: active 8043 (peak 10664 reached 0d0h19m ago), mem 691K
    Hash: size 131072 (mem 1024K), metric 1.0, 1.0, 1.0, 1.0. MemTraf: 5908992 pkt, 2595141 K (pdu 1, 129).
    Timeout: active 1800, inactive 15. Maxflows 2000000
    Rate: 40217618 bits/sec, 13761 packets/sec; Avg 1 min: 39543584 bps, 13404 pps; 5 min: 40476023 bps, 12628 pps
    cpu#  stat: <search found new, trunc frag alloc maxflows>, sock: <ok fail cberr, bytes>, traffic: <pkt, bytes>, drop: <pkt, bytes>
    Total stat: 8846003 86182139 4032004,    0    0    0    0, sock: 134132 0 0, 191766 K, traffic: 90214143, 36858 MB, drop: 0, 0 K
    cpu0  stat:      0      0      0,    0    0    0    0, sock:      0 0 0, 0 K, traffic: 0, 0 MB, drop: 0, 0 K
    cpu1  stat: 8846003 86182139 4032004,    0    0    0    0, sock: 134132 0 0, 191766 K, traffic: 90214143, 36858 MB, drop: 0, 0 K
    sock0: 194.44.18.65:2055, sndbuf 212992, filled 1, peak 18433; err: sndbuf reached 0, other 0
    aggr#0 port: ports 0-65535 replace 0
    

     

    Как сделать, чтобы ipt_netflow работал на обоих cpu, а не только на cpu1?

     

    Спасибо

  5. 3.2.х весьма стабильно себя ведет начиная уже с 10-х ядер.

    Также пользую 2.6.32.х на разных машинах. Нареканий тоже нет.

     

    Спасибо

     

    Сегодня тоже феерический баг словил:

    RHEL 6.3 x86_64

    Старый сервер на SE7520 под нагрузкой до гигабита (только NAT).

     

    Решил обновить kernel 2.6.32-131.0.15.el6 + igb 3.0.22 до 2.6.32-279.19.1.el6 + igb 4.1.2.

     

    После ребута сразу же получил:

    Jan 11 14:59:20 vega kernel: irq 16: nobody cared (try booting with the "irqpoll" option)
    Jan 11 14:59:20 vega kernel: Pid: 0, comm: swapper Not tainted 2.6.32-279.19.1.el6.x86_64 #1
    Jan 11 14:59:20 vega kernel: Call Trace:
    Jan 11 14:59:20 vega kernel: <IRQ>  [<ffffffff810daa5b>] ? __report_bad_irq+0x2b/0xa0
    Jan 11 14:59:20 vega kernel: [<ffffffff810dac5c>] ? note_interrupt+0x18c/0x1d0
    Jan 11 14:59:20 vega kernel: [<ffffffff810db37d>] ? handle_fasteoi_irq+0xcd/0xf0
    Jan 11 14:59:20 vega kernel: [<ffffffff8100de89>] ? handle_irq+0x49/0xa0
    Jan 11 14:59:20 vega kernel: [<ffffffff814f1eac>] ? do_IRQ+0x6c/0xf0
    Jan 11 14:59:20 vega kernel: [<ffffffff8100b9d3>] ? ret_from_intr+0x0/0x11
    Jan 11 14:59:20 vega kernel: <EOI>  [<ffffffff81014707>] ? mwait_idle+0x77/0xd0
    Jan 11 14:59:20 vega kernel: [<ffffffff814ef7aa>] ? atomic_notifier_call_chain+0x1a/0x20
    Jan 11 14:59:20 vega kernel: [<ffffffff81009fc6>] ? cpu_idle+0xb6/0x110
    Jan 11 14:59:20 vega kernel: [<ffffffff814e32aa>] ? start_secondary+0x22a/0x26d
    Jan 11 14:59:20 vega kernel: handlers:
    Jan 11 14:59:20 vega kernel: [<ffffffff81396730>] (usb_hcd_irq+0x0/0x90)
    Jan 11 14:59:20 vega kernel: Disabling IRQ #16
    

     

    Но самый смак - как только приходит 10-20 Mbit трафика - %sy в top сразу возрастает до 80-90%,

    после чего все умирает, включая клавиатуру.

     

    Откаты igb 4.1.2 -> 3.4.8 -> 3.0.22 проблему не решили, irqpoll тоже, только возврат к предыдущей версии ядра.

     

    Вручную собрал 3.0.57 + igb 4.1.2 - полет нормальный.

     

    Вот такой вот хваленый Enterprise...

     

     

    Еще кто опытом может поделиться? :)

  6. Здравствуйте, коллеги

     

    Какую из актуальных ветку ядра посоветуете для задач NAT + ipt_netflow на одном сервере?

    Или кто какие использует?

     

    Сетевые карты - классика в виде Intel 82576 с 2-4 портами на борту.

     

    Задача - переваривать 2-4 Gb на одном сервере с x86_64 архитектурой.

     

    На данный момент на kernel.org имеем следующую картину:

    stable:   3.7.2
    mainline: 3.7
    stable:   3.6.11 (EOL)
    stable:   3.5.7 (EOL)
    stable:   3.4.25
    stable:   3.2.36
    stable:   3.0.58
    stable:   2.6.34.13
    stable:   2.6.32.60

     

    Спасибо

  7. Так проще PIM сделать, чем чудо-железки искать...

     

    Я не собираюсь их искать :)

    Мне интересны альтернативные решения от других производителей такой приятной фичи.

     

    А внедрение PIM может оказаться еще той прелестью, которая начинается с покупки IP Services на Cisco и т.д. (отдельная тема).

  8. А зачем это надо?

    Сокращение количества MAC-адресов в VLAN-е с мультикастом с кол-ва активных IGMP-абонентов до 1 на коммутатор агрегации.

     

    Т.е. если у вас в сети нет PIM и вы абонентам раздаете мультикаст в отдельном vlan'e (на доступе MVR или ISM) - в ядро сети придут все 100500 MAC-адресов ваших клиентов, как бы вы свою сеть не делили маршрутизаторами.

  9. Здравствуйте

    Встречал кто-то реализацию на коммутаторах Cisco и D-Link фичи igmp-snooping report-proxy, которая есть у Zyxel, в частности на XGS-4728F:

     

    Enables IGMP snooping report-proxy mode.

    In this mode, the Switch acts as an IGMP v1/v2 report proxy.

    The Switch not only checks IGMP packets between multicast routers/switches and multicast hosts to learn the

    multicast group membership, but also replaces the source MAC address in an IGMP v1/v2 report with its own MAC address before forwarding to the multicast router/switch.

    When the Switch receives more than one IGMP v1/v2 join reports that request to join the same multicast group, it only sends a new join report with its MAC address. This helps reduce the number of multicast join reports passed to the multicast router/switch.

     

    Спасибо

  10. Поделитесь опытом использования XGS-4728F на агрегации в качестве маршрутизатора внутреннего трафика между микрорайонами:

    - OSPF;

    - На XGS-4728F начинаются и заканчиваются 7-10 колец по 5-7 коммутаторов доступа в каждом (DES-3200-28);

    - 1 VLAN на одно кольцо;

    - MVR, IGMP snooping;

    - *STP.

     

    Смотрим также в сторону использования на одном узле агрегации CISCO WS-C3750G-24T-S + 2 х шасси TP-Link MC 1400 + N x TP-Link MC220L, но не нравится:

    1) Отсутствие 10GE-портов (про существование WS-C3560E-24TD-S знаем, но в 2 раза дороже WS-C3750G-24T-S);

    2) Наличие шасси с медиаконверторами;

    3) Большие размеры коммутатора 3750G - необходимо держать на агрегации большой шкаф/стойку.

     

    Заранее благодарен за ответы.

  11. Сейчас SFP модулей для циски навалом, аналоги продают на каждом шагу. Мы ставим вообще 40 километровые аналоги и не задумываемся. цена за пару примероно 5000 рублей. если интересно
    Можете привести модели (>=15 км), которые будут работать с 3750G "из коробки" и с которыми будет минимум проблем?

     

    Трассы, насколько я понимаю, важные, дополнительные точки отказа в виде конверторов совсем ни к чему.
    Намного ли ниже вероятность возникновения проблем при использовании SFP-"аналога" по сравнению с медиаконвертером?
  12. Читал описание этого NONAME чуда и радовался поднятию настроения: сверху пишут, что "на расстояние до 10 км", снизу страницы - "Distance: 10-20 KM".

    Не хочется такого счастья :)

     

    У кого-то были проблемы с:

    * D-Link DMC-1910T + DMC-1910R

    * Planet GT-706A15 + GT-706B15?

     

    Другие проверенные варианты медиаконвертеров без SFP?

  13. Рефлектограмма какое затухание показала ?
    Ответить не могу - перемонтажа еще не было.

     

    3. Воспользоваться медиаконверторами гигабитными, из недостатков - Гигабит по меди это немного меньше гигабита по оптике и дополнительное устройство- лишняя точка отказа.
    Но в текущей ситуации, получается, что самое предсказуемое.

     

    Кто какие медиаконвертеры посоветует (SMF, >=12 km)?

  14. Играет рольне столько расстояние, сколько затухание сигнала.

    Если оптика хорошего качества - то 10км SFP могут завестись и на 15-20 км.

    из личного опыта - SFP с маркировкой 20км работали на 24 км оптики.

    Насколько понимаю - заведется на 13 км или нет - как повезет, а в текущей ситуации это не приемлемо.

    Какое кто посоветует оборудование (SFP/медиаконвертеры), чтобы решить данную проблему?

  15. Здравствуйте, форумчане.

    Помогите решить следующую проблему.

     

    Есть 3 х Catalyst 3750G (12.2(25)SEE), которые между собой объединены при помощи:

    1-2: Cisco SFP 1000BaseLX <--> 1000BaseLX

    2-3: Cisco SFP 1000BaseBX10-U <--> 1000BaseBX10-D

     

    Тип кабеля - SMF. Расстояние между коммутаторами < 10 км.

     

    Возникла необходимость перенести центральный коммутатор (N2) так, что расстояние между ним и другими увеличится до 13 км.

     

    Собственно вопросы:

    1) Будут ли на 13 км работать Cisco SFP 1000BaseLX/1000BaseBX10-U/1000BaseBX10-D?

    2) Может лучше данные SFP заменить на другие (какие?) или медиаконвертеры (какие?)?

    3) Если на медиаконвертеры - кто что думает о D-Link DMC-1910T + DMC-1910R?

     

    P.S. На Cisco SFP 1000BASE-ZX денег нет.