Перейти к содержимому
Калькуляторы

lystor

Пользователи
  • Публикации

    20
  • Зарегистрирован

  • Посещение

О lystor

  • Звание
    Абитуриент
    Абитуриент

Информация

  • Пол
    Array

Город

  • Город
    Array
  1. У меня больше десятка XGS-4728F + 400BBC0C0 Уже два года на них нет ни одной новой прошивки. Делал официальный запрос по поводу прекращения поддержки данного коммутатора - ответили мол еще поддерживаем, но прошивок больше не выпускаем - не жди и не спрашивай больше - коммутатор 2007 года. А глюков хватает: 1) Не работает Storm Control (ARP/BPDU/IGMP protection), т.е. если в кольце частично подвисает домовой коммутатор (перестает пропускать BPDU) - трафик начинает летать по кругу и микрорайон умирает. Баг фиксят вот уже второй год... 2) Проблемы с SFP-модулями - пишет нет линка, удаленная сторона говорит - линк есть. Воспроизводится и на метровых патч-кордах. Или линк может упасть, а со временет сам подняться (касательно оптического бюджета все ОК). 3) Есть сгоревшие SFP-порты на коммутаторах, которым меньше 3 мес 4) Непонятные скачки загрузки по CPU до 100% длительностью 5-15 мин http://s21.postimage.org/7u4tqyv5j/zyxel_cpu.png 5) При откате с 4.0 до 3.90 теряет свой конфиг - не понимает новые параметры, которых не было в 3.90. Использую только LACP, RSTP, IGMP Snooping, несколько VLAN'ов, никакого L3, 10G нет. В общем потихоньку отказываюсь в пользу D-Link.
  2. Работает у вас на четырех - см. счетчики "search found new, trunc frag alloc maxflows". Отправка идет с двух - см. sock. У меня же есть ядра, счетчики "search found new, trunc frag alloc maxflows" которых нулевые.
  3. Картина с восьмиядерника: # cat /proc/net/stat/ipt_netflow Flows: active 60 (peak 635 reached 1d19h31m ago), mem 5K Hash: size 8192 (mem 64K), metric 1.0, 1.0, 1.0, 1.0. MemTraf: 19744 pkt, 1218 K (pdu 0, 0). Timeout: active 1800, inactive 15. Maxflows 2000000 Rate: 265192 bits/sec, 56 packets/sec; Avg 1 min: 87691 bps, 64 pps; 5 min: 50326 bps, 39 pps cpu# stat: <search found new, trunc frag alloc maxflows>, sock: <ok fail cberr, bytes>, traffic: <pkt, bytes>, drop: <pkt, bytes> Total stat: 261719 24575622 1340387, 0 0 0 0, sock: 47441 0 0, 63939 K, traffic: 25916009, 17787 MB, drop: 0, 0 K cpu0 stat: 2 1094 106, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 1200, 0 MB, drop: 0, 0 K cpu1 stat: 0 882 113, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 995, 0 MB, drop: 0, 0 K cpu2 stat: 0 869 41, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 910, 0 MB, drop: 0, 0 K cpu3 stat: 0 18 4, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 22, 0 MB, drop: 0, 0 K cpu4 stat: 163448 17399148 687284, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 18086432, 14895 MB, drop: 0, 0 K cpu5 stat: 96216 7132114 646863, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 7778977, 2864 MB, drop: 0, 0 K cpu6 stat: 2053 41483 5973, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 47456, 26 MB, drop: 0, 0 K cpu7 stat: 0 14 3, 0 0 0 0, sock: 47441 0 0, 63939 K, traffic: 17, 0 MB, drop: 0, 0 K sock0: 194.44.18.65:2055, sndbuf 229376, filled 1, peak 11521; err: sndbuf reached 0, other 0 aggr#0 port: ports 0-65535 replace 0
  4. Здравствуйте Решил поиграться с ipt_netflow. Собрал ipt_netflow 1.8 Ядро 3.4.25 RHEL 6.3 x86_64 Параметры модуля: modprobe -v ipt_NETFLOW hashsize=131072 destination=194.44.18.65:2055 aggregation=0-65535=0 Сервер древний: 2 процессора x Intel® Xeon CPU 3.20GHz на SE7520 # grep processor /proc/cpuinfo processor : 0 processor : 1 # cat /proc/net/stat/ipt_netflow Flows: active 8043 (peak 10664 reached 0d0h19m ago), mem 691K Hash: size 131072 (mem 1024K), metric 1.0, 1.0, 1.0, 1.0. MemTraf: 5908992 pkt, 2595141 K (pdu 1, 129). Timeout: active 1800, inactive 15. Maxflows 2000000 Rate: 40217618 bits/sec, 13761 packets/sec; Avg 1 min: 39543584 bps, 13404 pps; 5 min: 40476023 bps, 12628 pps cpu# stat: <search found new, trunc frag alloc maxflows>, sock: <ok fail cberr, bytes>, traffic: <pkt, bytes>, drop: <pkt, bytes> Total stat: 8846003 86182139 4032004, 0 0 0 0, sock: 134132 0 0, 191766 K, traffic: 90214143, 36858 MB, drop: 0, 0 K cpu0 stat: 0 0 0, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 0, 0 MB, drop: 0, 0 K cpu1 stat: 8846003 86182139 4032004, 0 0 0 0, sock: 134132 0 0, 191766 K, traffic: 90214143, 36858 MB, drop: 0, 0 K sock0: 194.44.18.65:2055, sndbuf 212992, filled 1, peak 18433; err: sndbuf reached 0, other 0 aggr#0 port: ports 0-65535 replace 0 Как сделать, чтобы ipt_netflow работал на обоих cpu, а не только на cpu1? Спасибо
  5. Спасибо Сегодня тоже феерический баг словил: RHEL 6.3 x86_64 Старый сервер на SE7520 под нагрузкой до гигабита (только NAT). Решил обновить kernel 2.6.32-131.0.15.el6 + igb 3.0.22 до 2.6.32-279.19.1.el6 + igb 4.1.2. После ребута сразу же получил: Jan 11 14:59:20 vega kernel: irq 16: nobody cared (try booting with the "irqpoll" option) Jan 11 14:59:20 vega kernel: Pid: 0, comm: swapper Not tainted 2.6.32-279.19.1.el6.x86_64 #1 Jan 11 14:59:20 vega kernel: Call Trace: Jan 11 14:59:20 vega kernel: <IRQ> [<ffffffff810daa5b>] ? __report_bad_irq+0x2b/0xa0 Jan 11 14:59:20 vega kernel: [<ffffffff810dac5c>] ? note_interrupt+0x18c/0x1d0 Jan 11 14:59:20 vega kernel: [<ffffffff810db37d>] ? handle_fasteoi_irq+0xcd/0xf0 Jan 11 14:59:20 vega kernel: [<ffffffff8100de89>] ? handle_irq+0x49/0xa0 Jan 11 14:59:20 vega kernel: [<ffffffff814f1eac>] ? do_IRQ+0x6c/0xf0 Jan 11 14:59:20 vega kernel: [<ffffffff8100b9d3>] ? ret_from_intr+0x0/0x11 Jan 11 14:59:20 vega kernel: <EOI> [<ffffffff81014707>] ? mwait_idle+0x77/0xd0 Jan 11 14:59:20 vega kernel: [<ffffffff814ef7aa>] ? atomic_notifier_call_chain+0x1a/0x20 Jan 11 14:59:20 vega kernel: [<ffffffff81009fc6>] ? cpu_idle+0xb6/0x110 Jan 11 14:59:20 vega kernel: [<ffffffff814e32aa>] ? start_secondary+0x22a/0x26d Jan 11 14:59:20 vega kernel: handlers: Jan 11 14:59:20 vega kernel: [<ffffffff81396730>] (usb_hcd_irq+0x0/0x90) Jan 11 14:59:20 vega kernel: Disabling IRQ #16 Но самый смак - как только приходит 10-20 Mbit трафика - %sy в top сразу возрастает до 80-90%, после чего все умирает, включая клавиатуру. Откаты igb 4.1.2 -> 3.4.8 -> 3.0.22 проблему не решили, irqpoll тоже, только возврат к предыдущей версии ядра. Вручную собрал 3.0.57 + igb 4.1.2 - полет нормальный. Вот такой вот хваленый Enterprise... Еще кто опытом может поделиться? :)
  6. Здравствуйте, коллеги Какую из актуальных ветку ядра посоветуете для задач NAT + ipt_netflow на одном сервере? Или кто какие использует? Сетевые карты - классика в виде Intel 82576 с 2-4 портами на борту. Задача - переваривать 2-4 Gb на одном сервере с x86_64 архитектурой. На данный момент на kernel.org имеем следующую картину: stable: 3.7.2 mainline: 3.7 stable: 3.6.11 (EOL) stable: 3.5.7 (EOL) stable: 3.4.25 stable: 3.2.36 stable: 3.0.58 stable: 2.6.34.13 stable: 2.6.32.60 Спасибо
  7. Я не собираюсь их искать :) Мне интересны альтернативные решения от других производителей такой приятной фичи. А внедрение PIM может оказаться еще той прелестью, которая начинается с покупки IP Services на Cisco и т.д. (отдельная тема).
  8. Сокращение количества MAC-адресов в VLAN-е с мультикастом с кол-ва активных IGMP-абонентов до 1 на коммутатор агрегации. Т.е. если у вас в сети нет PIM и вы абонентам раздаете мультикаст в отдельном vlan'e (на доступе MVR или ISM) - в ядро сети придут все 100500 MAC-адресов ваших клиентов, как бы вы свою сеть не делили маршрутизаторами.
  9. Здравствуйте Встречал кто-то реализацию на коммутаторах Cisco и D-Link фичи igmp-snooping report-proxy, которая есть у Zyxel, в частности на XGS-4728F: Enables IGMP snooping report-proxy mode. In this mode, the Switch acts as an IGMP v1/v2 report proxy. The Switch not only checks IGMP packets between multicast routers/switches and multicast hosts to learn the multicast group membership, but also replaces the source MAC address in an IGMP v1/v2 report with its own MAC address before forwarding to the multicast router/switch. When the Switch receives more than one IGMP v1/v2 join reports that request to join the same multicast group, it only sends a new join report with its MAC address. This helps reduce the number of multicast join reports passed to the multicast router/switch. Спасибо
  10. Хотелось бы собрать как можно больше фактов.Найденные отзывы: 1) Проблема с "8K IP address table";
  11. Поделитесь опытом использования XGS-4728F на агрегации в качестве маршрутизатора внутреннего трафика между микрорайонами: - OSPF; - На XGS-4728F начинаются и заканчиваются 7-10 колец по 5-7 коммутаторов доступа в каждом (DES-3200-28); - 1 VLAN на одно кольцо; - MVR, IGMP snooping; - *STP. Смотрим также в сторону использования на одном узле агрегации CISCO WS-C3750G-24T-S + 2 х шасси TP-Link MC 1400 + N x TP-Link MC220L, но не нравится: 1) Отсутствие 10GE-портов (про существование WS-C3560E-24TD-S знаем, но в 2 раза дороже WS-C3750G-24T-S); 2) Наличие шасси с медиаконверторами; 3) Большие размеры коммутатора 3750G - необходимо держать на агрегации большой шкаф/стойку. Заранее благодарен за ответы.