Перейти к содержимому
Калькуляторы

dbask

Пользователи
  • Публикации

    44
  • Зарегистрирован

  • Посещение

Сообщения, опубликованные пользователем dbask


  1. Интересует вариант продажи нам 1 или 2 волокон в вашем кабеле , между муфтами  ближайшими к точкам:

    Точка А:   

    а) пересечение Монтажной ул и 2-й Иртышский пр-д

    либо

    б) Щелковское ш. 25/15

    Точка Б:

    ул. Уральская 19А


    предложения в личку

  2. Все верно, речь идет про окна в бизнес центрах.

    Спасибо за совет насчет установки в глубине, хотел бы также уточнить какая частота работы wifi моста будет предпочтительнее? 900Mhz, 5GHz, 9Ghz ?

  3. Подскажите плиз,

     

    у кого был успешный опыт создания мостов через окна, тонированные металлизированной пленкой (зеркальной),

    с сохранением приличных скоростей и CCQ ( скорости в районе 50 Мбит/с ), расстояние между направленными антеннами до 1км

     

    какие WiFi частоты для такого решения будут предпочтительнее ?

    может посоветуете конкретные железки?

     

    Спасибо

  4. есть такой параметр в линуховом шейпере tc как ceil, скорее всего это то что вам нужно, например:

    для канала 100мбит, и тарифа для юзера 10мбит:

     

    tc class add dev eth1 parent 1:1 classid 1:<hex_mark> htb rate 10Mbit ceil 100Mbit

     

    т.е. если в корневом классе достаточно свободного места, то ваш клиент спокойно разгонится до 100мбит.

  5. Debian Wheezy

    3.10-0.bpo.3-amd64

    карточка intel X520-SR2, прерывания размазаны скриптом от интела по всем 8-ми ядрам.

     

    ipt_NETFLOW version 1.8.2, srcversion (null)

    грузит только первое ядро (cpu0)

     

    /proc/net/stat/ipt_netflow:

     

    ipt_NETFLOW version 1.8.2, srcversion (null)

    Flows: active 327533 (peak 1178709 reached 2d16h43m ago), mem 53735K, worker delay 1/250.

    Hash: size 524288 (mem 4096K), metric 1.42 [1.44, 1.16, 1.03]. MemTraf: 19161684 pkt, 17238795 K (pdu 48, 47649), Out 30034547390 pkt, 24896689407 K.

    Rate: 489339720 bits/sec, 75486 packets/sec; Avg 1 min: 472520586 bps, 72822 pps; 5 min: 460807637 bps, 71605 pps

    cpu# stat: <search found new [metric], trunc frag alloc maxflows>, sock: <ok fail cberr, bytes>, traffic: <pkt, bytes>, drop: <pkt, bytes>

    Total stat: 19605053757 23486762313 6566946713 [11.59], 0 0 0 0, sock: 218887377 0 0, 312940446 K, traffic: 30053709026, 24330007 MB, drop: 0, 0 K

    cpu0 stat: 2496200913 2952199008 849595899 [1.65], 0 0 0 0, sock: 218887377 0 0, 312940446 K, traffic: 3801794907, 3076173 MB, drop: 0, 0 K

    cpu1 stat: 2415899797 2928473121 829408822 [1.64], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3757881943, 3032303 MB, drop: 0, 0 K

    cpu2 stat: 2413877706 2918697890 814463593 [1.64], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3733161483, 3018178 MB, drop: 0, 0 K

    cpu3 stat: 2461515881 2901849434 819947835 [1.66], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3721797269, 2990040 MB, drop: 0, 0 K

    cpu4 stat: 2437185372 2993352732 801223189 [1.64], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3794575921, 3127805 MB, drop: 0, 0 K

    cpu5 stat: 2490411986 2928841432 820856206 [1.66], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3749697638, 2998402 MB, drop: 0, 0 K

    cpu6 stat: 2437960882 2942345144 825775525 [1.64], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3768120669, 3073674 MB, drop: 0, 0 K

    cpu7 stat: 2452001220 2921003552 805675644 [1.65], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3726679196, 3013429 MB, drop: 0, 0 K

    Protocol version 5 (netflow). Timeouts: active 1800, inactive 15. Maxflows 20000000

    Natevents disabled, count start 0, stop 0.

    sock0: 172.21.21.2:8819, sndbuf 245760, filled 1, peak 64513; err: sndbuf reached 0, connect 0, other 0

     

    можно ли заставить этот модуль параллелиться по всем 8-ми ядрам?

     

     

    спасибо

  6. вопрос: что может мешать росту нат-сессии при достижении отметки в 980 тыс?, и при этом грузить процы?

    сам себе на вопрос отвечаю

     

    мешает росту нат сессий - такой параметр как net.netfilter.nf_conntrack_udp_timeout = 30 (относится к случаю генерации пакетов pktgen'ом),

    проц грузиться начинает, как только коннтреки начинают обновляться в памяти

     

    ставим net.netfilter.nf_conntrack_udp_timeout = 40 - кол-во сессий ползет вверх, только на 32-х битном ядре 3.10 даже с PAE - вылеты и зависоны с ошибкой памяти (~при кол-ве контреков 1.1млн)

     

    поставил ядро 3.10-0.bpo.3-amd64 - вылетов и зависонов нет даже при 4 млн коннтреков, полет нормальный

     

    осталось только скомпилировать HDMARK под 3.10 amd64 :)

  7. Привет!

     

    Собираю 10G роутер по рекомендациям разработчика ядра HDMARK:

    Debian 7,ядро 3.10-0.bpo.3-686-pae #1 SMP Debian 3.10.11-1~bpo70+1 (2013-09-24) i686 GNU/Linux

    чипсет Intel Corporation S5520UR, проц Xeon E5630

    сетевка X520-SR2, E10G42BFSR. дрова ixgbe 3.18.7

    прерывания прибил к ядрам с пом. скрипта от драйверов сетевки интел

    tso, lro отключены.

     

    задачи роутера: полисинг (ipset), шейпинг (HDMARK), nat (conntrack ), ipt_NETFLOW

     

     

    с натом есть некоторые странности:

    установки:

    net.nf_conntrack_max = 8388608

    net.netfilter.nf_conntrack_buckets = 2097152

     

     

    начинаю грузить роутер udp пакетиками (pktgen ~ 330kpps/s)

     

    --pkt/eth2- --pkt/eth3- -pkt/total- --net/eth2- --net/eth3- -net/total- ----total-cpu-usage----

    #recv #send:#recv #send:#recv #send| recv send: recv send: recv send|usr sys idl wai hiq siq

    2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 95 0 0 5

    1.00 328k: 329k 0 : 329k 328k| 70B 20M: 19M 0 : 19M 20M| 0 0 95 0 0 4

    2.00 328k: 329k 0 : 329k 329k| 140B 20M: 19M 0 : 19M 20M| 0 0 95 0 0 4

    2.00 328k: 329k 0 : 330k 329k| 140B 20M: 19M 0 : 20M 20M| 6 0 86 0 0 6

    2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 95 0 0 4

    2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 1 95 0 0 4

    2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 1 95 0 0 4

    2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 82 0 0 18

    2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 83 0 0 16

    2.00 328k: 329k 0 : 330k 329k| 140B 20M: 19M 0 : 21M 20M| 4 0 69 1 0 26

    2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 73 1 0 25

    2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 75 0 0 25

    2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 75 0 0 25

    2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 77 0 0 22

    2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 79 0 0 20

    2.00 328k: 329k 0 : 330k 329k| 140B 20M: 19M 0 : 21M 20M| 3 1 73 0 0 23

    2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 2 0 70 2 0 26

     

    где то при достижении данного количества коннтреков:

    net.netfilter.nf_conntrack_count = 981373

     

    (загрузку ЦПУ в этот момент выделил жирным.)

    CPU по всем 8-ми ядрам (HT не отключал) подскакивает до 25-30%, при этом количество коннтрек-сессий перестает расти! и плавает на отметке 980-990k

     

     

    вопрос: что может мешать росту нат-сессии при достижении отметки в 980 тыс?, и при этом грузить процы?

     

    спасибо.

  8. Продаю Fujikura FSM-17s

    в комплекте идут:

     

    - скалыватель fujikura ct-30a

    - защитный кейс

    - кабель питания

     

    Питание от 220В, Аккумулятор в комплект не входит.

     

    Пробег ~ 11600 сварок.

     

    Электроды новые, недавно прошел полное сервисное ТО.

     

    хочу за него 80к руб

    post-60443-055404100 1382033764_thumb.jpg

    post-60443-026074600 1382033771_thumb.jpg

    post-60443-005217000 1382033893_thumb.jpg

  9. Посоветуйте надежный WiFi роутер 802.11n под тарифы 50-80 мбит, а также для стабильной работы HDTV с WIFI сеттопбоксами (например DUNE) по UDP Multicast (мкаст поток до 10мбит/с)

     

    наелись проблем с длинками 300,615, тплинками 841,941 ( у последних зависоны после ~30 мин работы при AES шифровании)

     

    верхняя ценовая планка 2000руб

  10. аналогично, от Роскомнадзора поступило письмо с просьбой заблокировать доступ пользователей к Интернет-ресурсам, на которых размещен видеофильм "Невинность мусульман".

     

    Я не знаю всех ресурсов где размещен этот фильм, да и нереально это знать.

    Думаю логичнее давать распоряжение в адрес администрации ресурсов о блокировке/удалении фильм, а не провайдерам.

    Вынуждают перекрывать кислород нашим абонентам?

     

    Кому еще пришло данное письмо?, Ваше мнение?

     

     

    P.S. Куда катится мир?

  11. имеем Catalyst 3560G на ядре сети (OSPF, PIM, MSDP и тд тп) (C3560-ADVIPSERVICESK9-M), Version 12.2(44)SE1, RELEASE SOFTWARE (fc1))

    неожиданно перестал отвечать на пинг запросы, предварительно посыпались сообщения в syslog:

     

    Aug 30 16:19:18 10.16.0.7 5761: Aug 30 16:16:04.486: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.10.2 on Vlan460 from FULL to DOWN, Neighbor Down: Dead timer expi

    Aug 30 16:19:18 10.16.0.7 5762: Aug 30 16:16:04.528: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.6.2 on Vlan506 from FULL to DOWN, Neighbor Down: Dead timer expir

    Aug 30 16:19:19 10.16.0.7 5763: Aug 30 16:16:05.577: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.36.2 on Vlan335 from 2WAY to DOWN, Neighbor Down: Dead timer expi

    Aug 30 16:19:19 10.16.0.7 5764: Aug 30 16:16:06.583: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.35.18 on Vlan345 from FULL to DOWN, Neighbor Down: Dead timer exp

    Aug 30 16:19:19 10.16.0.7 5765: Aug 30 16:16:06.583: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.35.18 on Vlan335 from 2WAY to DOWN, Neighbor Down: Dead timer exp

    Aug 30 16:19:20 10.16.0.7 5766: Aug 30 16:16:06.835: %OSPF-5-ADJCHG: Process 1, Nbr 10.16.0.5 on Vlan505 from FULL to DOWN, Neighbor Down: Dead timer expir

    Aug 30 16:19:20 10.16.0.7 5767: Aug 30 16:16:07.548: %OSPF-5-ADJCHG: Process 1, Nbr 10.16.20.2 on Vlan462 from FULL to DOWN, Neighbor Down: Dead timer expi

    Aug 30 16:19:20 10.16.0.7 5768: Aug 30 16:16:07.850: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.35.2 on Vlan335 from 2WAY to DOWN, Neighbor Down: Dead timer expi

    Aug 30 16:19:22 10.16.0.7 5769: Aug 30 16:16:08.530: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.6.2 on Vlan446 from FULL to DOWN, Neighbor Down: Dead timer expir

    Aug 30 16:19:39 10.16.0.7 5770: Aug 30 16:16:25.651: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.36.2 on Vlan350 from FULL to DOWN, Neighbor Down: Dead timer expi

    Aug 30 16:20:03 10.16.0.7 5771: Aug 30 16:16:49.835: %PIM-5-NBRCHG: neighbor 10.15.4.2 DOWN on interface Vlan443 DR

    Aug 30 16:20:03 10.16.0.7 5772: Aug 30 16:16:49.835: %PIM-5-DRCHG: DR change from neighbor 10.15.4.2 to 10.15.4.1 on interface Vlan443

    Aug 30 16:20:05 10.16.0.7 5773: Aug 30 16:16:51.991: %PIM-5-NBRCHG: neighbor 10.15.6.2 DOWN on interface Vlan446 DR

    Aug 30 16:20:05 10.16.0.7 5774: Aug 30 16:16:51.991: %PIM-5-DRCHG: DR change from neighbor 10.15.6.2 to 10.15.6.1 on interface Vlan446

    Aug 30 16:20:05 10.16.0.7 5775: Aug 30 16:16:52.008: %PIM-5-NBRCHG: neighbor 10.15.11.2 DOWN on interface Vlan702 DR

    Aug 30 16:20:05 10.16.0.7 5776: Aug 30 16:16:52.008: %PIM-5-DRCHG: DR change from neighbor 10.15.11.2 to 10.15.11.1 on interface Vlan702

    Aug 30 16:20:09 10.16.0.7 5777: Aug 30 16:16:56.093: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.4.5 on Vlan514 from FULL to DOWN, Neighbor Down: Dead timer expir

    Aug 30 16:20:12 10.16.0.7 5778: Aug 30 16:16:58.828: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.35.18 on Vlan356 from FULL to DOWN, Neighbor Down: Dead timer exp

    Aug 30 16:20:12 10.16.0.7 5779: Aug 30 16:16:58.995: %PIM-5-NBRCHG: neighbor 10.15.5.2 DOWN on interface Vlan445 DR

    Aug 30 16:20:12 10.16.0.7 5780: Aug 30 16:16:58.995: %PIM-5-DRCHG: DR change from neighbor 10.15.5.2 to 10.15.5.1 on interface Vlan445

    Aug 30 16:20:16 10.16.0.7 5781: Aug 30 16:17:02.460: %PIM-5-NBRCHG: neighbor x.x.x.x DOWN on interface Vlan597 non DR

    Aug 30 16:20:16 10.16.0.7 5782: Aug 30 16:17:02.779: %PIM-5-NBRCHG: neighbor 10.15.36.26 DOWN on interface Vlan356 DR

    Aug 30 16:20:16 10.16.0.7 5783: Aug 30 16:17:02.779: %PIM-5-DRCHG: DR change from neighbor 10.15.36.26 to 10.15.36.25 on interface Vlan356

    Aug 30 16:20:17 10.16.0.7 5784: Aug 30 16:17:04.113: %PIM-5-NBRCHG: neighbor 10.15.9.2 DOWN on interface Vlan449 DR

    Aug 30 16:20:17 10.16.0.7 5785: Aug 30 16:17:04.113: %PIM-5-DRCHG: DR change from neighbor 10.15.9.2 to 10.15.9.1 on interface Vlan449

    Aug 30 16:20:17 10.16.0.7 5786: Aug 30 16:17:05.010: %PIM-5-NBRCHG: neighbor 10.15.7.2 DOWN on interface Vlan447 DR

    Aug 30 16:20:17 10.16.0.7 5787: Aug 30 16:17:05.010: %PIM-5-DRCHG: DR change from neighbor 10.15.7.2 to 10.15.7.1 on interface Vlan447

    Aug 30 16:20:22 10.16.0.7 5788: Aug 30 16:17:09.162: %PIM-5-NBRCHG: neighbor 10.15.8.2 DOWN on interface Vlan448 DR

    Aug 30 16:20:22 10.16.0.7 5789: Aug 30 16:17:09.162: %PIM-5-DRCHG: DR change from neighbor 10.15.8.2 to 10.15.8.1 on interface Vlan448

    Aug 30 16:20:22 10.16.0.7 5790: Aug 30 16:17:09.590: %PIM-5-NBRCHG: neighbor 10.15.36.2 DOWN on interface Vlan350 DR

     

    L3, L2 функции стали недоступны

     

    после ребута по питанию не грузился (моргала лампа SYST), после второго ребута - загрузился проработал 3 минуты и опять стал сбрасывать OSPF, PIM сессии.

     

    цепляю консоль: в логах ничего другого кроме neighbor down нету, делаю reload вижу следующее:

     

    Reload command.

    Base ethernet MAC Address: 00:1f:26:fc:c4:00

    Xmodem file system is available.

    The password-recovery mechanism is enabled.

    Initializing Flash...

    flashfs[0]: 458 files, 6 directories

    flashfs[0]: 0 orphaned files, 0 orphaned directories

    flashfs[0]: Total bytes: 32514048

    flashfs[0]: Bytes used: 19496448

    flashfs[0]: Bytes available: 13017600

    flashfs[0]: flashfs fsck took 8 seconds.

    ...done Initializing Flash.

     

    Boot Sector Filesystem (bs) installed, fsid: 3

    done.

    Loading "c3560-advipservicesk9-mz.122-44.SE1.bin"...c3560-advipservicesk9-mz.122-44.SE1.bin: no such device

     

    Error loading "c3560-advipservicesk9-mz.122-44.SE1.bin"

     

    Interrupt within 5 seconds to abort boot process.

    Loading "flash:/c3560-advipservicesk9-mz.122-44.SE1.bin"...@@@@@@@@@@@@@@@@@@@@@@@@

     

    с 3-го ребута, все нормально загрузилось и заработало. тьфу тьфу тьфу.

     

     

    понимаю что поздно цепанул консоль, поспешил с ребутом.

     

    но может есть идеи о причинах такой аварии?

     

    P.S.

     

    Проработал без ребута 2-3 года.

  12. Собираюсь попробовать LEAF 4.2 в качестве NAS (нато-шейпера)

     

    Интересует производительность..

    Прожует ли 1Gbit Fullduplex, 300+ kpps (суммарно), 2k абонентов в час пик (4000 правил в tc и тд) на 82576 4-х портовке и Core2Quad 9550 2.83Ghz ?

  13. vurd

    софт реконфиг отключен только на одного аплинка (который вовремя на давал только default)

    на втором аплинке (две параллельные BGP сессии - софт реконфиг включен, но там точно прилетает только default)

  14. Привет!

     

    хелп плиз!

     

    Вчера кончилась вся память на каталисте 3560G, выполняющая роль BGP роутера (на дефаултах):

     

    Sep 22 23:00:45 1.1.1.1 182: Sep 22 23:14:24: %SYS-2-MALLOCFAIL: Memory allocation of 65536 bytes failed from 0x1457418, alignme

    Sep 22 23:00:45 1.1.1.1 183: Pool: Processor Free: 40232 Cause: Not enough free memory

    Sep 22 23:00:45 1.1.1.1 184: Alternate Pool: None Free: 0 Cause: No Alternate pool

    Sep 22 23:00:45 1.1.1.1 185: -Process= "BGP I/O", ipl= 0, pid= 81

    Sep 22 23:00:45 1.1.1.1 186: -Traceback= C56458 C56B6C 14285A8 142CCA0 145741C A62C8C A2F298 A33274 A34584 A34A00 90AB90 901858

    Sep 22 23:00:45 1.1.1.1 187: Sep 22 23:14:24: %BGP-5-ADJCHANGE: neighbor A Down No memory

    Sep 22 23:00:45 1.1.1.1 188: Sep 22 23:14:24: %BGP-5-ADJCHANGE: neighbor B Down No memory

    Sep 22 23:00:45 1.1.1.1 189: Sep 22 23:14:24: %BGP-5-ADJCHANGE: neighbor C Down No memory

    Sep 22 23:00:45 1.1.1.1 190: Sep 22 23:14:24: %BGP-5-ADJCHANGE: neighbor D Down No memory

    Sep 22 23:00:45 1.1.1.1 191: Sep 22 23:14:24: %BGP-5-ADJCHANGE: neighbor E Down No memory

     

    помогла только перезагрузка

     

    ИОС: Cisco IOS Software, C3560 Software (C3560-ADVIPSERVICESK9-M), Version 12.2(44)SE1, RELEASE SOFTWARE (fc1)

     

    вот как расходуется память:

    sh mem free: free 55217200

    через 10 сек: free 55215612

     

     

    #sh proc memory sorted allocated

    Processor Pool Total: 84504788 Used: 29278836 Free: 55225952

    I/O Pool Total: 8380416 Used: 3597620 Free: 4782796

    Driver te Pool Total: 1048576 Used: 40 Free: 1048536

     

    PID TTY Allocated Freed Holding Getbufs Retbufs Process

    124 0 341633480 340093480 24996 0 0 HQM Stack Proces

    280 0 244807052 385958268 12924 0 0 SNMP ENGINE

    125 0 177024056 177024056 60924 0 0 HRPC qos request

    278 0 173528644 173527728 13840 0 0 IP SNMP

    279 0 141151216 0 12924 0 0 PDU DISPATCHER

    0 0 82635168 80210616 4128108 5369644 2002472 *Dead*

    0 0 38102352 13532380 22025304 0 0 *Init*

    50 0 24234364 34915784 6924 0 0 RedEarth Tx Mana

    222 0 21231976 0 6924 0 0 MDFS RP process

    81 0 18911276 65580 9924 0 0 BGP I/O

    242 0 13698856 19163740 342216 0 0 BGP Router

    116 0 10455132 180 6924 0 0 Hulc LED Process

    194 0 9978964 15652 16532 0 0 TCP Protocols

     

    каковы могут быть причины утечки памяти, и чем можно это вылечить? может обновить ios?

    (посоветовали ребутнуться с иосом c3560-advipservicesk9-mz.122-46.SE.bin)

     

    есть еще идеи?

     

     

    спасибо.

  15. Добрый вечер!

     

    имеем катал 3560G, подключенных к двум апстримам (PRI и BACKUP) - разделяем исходящий траф по localpref

    по бекап-апстриму садимся на бекап-коммьюнити.

     

    с PRI апстримом договорился чтобы анонсировали мне только дефолт, с BACKUP - не успел (так и кидает FV), но нужно уже срочно каталист поставить на узел.

     

    Вопрос, можно ли както срезать FV от бекапа, чтобы не забивало память каталисту?

    чтобы по команде

    "sh ip bgp neighbors <BACKUP> received-routes" показывался только дефолт, не смотря на то что мне кидают FV ?

     

    p.s.

     

    срезаю входящий FV до дефаулта (ip prefix-list default seq 10 permit 0.0.0.0/0 le 1) - не помогает разгрузить память по BGP RIB

  16. как это не печально звучит, но этот потолок в 800мбит вход и 800мбит исход трафик (суммарно 1,6Гбит) продолжает меня преследовать даже с бондингом :((

     

     

    при этом заняты все 4 порта сетевой карты

     

     

    на апстрим - бондинг (eth2, eth4) (ограничение у апстрима исключено)

    в локалку - eth3 (на два ната смотрит), eth5 (на 3-й нат)

     

     

    PerfTop: 2123 irqs/sec kernel:99.6% [1000Hz cycles], (all, 4 CPUs)

    ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------

     

    samples pcnt function DSO

    _______ _____ ________________________________ ________________________________________________________________

     

    1216.00 16.0% ip_route_input_common /lib/modules/2.6.36-zebra3/build/vmlinux

    833.00 10.9% igb_poll /lib/modules/2.6.36-zebra3/kernel/drivers/net/igb/igb.ko

    829.00 10.9% acpi_idle_enter_simple /lib/modules/2.6.36-zebra3/build/vmlinux

    314.00 4.1% read_hpet /lib/modules/2.6.36-zebra3/build/vmlinux

    312.00 4.1% igb_xmit_frame_ring /lib/modules/2.6.36-zebra3/kernel/drivers/net/igb/igb.ko

    278.00 3.7% _raw_spin_lock /lib/modules/2.6.36-zebra3/build/vmlinux

    251.00 3.3% __kmalloc_node_track_caller /lib/modules/2.6.36-zebra3/build/vmlinux

    205.00 2.7% __alloc_skb /lib/modules/2.6.36-zebra3/build/vmlinux

    198.00 2.6% dev_queue_xmit /lib/modules/2.6.36-zebra3/build/vmlinux

    197.00 2.6% kmem_cache_alloc_node /lib/modules/2.6.36-zebra3/build/vmlinux

    178.00 2.3% kfree /lib/modules/2.6.36-zebra3/build/vmlinux

    165.00 2.2% ip_forward /lib/modules/2.6.36-zebra3/build/vmlinux

    127.00 1.7% dev_hard_start_xmit /lib/modules/2.6.36-zebra3/build/vmlinux

    114.00 1.5% kmem_cache_free /lib/modules/2.6.36-zebra3/build/vmlinux

    113.00 1.5% __slab_free /lib/modules/2.6.36-zebra3/build/vmlinux

    94.00 1.2% irq_entries_start /lib/modules/2.6.36-zebra3/build/vmlinux

    93.00 1.2% eth_type_trans /lib/modules/2.6.36-zebra3/build/vmlinux

    85.00 1.1% ip_rcv /lib/modules/2.6.36-zebra3/build/vmlinux

    78.00 1.0% ip_finish_output /lib/modules/2.6.36-zebra3/build/vmlinux

    75.00 1.0% skb_put /lib/modules/2.6.36-zebra3/build/vmlinux

    69.00 0.9% acpi_safe_halt /lib/modules/2.6.36-zebra3/build/vmlinux

    64.00 0.8% get_partial_node /lib/modules/2.6.36-zebra3/build/vmlinux

    63.00 0.8% igb_alloc_rx_buffers /lib/modules/2.6.36-zebra3/kernel/drivers/net/igb/igb.ko

    63.00 0.8% __slab_alloc /lib/modules/2.6.36-zebra3/build/vmlinux

    54.00 0.7% __netif_receive_skb /lib/modules/2.6.36-zebra3/build/vmlinux

    53.00 0.7% rt_intern_hash /lib/modules/2.6.36-zebra3/build/vmlinux

    53.00 0.7% local_bh_enable /lib/modules/2.6.36-zebra3/build/vmlinux

    50.00 0.7% __phys_addr /lib/modules/2.6.36-zebra3/build/vmlinux

    49.00 0.6% _kc_netdev_alloc_skb_ip_align /lib/modules/2.6.36-zebra3/kernel/drivers/net/igb/igb.ko

    48.00 0.6% bond_3ad_xmit_xor /lib/modules/2.6.36-zebra3/kernel/drivers/net/bonding/bonding.ko

    40.00 0.5% nommu_map_page /lib/modules/2.6.36-zebra3/build/vmlinux

    39.00 0.5% skb_release_data /lib/modules/2.6.36-zebra3/build/vmlinux

    38.00 0.5% put_page /lib/modules/2.6.36-zebra3/build/vmlinux

    38.00 0.5% skb_release_head_state /lib/modules/2.6.36-zebra3/build/vmlinux

    37.00 0.5% __memset /lib/modules/2.6.36-zebra3/build/vmlinux

    37.00 0.5% fib_table_lookup /lib/modules/2.6.36-zebra3/build/vmlinux

    35.00 0.5% igb_unmap_and_free_tx_resource /lib/modules/2.6.36-zebra3/kernel/drivers/net/igb/igb.ko

    34.00 0.4% sch_direct_xmit /lib/modules/2.6.36-zebra3/build/vmlinux

    30.00 0.4% vlan_dev_hwaccel_hard_start_xmit /lib/modules/2.6.36-zebra3/kernel/net/8021q/8021q.ko

    30.00 0.4% vlan_gro_common /lib/modules/2.6.36-zebra3/build/vmlinux

    28.00 0.4% __napi_complete /lib/modules/2.6.36-zebra3/build/vmlinux

    26.00 0.3% vlan_gro_receive /lib/modules/2.6.36-zebra3/build/vmlinux

    25.00 0.3% check_addr /lib/modules/2.6.36-zebra3/build/vmlinux

    24.00 0.3% bond_xmit_hash_policy_l34 /lib/modules/2.6.36-zebra3/kernel/drivers/net/bonding/bonding.ko

    23.00 0.3% __do_softirq /lib/modules/2.6.36-zebra3/build/vmlinux

    22.00 0.3% dma_issue_pending_all /lib/modules/2.6.36-zebra3/build/vmlinux

    21.00 0.3% _raw_spin_lock_irqsave /lib/modules/2.6.36-zebra3/build/vmlinux

    21.00 0.3% skb_push /lib/modules/2.6.36-zebra3/build/vmlinux

     

     

     

    уже голову сломал, в чем может быть трабла??, узкое место выходит где то еще надо искать.., только где?

     

    может увеличит параметр net.core.rmem_max (сейчас стоит 4194304) ?

     

     

  17. Удалось удачно подружить линукс бордер с цыской при этом заработало L3 балансировка, вот мой конфиг:

     

    ifcfg-eth1 и ifcfg-eth3

     

    # Intel Corporation 82576 Gigabit Network Connection

    DEVICE=eth1 (eth3)

    HWADDR=00:1B:21:6C:50:CC (CE)

    ONBOOT=yes

    BOOTPROTO=none

    TYPE=Ethernet

    USERCTL=no

    MASTER=bond0

    SLAVE=yes

     

     

     

    ifcfg-bond0:

     

    # Intel Corporation 82576 Gigabit Network Connection

    DEVICE=bond0

    BOOTPROTO=none

    ONBOOT=yes

    VLAN=yes

    USERCTL=no

    BONDING_MASTER=yes

     

     

    ifcfg-bond0.669:

     

    # Intel Corporation 82576 Gigabit Network Connection

    DEVICE=bond0.669

    BOOTPROTO=none

    IPADDR=x.x.x.14

    NETMASK=255.255.255.252

    NETWORK=x.x.x.12

    ONBOOT=yes

    VLAN=yes

    USERCTL=no

     

     

    modprobe.conf :

    options bonding miimon=100 mode=4 xmit_hash_policy=layer3+4 max_bonds=1

     

     

     

    cisco catalyst:

    port-channel load-balance src-dst-ip

     

    на обоих интерфейсах порт ченела:

     

    channel-group 3 mode active

     

     

     

    #sh etherchannel 3 summary

    Group Port-channel Protocol Ports

    ------+-------------+-----------+-----------------------------------------------

    3 Po3(SU) LACP Gi0/1(P) Gi0/24(P)

     

     

    входящий и исходящий трафик на обоих физ интерфейсах корректно балансируется

     

     

     

    реальный тест будет завтра, завтра вечером и отпишусь что как в результате

     

  18. dbask

    У вас не физические интерфейсы, а вилановые объединены в бонд? Если так, то не удивительно, что они договориться не могут.

     

    Кроме этого надо еще с обоих сторон указать тип балансировки как минимум по L3.

    Да именно влановые,

     

    подскажите плиз, если балансировку на каталисте сделаю L3: port-channel load-balance src-dst-ip

     

    под какой режим channel-group 3 mode (active,auto,desirable,on,passive) настраивать интерфейсы для корректной работы с вланами в бонде ?

     

  19. в связи с нехваткой времени на отладочные работы было решено переходить сразу на бондинг, но тут возникли трудности с балансировкой трафика по двум интерфейсам

     

    конфиг в кратце:

     

    ifcfg-eth2.722 и ifcfg-eth4.722:

     

    # Intel Corporation 82576 Gigabit Network Connection

    DEVICE=eth2.722 (eth4.722 )

    BOOTPROTO=none

    ONBOOT=yes

    TYPE=Ethernet

    VLAN=yes

    USERCTL=no

    MASTER=bond722

    SLAVE=yes

     

     

    ifcfg-bond722:

    # Intel Corporation 82576 Gigabit Network Connection

    DEVICE=bond722

    BOOTPROTO=none

    ONBOOT=yes

    #HWADDR=00:1b:21:51:9f:90

    TYPE=Ethernet

    IPADDR=x.x.x.190

    NETMASK=255.255.255.252

    USERCTL=no

    BONDING_MASTER=yes

     

    в модпробе conf:

    alias bond722 bonding

    options bonding miimon=50 mode=4 (LACP)

     

    настройки на каталисте:

    port-channel load-balance src-dst-mac

    на обоих интерфейсах порт ченела: channel-group 3 mode active или passive

     

    в результате каталист ни один из интерфейсов не поднимает, да и пакеты через bond722 не ходят,

     

     

    попробовал изменить конфиг на:

     

    options bonding miimon=50 mode=0

     

    изменил настройки на каталисте:

     

    на обоих интерфейсах порт ченела: channel-group 3 mode on

     

     

    bond722 - зацепился с каталистом корректно, но балансировки трафика при копировании тест файла замечено не было, пакеты ходили только через один физ интерфейс

     

    порекомендуйте плиз настройки бондинга 82576 с каталистом на стыке: ( linux border if_bond722: x.x.x.190/30 ) ========= [catalyst] ---------( x.x.x.189/30 upstream cisco border)

     

    спасибо.

  20. Так же я бы попробовал уменьшить кольцо до 2К и поставить ITR в режим 2 - для пробы.

     

    Если это не поможет, то ставить вторую пару интерфейсов и бондиться.

    в дровах 2.3.4 (как и в 2.1.9) нету режима ITR = 2 :

     

     

    "InterruptThrottleRate

    ---------------------

    Valid Range: 0,1,3,100-100000 (0=off, 1=dynamic, 3=dynamic conservative)

    Default Value: 3"

     

    про какой режим вы говорили?

     

     

    P.S.

    ринг-буфер и так стоит 2к:

     

    ethtool -g eth2

    Ring parameters for eth2:

    Pre-set maximums:

    RX: 4096

    RX Mini: 0

    RX Jumbo: 0

    TX: 4096

    Current hardware settings:

    RX: 2048

    RX Mini: 0

    RX Jumbo: 0

    TX: 2048

     

     

    идея с перекрестной прибивкой прерываний к ядрам интересна - будем пробовать

  21. А perf top можно?

    У меня на E5430 && 82571 прокачивается 800mbit с натом. CPU - по 50% на 2х ядрах и поменьше на 2х других.

    Прерывания раскиданы как 3 && 0xc + RPS (ядро 35е) , но RPS я так и не понял дает ли выигрыш сильный.

    А fib алгоритм какой? TRIE||HASH?

    также 800мбит - полка?, или до ~900мбит можете прокачать канал?