Перейти к содержимому
Калькуляторы

dbask

Пользователи
  • Публикации

    44
  • Зарегистрирован

  • Посещение

Все публикации пользователя dbask


  1. Интересует вариант продажи нам 1 или 2 волокон в вашем кабеле , между муфтами ближайшими к точкам: Точка А: а) пересечение Монтажной ул и 2-й Иртышский пр-д либо б) Щелковское ш. 25/15 Точка Б: ул. Уральская 19А предложения в личку
  2. Все верно, речь идет про окна в бизнес центрах. Спасибо за совет насчет установки в глубине, хотел бы также уточнить какая частота работы wifi моста будет предпочтительнее? 900Mhz, 5GHz, 9Ghz ?
  3. Подскажите плиз, у кого был успешный опыт создания мостов через окна, тонированные металлизированной пленкой (зеркальной), с сохранением приличных скоростей и CCQ ( скорости в районе 50 Мбит/с ), расстояние между направленными антеннами до 1км какие WiFi частоты для такого решения будут предпочтительнее ? может посоветуете конкретные железки? Спасибо
  4. есть такой параметр в линуховом шейпере tc как ceil, скорее всего это то что вам нужно, например: для канала 100мбит, и тарифа для юзера 10мбит: tc class add dev eth1 parent 1:1 classid 1:<hex_mark> htb rate 10Mbit ceil 100Mbit т.е. если в корневом классе достаточно свободного места, то ваш клиент спокойно разгонится до 100мбит.
  5. Debian Wheezy 3.10-0.bpo.3-amd64 карточка intel X520-SR2, прерывания размазаны скриптом от интела по всем 8-ми ядрам. ipt_NETFLOW version 1.8.2, srcversion (null) грузит только первое ядро (cpu0) /proc/net/stat/ipt_netflow: ipt_NETFLOW version 1.8.2, srcversion (null) Flows: active 327533 (peak 1178709 reached 2d16h43m ago), mem 53735K, worker delay 1/250. Hash: size 524288 (mem 4096K), metric 1.42 [1.44, 1.16, 1.03]. MemTraf: 19161684 pkt, 17238795 K (pdu 48, 47649), Out 30034547390 pkt, 24896689407 K. Rate: 489339720 bits/sec, 75486 packets/sec; Avg 1 min: 472520586 bps, 72822 pps; 5 min: 460807637 bps, 71605 pps cpu# stat: <search found new [metric], trunc frag alloc maxflows>, sock: <ok fail cberr, bytes>, traffic: <pkt, bytes>, drop: <pkt, bytes> Total stat: 19605053757 23486762313 6566946713 [11.59], 0 0 0 0, sock: 218887377 0 0, 312940446 K, traffic: 30053709026, 24330007 MB, drop: 0, 0 K cpu0 stat: 2496200913 2952199008 849595899 [1.65], 0 0 0 0, sock: 218887377 0 0, 312940446 K, traffic: 3801794907, 3076173 MB, drop: 0, 0 K cpu1 stat: 2415899797 2928473121 829408822 [1.64], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3757881943, 3032303 MB, drop: 0, 0 K cpu2 stat: 2413877706 2918697890 814463593 [1.64], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3733161483, 3018178 MB, drop: 0, 0 K cpu3 stat: 2461515881 2901849434 819947835 [1.66], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3721797269, 2990040 MB, drop: 0, 0 K cpu4 stat: 2437185372 2993352732 801223189 [1.64], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3794575921, 3127805 MB, drop: 0, 0 K cpu5 stat: 2490411986 2928841432 820856206 [1.66], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3749697638, 2998402 MB, drop: 0, 0 K cpu6 stat: 2437960882 2942345144 825775525 [1.64], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3768120669, 3073674 MB, drop: 0, 0 K cpu7 stat: 2452001220 2921003552 805675644 [1.65], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3726679196, 3013429 MB, drop: 0, 0 K Protocol version 5 (netflow). Timeouts: active 1800, inactive 15. Maxflows 20000000 Natevents disabled, count start 0, stop 0. sock0: 172.21.21.2:8819, sndbuf 245760, filled 1, peak 64513; err: sndbuf reached 0, connect 0, other 0 можно ли заставить этот модуль параллелиться по всем 8-ми ядрам? спасибо
  6. сам себе на вопрос отвечаю мешает росту нат сессий - такой параметр как net.netfilter.nf_conntrack_udp_timeout = 30 (относится к случаю генерации пакетов pktgen'ом), проц грузиться начинает, как только коннтреки начинают обновляться в памяти ставим net.netfilter.nf_conntrack_udp_timeout = 40 - кол-во сессий ползет вверх, только на 32-х битном ядре 3.10 даже с PAE - вылеты и зависоны с ошибкой памяти (~при кол-ве контреков 1.1млн) поставил ядро 3.10-0.bpo.3-amd64 - вылетов и зависонов нет даже при 4 млн коннтреков, полет нормальный осталось только скомпилировать HDMARK под 3.10 amd64 :)
  7. Привет! Собираю 10G роутер по рекомендациям разработчика ядра HDMARK: Debian 7,ядро 3.10-0.bpo.3-686-pae #1 SMP Debian 3.10.11-1~bpo70+1 (2013-09-24) i686 GNU/Linux чипсет Intel Corporation S5520UR, проц Xeon E5630 сетевка X520-SR2, E10G42BFSR. дрова ixgbe 3.18.7 прерывания прибил к ядрам с пом. скрипта от драйверов сетевки интел tso, lro отключены. задачи роутера: полисинг (ipset), шейпинг (HDMARK), nat (conntrack ), ipt_NETFLOW с натом есть некоторые странности: установки: net.nf_conntrack_max = 8388608 net.netfilter.nf_conntrack_buckets = 2097152 начинаю грузить роутер udp пакетиками (pktgen ~ 330kpps/s) --pkt/eth2- --pkt/eth3- -pkt/total- --net/eth2- --net/eth3- -net/total- ----total-cpu-usage---- #recv #send:#recv #send:#recv #send| recv send: recv send: recv send|usr sys idl wai hiq siq 2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 95 0 0 5 1.00 328k: 329k 0 : 329k 328k| 70B 20M: 19M 0 : 19M 20M| 0 0 95 0 0 4 2.00 328k: 329k 0 : 329k 329k| 140B 20M: 19M 0 : 19M 20M| 0 0 95 0 0 4 2.00 328k: 329k 0 : 330k 329k| 140B 20M: 19M 0 : 20M 20M| 6 0 86 0 0 6 2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 95 0 0 4 2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 1 95 0 0 4 2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 1 95 0 0 4 2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 82 0 0 18 2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 83 0 0 16 2.00 328k: 329k 0 : 330k 329k| 140B 20M: 19M 0 : 21M 20M| 4 0 69 1 0 26 2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 73 1 0 25 2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 75 0 0 25 2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 75 0 0 25 2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 77 0 0 22 2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 79 0 0 20 2.00 328k: 329k 0 : 330k 329k| 140B 20M: 19M 0 : 21M 20M| 3 1 73 0 0 23 2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 2 0 70 2 0 26 где то при достижении данного количества коннтреков: net.netfilter.nf_conntrack_count = 981373 (загрузку ЦПУ в этот момент выделил жирным.) CPU по всем 8-ми ядрам (HT не отключал) подскакивает до 25-30%, при этом количество коннтрек-сессий перестает расти! и плавает на отметке 980-990k вопрос: что может мешать росту нат-сессии при достижении отметки в 980 тыс?, и при этом грузить процы? спасибо.
  8. Продаю Fujikura FSM-17s в комплекте идут: - скалыватель fujikura ct-30a - защитный кейс - кабель питания Питание от 220В, Аккумулятор в комплект не входит. Пробег ~ 11600 сварок. Электроды новые, недавно прошел полное сервисное ТО. хочу за него 80к руб
  9. WiFi роутер

    1 клиент в секторе, речь идет о выборе домашнего роутера в квартиру, с нормальной возможностью смотреть ТВ на STB по wifi
  10. WiFi роутер

    iperf на 941-м тплинке, по 802.11n, 40Мгц канал, AES без проблем грузит на 85-90 мбит
  11. WiFi роутер

    Посоветуйте надежный WiFi роутер 802.11n под тарифы 50-80 мбит, а также для стабильной работы HDTV с WIFI сеттопбоксами (например DUNE) по UDP Multicast (мкаст поток до 10мбит/с) наелись проблем с длинками 300,615, тплинками 841,941 ( у последних зависоны после ~30 мин работы при AES шифровании) верхняя ценовая планка 2000руб
  12. Невинность мусульман :)

    аналогично, от Роскомнадзора поступило письмо с просьбой заблокировать доступ пользователей к Интернет-ресурсам, на которых размещен видеофильм "Невинность мусульман". Я не знаю всех ресурсов где размещен этот фильм, да и нереально это знать. Думаю логичнее давать распоряжение в адрес администрации ресурсов о блокировке/удалении фильм, а не провайдерам. Вынуждают перекрывать кислород нашим абонентам? Кому еще пришло данное письмо?, Ваше мнение? P.S. Куда катится мир?
  13. имеем Catalyst 3560G на ядре сети (OSPF, PIM, MSDP и тд тп) (C3560-ADVIPSERVICESK9-M), Version 12.2(44)SE1, RELEASE SOFTWARE (fc1)) неожиданно перестал отвечать на пинг запросы, предварительно посыпались сообщения в syslog: Aug 30 16:19:18 10.16.0.7 5761: Aug 30 16:16:04.486: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.10.2 on Vlan460 from FULL to DOWN, Neighbor Down: Dead timer expi Aug 30 16:19:18 10.16.0.7 5762: Aug 30 16:16:04.528: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.6.2 on Vlan506 from FULL to DOWN, Neighbor Down: Dead timer expir Aug 30 16:19:19 10.16.0.7 5763: Aug 30 16:16:05.577: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.36.2 on Vlan335 from 2WAY to DOWN, Neighbor Down: Dead timer expi Aug 30 16:19:19 10.16.0.7 5764: Aug 30 16:16:06.583: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.35.18 on Vlan345 from FULL to DOWN, Neighbor Down: Dead timer exp Aug 30 16:19:19 10.16.0.7 5765: Aug 30 16:16:06.583: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.35.18 on Vlan335 from 2WAY to DOWN, Neighbor Down: Dead timer exp Aug 30 16:19:20 10.16.0.7 5766: Aug 30 16:16:06.835: %OSPF-5-ADJCHG: Process 1, Nbr 10.16.0.5 on Vlan505 from FULL to DOWN, Neighbor Down: Dead timer expir Aug 30 16:19:20 10.16.0.7 5767: Aug 30 16:16:07.548: %OSPF-5-ADJCHG: Process 1, Nbr 10.16.20.2 on Vlan462 from FULL to DOWN, Neighbor Down: Dead timer expi Aug 30 16:19:20 10.16.0.7 5768: Aug 30 16:16:07.850: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.35.2 on Vlan335 from 2WAY to DOWN, Neighbor Down: Dead timer expi Aug 30 16:19:22 10.16.0.7 5769: Aug 30 16:16:08.530: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.6.2 on Vlan446 from FULL to DOWN, Neighbor Down: Dead timer expir Aug 30 16:19:39 10.16.0.7 5770: Aug 30 16:16:25.651: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.36.2 on Vlan350 from FULL to DOWN, Neighbor Down: Dead timer expi Aug 30 16:20:03 10.16.0.7 5771: Aug 30 16:16:49.835: %PIM-5-NBRCHG: neighbor 10.15.4.2 DOWN on interface Vlan443 DR Aug 30 16:20:03 10.16.0.7 5772: Aug 30 16:16:49.835: %PIM-5-DRCHG: DR change from neighbor 10.15.4.2 to 10.15.4.1 on interface Vlan443 Aug 30 16:20:05 10.16.0.7 5773: Aug 30 16:16:51.991: %PIM-5-NBRCHG: neighbor 10.15.6.2 DOWN on interface Vlan446 DR Aug 30 16:20:05 10.16.0.7 5774: Aug 30 16:16:51.991: %PIM-5-DRCHG: DR change from neighbor 10.15.6.2 to 10.15.6.1 on interface Vlan446 Aug 30 16:20:05 10.16.0.7 5775: Aug 30 16:16:52.008: %PIM-5-NBRCHG: neighbor 10.15.11.2 DOWN on interface Vlan702 DR Aug 30 16:20:05 10.16.0.7 5776: Aug 30 16:16:52.008: %PIM-5-DRCHG: DR change from neighbor 10.15.11.2 to 10.15.11.1 on interface Vlan702 Aug 30 16:20:09 10.16.0.7 5777: Aug 30 16:16:56.093: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.4.5 on Vlan514 from FULL to DOWN, Neighbor Down: Dead timer expir Aug 30 16:20:12 10.16.0.7 5778: Aug 30 16:16:58.828: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.35.18 on Vlan356 from FULL to DOWN, Neighbor Down: Dead timer exp Aug 30 16:20:12 10.16.0.7 5779: Aug 30 16:16:58.995: %PIM-5-NBRCHG: neighbor 10.15.5.2 DOWN on interface Vlan445 DR Aug 30 16:20:12 10.16.0.7 5780: Aug 30 16:16:58.995: %PIM-5-DRCHG: DR change from neighbor 10.15.5.2 to 10.15.5.1 on interface Vlan445 Aug 30 16:20:16 10.16.0.7 5781: Aug 30 16:17:02.460: %PIM-5-NBRCHG: neighbor x.x.x.x DOWN on interface Vlan597 non DR Aug 30 16:20:16 10.16.0.7 5782: Aug 30 16:17:02.779: %PIM-5-NBRCHG: neighbor 10.15.36.26 DOWN on interface Vlan356 DR Aug 30 16:20:16 10.16.0.7 5783: Aug 30 16:17:02.779: %PIM-5-DRCHG: DR change from neighbor 10.15.36.26 to 10.15.36.25 on interface Vlan356 Aug 30 16:20:17 10.16.0.7 5784: Aug 30 16:17:04.113: %PIM-5-NBRCHG: neighbor 10.15.9.2 DOWN on interface Vlan449 DR Aug 30 16:20:17 10.16.0.7 5785: Aug 30 16:17:04.113: %PIM-5-DRCHG: DR change from neighbor 10.15.9.2 to 10.15.9.1 on interface Vlan449 Aug 30 16:20:17 10.16.0.7 5786: Aug 30 16:17:05.010: %PIM-5-NBRCHG: neighbor 10.15.7.2 DOWN on interface Vlan447 DR Aug 30 16:20:17 10.16.0.7 5787: Aug 30 16:17:05.010: %PIM-5-DRCHG: DR change from neighbor 10.15.7.2 to 10.15.7.1 on interface Vlan447 Aug 30 16:20:22 10.16.0.7 5788: Aug 30 16:17:09.162: %PIM-5-NBRCHG: neighbor 10.15.8.2 DOWN on interface Vlan448 DR Aug 30 16:20:22 10.16.0.7 5789: Aug 30 16:17:09.162: %PIM-5-DRCHG: DR change from neighbor 10.15.8.2 to 10.15.8.1 on interface Vlan448 Aug 30 16:20:22 10.16.0.7 5790: Aug 30 16:17:09.590: %PIM-5-NBRCHG: neighbor 10.15.36.2 DOWN on interface Vlan350 DR L3, L2 функции стали недоступны после ребута по питанию не грузился (моргала лампа SYST), после второго ребута - загрузился проработал 3 минуты и опять стал сбрасывать OSPF, PIM сессии. цепляю консоль: в логах ничего другого кроме neighbor down нету, делаю reload вижу следующее: Reload command. Base ethernet MAC Address: 00:1f:26:fc:c4:00 Xmodem file system is available. The password-recovery mechanism is enabled. Initializing Flash... flashfs[0]: 458 files, 6 directories flashfs[0]: 0 orphaned files, 0 orphaned directories flashfs[0]: Total bytes: 32514048 flashfs[0]: Bytes used: 19496448 flashfs[0]: Bytes available: 13017600 flashfs[0]: flashfs fsck took 8 seconds. ...done Initializing Flash. Boot Sector Filesystem (bs) installed, fsid: 3 done. Loading "c3560-advipservicesk9-mz.122-44.SE1.bin"...c3560-advipservicesk9-mz.122-44.SE1.bin: no such device Error loading "c3560-advipservicesk9-mz.122-44.SE1.bin" Interrupt within 5 seconds to abort boot process. Loading "flash:/c3560-advipservicesk9-mz.122-44.SE1.bin"...@@@@@@@@@@@@@@@@@@@@@@@@ с 3-го ребута, все нормально загрузилось и заработало. тьфу тьфу тьфу. понимаю что поздно цепанул консоль, поспешил с ребутом. но может есть идеи о причинах такой аварии? P.S. Проработал без ребута 2-3 года.
  14. Собираюсь попробовать LEAF 4.2 в качестве NAS (нато-шейпера) Интересует производительность.. Прожует ли 1Gbit Fullduplex, 300+ kpps (суммарно), 2k абонентов в час пик (4000 правил в tc и тд) на 82576 4-х портовке и Core2Quad 9550 2.83Ghz ?
  15. ребутнулся с ios c3560-advipservicesk9-mz.122-46.SE.bin - утечка памяти исчезла! Всем спасибо!
  16. vurd софт реконфиг отключен только на одного аплинка (который вовремя на давал только default) на втором аплинке (две параллельные BGP сессии - софт реконфиг включен, но там точно прилетает только default)
  17. Привет! хелп плиз! Вчера кончилась вся память на каталисте 3560G, выполняющая роль BGP роутера (на дефаултах): Sep 22 23:00:45 1.1.1.1 182: Sep 22 23:14:24: %SYS-2-MALLOCFAIL: Memory allocation of 65536 bytes failed from 0x1457418, alignme Sep 22 23:00:45 1.1.1.1 183: Pool: Processor Free: 40232 Cause: Not enough free memory Sep 22 23:00:45 1.1.1.1 184: Alternate Pool: None Free: 0 Cause: No Alternate pool Sep 22 23:00:45 1.1.1.1 185: -Process= "BGP I/O", ipl= 0, pid= 81 Sep 22 23:00:45 1.1.1.1 186: -Traceback= C56458 C56B6C 14285A8 142CCA0 145741C A62C8C A2F298 A33274 A34584 A34A00 90AB90 901858 Sep 22 23:00:45 1.1.1.1 187: Sep 22 23:14:24: %BGP-5-ADJCHANGE: neighbor A Down No memory Sep 22 23:00:45 1.1.1.1 188: Sep 22 23:14:24: %BGP-5-ADJCHANGE: neighbor B Down No memory Sep 22 23:00:45 1.1.1.1 189: Sep 22 23:14:24: %BGP-5-ADJCHANGE: neighbor C Down No memory Sep 22 23:00:45 1.1.1.1 190: Sep 22 23:14:24: %BGP-5-ADJCHANGE: neighbor D Down No memory Sep 22 23:00:45 1.1.1.1 191: Sep 22 23:14:24: %BGP-5-ADJCHANGE: neighbor E Down No memory помогла только перезагрузка ИОС: Cisco IOS Software, C3560 Software (C3560-ADVIPSERVICESK9-M), Version 12.2(44)SE1, RELEASE SOFTWARE (fc1) вот как расходуется память: sh mem free: free 55217200 через 10 сек: free 55215612 #sh proc memory sorted allocated Processor Pool Total: 84504788 Used: 29278836 Free: 55225952 I/O Pool Total: 8380416 Used: 3597620 Free: 4782796 Driver te Pool Total: 1048576 Used: 40 Free: 1048536 PID TTY Allocated Freed Holding Getbufs Retbufs Process 124 0 341633480 340093480 24996 0 0 HQM Stack Proces 280 0 244807052 385958268 12924 0 0 SNMP ENGINE 125 0 177024056 177024056 60924 0 0 HRPC qos request 278 0 173528644 173527728 13840 0 0 IP SNMP 279 0 141151216 0 12924 0 0 PDU DISPATCHER 0 0 82635168 80210616 4128108 5369644 2002472 *Dead* 0 0 38102352 13532380 22025304 0 0 *Init* 50 0 24234364 34915784 6924 0 0 RedEarth Tx Mana 222 0 21231976 0 6924 0 0 MDFS RP process 81 0 18911276 65580 9924 0 0 BGP I/O 242 0 13698856 19163740 342216 0 0 BGP Router 116 0 10455132 180 6924 0 0 Hulc LED Process 194 0 9978964 15652 16532 0 0 TCP Protocols каковы могут быть причины утечки памяти, и чем можно это вылечить? может обновить ios? (посоветовали ребутнуться с иосом c3560-advipservicesk9-mz.122-46.SE.bin) есть еще идеи? спасибо.
  18. s.lobanov Большое спасибо! Все заработало как надо: убрал soft-reconf на бекапе, - никаких "лишних" префиксов не попадает в RIB.
  19. Добрый вечер! имеем катал 3560G, подключенных к двум апстримам (PRI и BACKUP) - разделяем исходящий траф по localpref по бекап-апстриму садимся на бекап-коммьюнити. с PRI апстримом договорился чтобы анонсировали мне только дефолт, с BACKUP - не успел (так и кидает FV), но нужно уже срочно каталист поставить на узел. Вопрос, можно ли както срезать FV от бекапа, чтобы не забивало память каталисту? чтобы по команде "sh ip bgp neighbors <BACKUP> received-routes" показывался только дефолт, не смотря на то что мне кидают FV ? p.s. срезаю входящий FV до дефаулта (ip prefix-list default seq 10 permit 0.0.0.0/0 le 1) - не помогает разгрузить память по BGP RIB
  20. как это не печально звучит, но этот потолок в 800мбит вход и 800мбит исход трафик (суммарно 1,6Гбит) продолжает меня преследовать даже с бондингом :(( при этом заняты все 4 порта сетевой карты на апстрим - бондинг (eth2, eth4) (ограничение у апстрима исключено) в локалку - eth3 (на два ната смотрит), eth5 (на 3-й нат) PerfTop: 2123 irqs/sec kernel:99.6% [1000Hz cycles], (all, 4 CPUs) --------------------------------------------------------------------------------------------------------------------------------------------------------------------------- samples pcnt function DSO _______ _____ ________________________________ ________________________________________________________________ 1216.00 16.0% ip_route_input_common /lib/modules/2.6.36-zebra3/build/vmlinux 833.00 10.9% igb_poll /lib/modules/2.6.36-zebra3/kernel/drivers/net/igb/igb.ko 829.00 10.9% acpi_idle_enter_simple /lib/modules/2.6.36-zebra3/build/vmlinux 314.00 4.1% read_hpet /lib/modules/2.6.36-zebra3/build/vmlinux 312.00 4.1% igb_xmit_frame_ring /lib/modules/2.6.36-zebra3/kernel/drivers/net/igb/igb.ko 278.00 3.7% _raw_spin_lock /lib/modules/2.6.36-zebra3/build/vmlinux 251.00 3.3% __kmalloc_node_track_caller /lib/modules/2.6.36-zebra3/build/vmlinux 205.00 2.7% __alloc_skb /lib/modules/2.6.36-zebra3/build/vmlinux 198.00 2.6% dev_queue_xmit /lib/modules/2.6.36-zebra3/build/vmlinux 197.00 2.6% kmem_cache_alloc_node /lib/modules/2.6.36-zebra3/build/vmlinux 178.00 2.3% kfree /lib/modules/2.6.36-zebra3/build/vmlinux 165.00 2.2% ip_forward /lib/modules/2.6.36-zebra3/build/vmlinux 127.00 1.7% dev_hard_start_xmit /lib/modules/2.6.36-zebra3/build/vmlinux 114.00 1.5% kmem_cache_free /lib/modules/2.6.36-zebra3/build/vmlinux 113.00 1.5% __slab_free /lib/modules/2.6.36-zebra3/build/vmlinux 94.00 1.2% irq_entries_start /lib/modules/2.6.36-zebra3/build/vmlinux 93.00 1.2% eth_type_trans /lib/modules/2.6.36-zebra3/build/vmlinux 85.00 1.1% ip_rcv /lib/modules/2.6.36-zebra3/build/vmlinux 78.00 1.0% ip_finish_output /lib/modules/2.6.36-zebra3/build/vmlinux 75.00 1.0% skb_put /lib/modules/2.6.36-zebra3/build/vmlinux 69.00 0.9% acpi_safe_halt /lib/modules/2.6.36-zebra3/build/vmlinux 64.00 0.8% get_partial_node /lib/modules/2.6.36-zebra3/build/vmlinux 63.00 0.8% igb_alloc_rx_buffers /lib/modules/2.6.36-zebra3/kernel/drivers/net/igb/igb.ko 63.00 0.8% __slab_alloc /lib/modules/2.6.36-zebra3/build/vmlinux 54.00 0.7% __netif_receive_skb /lib/modules/2.6.36-zebra3/build/vmlinux 53.00 0.7% rt_intern_hash /lib/modules/2.6.36-zebra3/build/vmlinux 53.00 0.7% local_bh_enable /lib/modules/2.6.36-zebra3/build/vmlinux 50.00 0.7% __phys_addr /lib/modules/2.6.36-zebra3/build/vmlinux 49.00 0.6% _kc_netdev_alloc_skb_ip_align /lib/modules/2.6.36-zebra3/kernel/drivers/net/igb/igb.ko 48.00 0.6% bond_3ad_xmit_xor /lib/modules/2.6.36-zebra3/kernel/drivers/net/bonding/bonding.ko 40.00 0.5% nommu_map_page /lib/modules/2.6.36-zebra3/build/vmlinux 39.00 0.5% skb_release_data /lib/modules/2.6.36-zebra3/build/vmlinux 38.00 0.5% put_page /lib/modules/2.6.36-zebra3/build/vmlinux 38.00 0.5% skb_release_head_state /lib/modules/2.6.36-zebra3/build/vmlinux 37.00 0.5% __memset /lib/modules/2.6.36-zebra3/build/vmlinux 37.00 0.5% fib_table_lookup /lib/modules/2.6.36-zebra3/build/vmlinux 35.00 0.5% igb_unmap_and_free_tx_resource /lib/modules/2.6.36-zebra3/kernel/drivers/net/igb/igb.ko 34.00 0.4% sch_direct_xmit /lib/modules/2.6.36-zebra3/build/vmlinux 30.00 0.4% vlan_dev_hwaccel_hard_start_xmit /lib/modules/2.6.36-zebra3/kernel/net/8021q/8021q.ko 30.00 0.4% vlan_gro_common /lib/modules/2.6.36-zebra3/build/vmlinux 28.00 0.4% __napi_complete /lib/modules/2.6.36-zebra3/build/vmlinux 26.00 0.3% vlan_gro_receive /lib/modules/2.6.36-zebra3/build/vmlinux 25.00 0.3% check_addr /lib/modules/2.6.36-zebra3/build/vmlinux 24.00 0.3% bond_xmit_hash_policy_l34 /lib/modules/2.6.36-zebra3/kernel/drivers/net/bonding/bonding.ko 23.00 0.3% __do_softirq /lib/modules/2.6.36-zebra3/build/vmlinux 22.00 0.3% dma_issue_pending_all /lib/modules/2.6.36-zebra3/build/vmlinux 21.00 0.3% _raw_spin_lock_irqsave /lib/modules/2.6.36-zebra3/build/vmlinux 21.00 0.3% skb_push /lib/modules/2.6.36-zebra3/build/vmlinux уже голову сломал, в чем может быть трабла??, узкое место выходит где то еще надо искать.., только где? может увеличит параметр net.core.rmem_max (сейчас стоит 4194304) ?
  21. Удалось удачно подружить линукс бордер с цыской при этом заработало L3 балансировка, вот мой конфиг: ifcfg-eth1 и ifcfg-eth3 # Intel Corporation 82576 Gigabit Network Connection DEVICE=eth1 (eth3) HWADDR=00:1B:21:6C:50:CC (CE) ONBOOT=yes BOOTPROTO=none TYPE=Ethernet USERCTL=no MASTER=bond0 SLAVE=yes ifcfg-bond0: # Intel Corporation 82576 Gigabit Network Connection DEVICE=bond0 BOOTPROTO=none ONBOOT=yes VLAN=yes USERCTL=no BONDING_MASTER=yes ifcfg-bond0.669: # Intel Corporation 82576 Gigabit Network Connection DEVICE=bond0.669 BOOTPROTO=none IPADDR=x.x.x.14 NETMASK=255.255.255.252 NETWORK=x.x.x.12 ONBOOT=yes VLAN=yes USERCTL=no modprobe.conf : options bonding miimon=100 mode=4 xmit_hash_policy=layer3+4 max_bonds=1 cisco catalyst: port-channel load-balance src-dst-ip на обоих интерфейсах порт ченела: channel-group 3 mode active #sh etherchannel 3 summary Group Port-channel Protocol Ports ------+-------------+-----------+----------------------------------------------- 3 Po3(SU) LACP Gi0/1(P) Gi0/24(P) входящий и исходящий трафик на обоих физ интерфейсах корректно балансируется реальный тест будет завтра, завтра вечером и отпишусь что как в результате
  22. Да именно влановые, подскажите плиз, если балансировку на каталисте сделаю L3: port-channel load-balance src-dst-ip под какой режим channel-group 3 mode (active,auto,desirable,on,passive) настраивать интерфейсы для корректной работы с вланами в бонде ?
  23. в связи с нехваткой времени на отладочные работы было решено переходить сразу на бондинг, но тут возникли трудности с балансировкой трафика по двум интерфейсам конфиг в кратце: ifcfg-eth2.722 и ifcfg-eth4.722: # Intel Corporation 82576 Gigabit Network Connection DEVICE=eth2.722 (eth4.722 ) BOOTPROTO=none ONBOOT=yes TYPE=Ethernet VLAN=yes USERCTL=no MASTER=bond722 SLAVE=yes ifcfg-bond722: # Intel Corporation 82576 Gigabit Network Connection DEVICE=bond722 BOOTPROTO=none ONBOOT=yes #HWADDR=00:1b:21:51:9f:90 TYPE=Ethernet IPADDR=x.x.x.190 NETMASK=255.255.255.252 USERCTL=no BONDING_MASTER=yes в модпробе conf: alias bond722 bonding options bonding miimon=50 mode=4 (LACP) настройки на каталисте: port-channel load-balance src-dst-mac на обоих интерфейсах порт ченела: channel-group 3 mode active или passive в результате каталист ни один из интерфейсов не поднимает, да и пакеты через bond722 не ходят, попробовал изменить конфиг на: options bonding miimon=50 mode=0 изменил настройки на каталисте: на обоих интерфейсах порт ченела: channel-group 3 mode on bond722 - зацепился с каталистом корректно, но балансировки трафика при копировании тест файла замечено не было, пакеты ходили только через один физ интерфейс порекомендуйте плиз настройки бондинга 82576 с каталистом на стыке: ( linux border if_bond722: x.x.x.190/30 ) ========= [catalyst] ---------( x.x.x.189/30 upstream cisco border) спасибо.
  24. в дровах 2.3.4 (как и в 2.1.9) нету режима ITR = 2 : "InterruptThrottleRate --------------------- Valid Range: 0,1,3,100-100000 (0=off, 1=dynamic, 3=dynamic conservative) Default Value: 3" про какой режим вы говорили? P.S. ринг-буфер и так стоит 2к: ethtool -g eth2 Ring parameters for eth2: Pre-set maximums: RX: 4096 RX Mini: 0 RX Jumbo: 0 TX: 4096 Current hardware settings: RX: 2048 RX Mini: 0 RX Jumbo: 0 TX: 2048 идея с перекрестной прибивкой прерываний к ядрам интересна - будем пробовать
  25. также 800мбит - полка?, или до ~900мбит можете прокачать канал?