dbask
-
Публикации
44 -
Зарегистрирован
-
Посещение
Сообщения, опубликованные пользователем dbask
-
-
Все верно, речь идет про окна в бизнес центрах.
Спасибо за совет насчет установки в глубине, хотел бы также уточнить какая частота работы wifi моста будет предпочтительнее? 900Mhz, 5GHz, 9Ghz ?
-
Опубликовано · Изменено пользователем dbask · Жалоба на ответ
Подскажите плиз,
у кого был успешный опыт создания мостов через окна, тонированные металлизированной пленкой (зеркальной),
с сохранением приличных скоростей и CCQ ( скорости в районе 50 Мбит/с ), расстояние между направленными антеннами до 1км
какие WiFi частоты для такого решения будут предпочтительнее ?
может посоветуете конкретные железки?
Спасибо
-
есть такой параметр в линуховом шейпере tc как ceil, скорее всего это то что вам нужно, например:
для канала 100мбит, и тарифа для юзера 10мбит:
tc class add dev eth1 parent 1:1 classid 1:<hex_mark> htb rate 10Mbit ceil 100Mbit
т.е. если в корневом классе достаточно свободного места, то ваш клиент спокойно разгонится до 100мбит.
-
Опубликовано · Изменено пользователем dbask · Жалоба на ответ
Debian Wheezy
3.10-0.bpo.3-amd64
карточка intel X520-SR2, прерывания размазаны скриптом от интела по всем 8-ми ядрам.
ipt_NETFLOW version 1.8.2, srcversion (null)
грузит только первое ядро (cpu0)
/proc/net/stat/ipt_netflow:
ipt_NETFLOW version 1.8.2, srcversion (null)
Flows: active 327533 (peak 1178709 reached 2d16h43m ago), mem 53735K, worker delay 1/250.
Hash: size 524288 (mem 4096K), metric 1.42 [1.44, 1.16, 1.03]. MemTraf: 19161684 pkt, 17238795 K (pdu 48, 47649), Out 30034547390 pkt, 24896689407 K.
Rate: 489339720 bits/sec, 75486 packets/sec; Avg 1 min: 472520586 bps, 72822 pps; 5 min: 460807637 bps, 71605 pps
cpu# stat: <search found new [metric], trunc frag alloc maxflows>, sock: <ok fail cberr, bytes>, traffic: <pkt, bytes>, drop: <pkt, bytes>
Total stat: 19605053757 23486762313 6566946713 [11.59], 0 0 0 0, sock: 218887377 0 0, 312940446 K, traffic: 30053709026, 24330007 MB, drop: 0, 0 K
cpu0 stat: 2496200913 2952199008 849595899 [1.65], 0 0 0 0, sock: 218887377 0 0, 312940446 K, traffic: 3801794907, 3076173 MB, drop: 0, 0 K
cpu1 stat: 2415899797 2928473121 829408822 [1.64], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3757881943, 3032303 MB, drop: 0, 0 K
cpu2 stat: 2413877706 2918697890 814463593 [1.64], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3733161483, 3018178 MB, drop: 0, 0 K
cpu3 stat: 2461515881 2901849434 819947835 [1.66], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3721797269, 2990040 MB, drop: 0, 0 K
cpu4 stat: 2437185372 2993352732 801223189 [1.64], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3794575921, 3127805 MB, drop: 0, 0 K
cpu5 stat: 2490411986 2928841432 820856206 [1.66], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3749697638, 2998402 MB, drop: 0, 0 K
cpu6 stat: 2437960882 2942345144 825775525 [1.64], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3768120669, 3073674 MB, drop: 0, 0 K
cpu7 stat: 2452001220 2921003552 805675644 [1.65], 0 0 0 0, sock: 0 0 0, 0 K, traffic: 3726679196, 3013429 MB, drop: 0, 0 K
Protocol version 5 (netflow). Timeouts: active 1800, inactive 15. Maxflows 20000000
Natevents disabled, count start 0, stop 0.
sock0: 172.21.21.2:8819, sndbuf 245760, filled 1, peak 64513; err: sndbuf reached 0, connect 0, other 0
можно ли заставить этот модуль параллелиться по всем 8-ми ядрам?
спасибо
-
вопрос: что может мешать росту нат-сессии при достижении отметки в 980 тыс?, и при этом грузить процы?
сам себе на вопрос отвечаю
мешает росту нат сессий - такой параметр как net.netfilter.nf_conntrack_udp_timeout = 30 (относится к случаю генерации пакетов pktgen'ом),
проц грузиться начинает, как только коннтреки начинают обновляться в памяти
ставим net.netfilter.nf_conntrack_udp_timeout = 40 - кол-во сессий ползет вверх, только на 32-х битном ядре 3.10 даже с PAE - вылеты и зависоны с ошибкой памяти (~при кол-ве контреков 1.1млн)
поставил ядро 3.10-0.bpo.3-amd64 - вылетов и зависонов нет даже при 4 млн коннтреков, полет нормальный
осталось только скомпилировать HDMARK под 3.10 amd64 :)
-
Опубликовано · Изменено пользователем dbask · Жалоба на ответ
Привет!
Собираю 10G роутер по рекомендациям разработчика ядра HDMARK:
Debian 7,ядро 3.10-0.bpo.3-686-pae #1 SMP Debian 3.10.11-1~bpo70+1 (2013-09-24) i686 GNU/Linux
чипсет Intel Corporation S5520UR, проц Xeon E5630
сетевка X520-SR2, E10G42BFSR. дрова ixgbe 3.18.7
прерывания прибил к ядрам с пом. скрипта от драйверов сетевки интел
tso, lro отключены.
задачи роутера: полисинг (ipset), шейпинг (HDMARK), nat (conntrack ), ipt_NETFLOW
с натом есть некоторые странности:
установки:
net.nf_conntrack_max = 8388608
net.netfilter.nf_conntrack_buckets = 2097152
начинаю грузить роутер udp пакетиками (pktgen ~ 330kpps/s)
--pkt/eth2- --pkt/eth3- -pkt/total- --net/eth2- --net/eth3- -net/total- ----total-cpu-usage----
#recv #send:#recv #send:#recv #send| recv send: recv send: recv send|usr sys idl wai hiq siq
2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 95 0 0 5
1.00 328k: 329k 0 : 329k 328k| 70B 20M: 19M 0 : 19M 20M| 0 0 95 0 0 4
2.00 328k: 329k 0 : 329k 329k| 140B 20M: 19M 0 : 19M 20M| 0 0 95 0 0 4
2.00 328k: 329k 0 : 330k 329k| 140B 20M: 19M 0 : 20M 20M| 6 0 86 0 0 6
2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 95 0 0 4
2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 1 95 0 0 4
2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 1 95 0 0 4
2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 82 0 0 18
2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 83 0 0 16
2.00 328k: 329k 0 : 330k 329k| 140B 20M: 19M 0 : 21M 20M| 4 0 69 1 0 26
2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 73 1 0 25
2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 75 0 0 25
2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 75 0 0 25
2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 77 0 0 22
2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 0 0 79 0 0 20
2.00 328k: 329k 0 : 330k 329k| 140B 20M: 19M 0 : 21M 20M| 3 1 73 0 0 23
2.00 328k: 329k 0 : 329k 328k| 140B 20M: 19M 0 : 19M 20M| 2 0 70 2 0 26
где то при достижении данного количества коннтреков:
net.netfilter.nf_conntrack_count = 981373
(загрузку ЦПУ в этот момент выделил жирным.)
CPU по всем 8-ми ядрам (HT не отключал) подскакивает до 25-30%, при этом количество коннтрек-сессий перестает расти! и плавает на отметке 980-990k
вопрос: что может мешать росту нат-сессии при достижении отметки в 980 тыс?, и при этом грузить процы?
спасибо.
-
Опубликовано · Изменено пользователем dbask · Жалоба на ответ
-
и сколько у вас клиентов в секторе?
1 клиент в секторе, речь идет о выборе домашнего роутера в квартиру, с нормальной возможностью смотреть ТВ на STB по wifi
-
Такие тарифы по радио? Шутите?
iperf на 941-м тплинке, по 802.11n, 40Мгц канал, AES без проблем грузит на 85-90 мбит
-
Посоветуйте надежный WiFi роутер 802.11n под тарифы 50-80 мбит, а также для стабильной работы HDTV с WIFI сеттопбоксами (например DUNE) по UDP Multicast (мкаст поток до 10мбит/с)
наелись проблем с длинками 300,615, тплинками 841,941 ( у последних зависоны после ~30 мин работы при AES шифровании)
верхняя ценовая планка 2000руб
-
аналогично, от Роскомнадзора поступило письмо с просьбой заблокировать доступ пользователей к Интернет-ресурсам, на которых размещен видеофильм "Невинность мусульман".
Я не знаю всех ресурсов где размещен этот фильм, да и нереально это знать.
Думаю логичнее давать распоряжение в адрес администрации ресурсов о блокировке/удалении фильм, а не провайдерам.
Вынуждают перекрывать кислород нашим абонентам?
Кому еще пришло данное письмо?, Ваше мнение?
P.S. Куда катится мир?
-
Опубликовано · Изменено пользователем dbask · Жалоба на ответ
имеем Catalyst 3560G на ядре сети (OSPF, PIM, MSDP и тд тп) (C3560-ADVIPSERVICESK9-M), Version 12.2(44)SE1, RELEASE SOFTWARE (fc1))
неожиданно перестал отвечать на пинг запросы, предварительно посыпались сообщения в syslog:
Aug 30 16:19:18 10.16.0.7 5761: Aug 30 16:16:04.486: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.10.2 on Vlan460 from FULL to DOWN, Neighbor Down: Dead timer expi
Aug 30 16:19:18 10.16.0.7 5762: Aug 30 16:16:04.528: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.6.2 on Vlan506 from FULL to DOWN, Neighbor Down: Dead timer expir
Aug 30 16:19:19 10.16.0.7 5763: Aug 30 16:16:05.577: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.36.2 on Vlan335 from 2WAY to DOWN, Neighbor Down: Dead timer expi
Aug 30 16:19:19 10.16.0.7 5764: Aug 30 16:16:06.583: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.35.18 on Vlan345 from FULL to DOWN, Neighbor Down: Dead timer exp
Aug 30 16:19:19 10.16.0.7 5765: Aug 30 16:16:06.583: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.35.18 on Vlan335 from 2WAY to DOWN, Neighbor Down: Dead timer exp
Aug 30 16:19:20 10.16.0.7 5766: Aug 30 16:16:06.835: %OSPF-5-ADJCHG: Process 1, Nbr 10.16.0.5 on Vlan505 from FULL to DOWN, Neighbor Down: Dead timer expir
Aug 30 16:19:20 10.16.0.7 5767: Aug 30 16:16:07.548: %OSPF-5-ADJCHG: Process 1, Nbr 10.16.20.2 on Vlan462 from FULL to DOWN, Neighbor Down: Dead timer expi
Aug 30 16:19:20 10.16.0.7 5768: Aug 30 16:16:07.850: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.35.2 on Vlan335 from 2WAY to DOWN, Neighbor Down: Dead timer expi
Aug 30 16:19:22 10.16.0.7 5769: Aug 30 16:16:08.530: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.6.2 on Vlan446 from FULL to DOWN, Neighbor Down: Dead timer expir
Aug 30 16:19:39 10.16.0.7 5770: Aug 30 16:16:25.651: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.36.2 on Vlan350 from FULL to DOWN, Neighbor Down: Dead timer expi
Aug 30 16:20:03 10.16.0.7 5771: Aug 30 16:16:49.835: %PIM-5-NBRCHG: neighbor 10.15.4.2 DOWN on interface Vlan443 DR
Aug 30 16:20:03 10.16.0.7 5772: Aug 30 16:16:49.835: %PIM-5-DRCHG: DR change from neighbor 10.15.4.2 to 10.15.4.1 on interface Vlan443
Aug 30 16:20:05 10.16.0.7 5773: Aug 30 16:16:51.991: %PIM-5-NBRCHG: neighbor 10.15.6.2 DOWN on interface Vlan446 DR
Aug 30 16:20:05 10.16.0.7 5774: Aug 30 16:16:51.991: %PIM-5-DRCHG: DR change from neighbor 10.15.6.2 to 10.15.6.1 on interface Vlan446
Aug 30 16:20:05 10.16.0.7 5775: Aug 30 16:16:52.008: %PIM-5-NBRCHG: neighbor 10.15.11.2 DOWN on interface Vlan702 DR
Aug 30 16:20:05 10.16.0.7 5776: Aug 30 16:16:52.008: %PIM-5-DRCHG: DR change from neighbor 10.15.11.2 to 10.15.11.1 on interface Vlan702
Aug 30 16:20:09 10.16.0.7 5777: Aug 30 16:16:56.093: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.4.5 on Vlan514 from FULL to DOWN, Neighbor Down: Dead timer expir
Aug 30 16:20:12 10.16.0.7 5778: Aug 30 16:16:58.828: %OSPF-5-ADJCHG: Process 1, Nbr 10.15.35.18 on Vlan356 from FULL to DOWN, Neighbor Down: Dead timer exp
Aug 30 16:20:12 10.16.0.7 5779: Aug 30 16:16:58.995: %PIM-5-NBRCHG: neighbor 10.15.5.2 DOWN on interface Vlan445 DR
Aug 30 16:20:12 10.16.0.7 5780: Aug 30 16:16:58.995: %PIM-5-DRCHG: DR change from neighbor 10.15.5.2 to 10.15.5.1 on interface Vlan445
Aug 30 16:20:16 10.16.0.7 5781: Aug 30 16:17:02.460: %PIM-5-NBRCHG: neighbor x.x.x.x DOWN on interface Vlan597 non DR
Aug 30 16:20:16 10.16.0.7 5782: Aug 30 16:17:02.779: %PIM-5-NBRCHG: neighbor 10.15.36.26 DOWN on interface Vlan356 DR
Aug 30 16:20:16 10.16.0.7 5783: Aug 30 16:17:02.779: %PIM-5-DRCHG: DR change from neighbor 10.15.36.26 to 10.15.36.25 on interface Vlan356
Aug 30 16:20:17 10.16.0.7 5784: Aug 30 16:17:04.113: %PIM-5-NBRCHG: neighbor 10.15.9.2 DOWN on interface Vlan449 DR
Aug 30 16:20:17 10.16.0.7 5785: Aug 30 16:17:04.113: %PIM-5-DRCHG: DR change from neighbor 10.15.9.2 to 10.15.9.1 on interface Vlan449
Aug 30 16:20:17 10.16.0.7 5786: Aug 30 16:17:05.010: %PIM-5-NBRCHG: neighbor 10.15.7.2 DOWN on interface Vlan447 DR
Aug 30 16:20:17 10.16.0.7 5787: Aug 30 16:17:05.010: %PIM-5-DRCHG: DR change from neighbor 10.15.7.2 to 10.15.7.1 on interface Vlan447
Aug 30 16:20:22 10.16.0.7 5788: Aug 30 16:17:09.162: %PIM-5-NBRCHG: neighbor 10.15.8.2 DOWN on interface Vlan448 DR
Aug 30 16:20:22 10.16.0.7 5789: Aug 30 16:17:09.162: %PIM-5-DRCHG: DR change from neighbor 10.15.8.2 to 10.15.8.1 on interface Vlan448
Aug 30 16:20:22 10.16.0.7 5790: Aug 30 16:17:09.590: %PIM-5-NBRCHG: neighbor 10.15.36.2 DOWN on interface Vlan350 DR
L3, L2 функции стали недоступны
после ребута по питанию не грузился (моргала лампа SYST), после второго ребута - загрузился проработал 3 минуты и опять стал сбрасывать OSPF, PIM сессии.
цепляю консоль: в логах ничего другого кроме neighbor down нету, делаю reload вижу следующее:
Reload command.
Base ethernet MAC Address: 00:1f:26:fc:c4:00
Xmodem file system is available.
The password-recovery mechanism is enabled.
Initializing Flash...
flashfs[0]: 458 files, 6 directories
flashfs[0]: 0 orphaned files, 0 orphaned directories
flashfs[0]: Total bytes: 32514048
flashfs[0]: Bytes used: 19496448
flashfs[0]: Bytes available: 13017600
flashfs[0]: flashfs fsck took 8 seconds.
...done Initializing Flash.
Boot Sector Filesystem (bs) installed, fsid: 3
done.
Loading "c3560-advipservicesk9-mz.122-44.SE1.bin"...c3560-advipservicesk9-mz.122-44.SE1.bin: no such device
Error loading "c3560-advipservicesk9-mz.122-44.SE1.bin"
Interrupt within 5 seconds to abort boot process.
Loading "flash:/c3560-advipservicesk9-mz.122-44.SE1.bin"...@@@@@@@@@@@@@@@@@@@@@@@@
с 3-го ребута, все нормально загрузилось и заработало. тьфу тьфу тьфу.
понимаю что поздно цепанул консоль, поспешил с ребутом.
но может есть идеи о причинах такой аварии?
P.S.
Проработал без ребута 2-3 года.
-
Собираюсь попробовать LEAF 4.2 в качестве NAS (нато-шейпера)
Интересует производительность..
Прожует ли 1Gbit Fullduplex, 300+ kpps (суммарно), 2k абонентов в час пик (4000 правил в tc и тд) на 82576 4-х портовке и Core2Quad 9550 2.83Ghz ?
-
ребутнулся с ios c3560-advipservicesk9-mz.122-46.SE.bin
- утечка памяти исчезла!
Всем спасибо!
-
vurd
софт реконфиг отключен только на одного аплинка (который вовремя на давал только default)
на втором аплинке (две параллельные BGP сессии - софт реконфиг включен, но там точно прилетает только default)
-
Опубликовано · Изменено пользователем dbask · Жалоба на ответ
Привет!
хелп плиз!
Вчера кончилась вся память на каталисте 3560G, выполняющая роль BGP роутера (на дефаултах):
Sep 22 23:00:45 1.1.1.1 182: Sep 22 23:14:24: %SYS-2-MALLOCFAIL: Memory allocation of 65536 bytes failed from 0x1457418, alignme
Sep 22 23:00:45 1.1.1.1 183: Pool: Processor Free: 40232 Cause: Not enough free memory
Sep 22 23:00:45 1.1.1.1 184: Alternate Pool: None Free: 0 Cause: No Alternate pool
Sep 22 23:00:45 1.1.1.1 185: -Process= "BGP I/O", ipl= 0, pid= 81
Sep 22 23:00:45 1.1.1.1 186: -Traceback= C56458 C56B6C 14285A8 142CCA0 145741C A62C8C A2F298 A33274 A34584 A34A00 90AB90 901858
Sep 22 23:00:45 1.1.1.1 187: Sep 22 23:14:24: %BGP-5-ADJCHANGE: neighbor A Down No memory
Sep 22 23:00:45 1.1.1.1 188: Sep 22 23:14:24: %BGP-5-ADJCHANGE: neighbor B Down No memory
Sep 22 23:00:45 1.1.1.1 189: Sep 22 23:14:24: %BGP-5-ADJCHANGE: neighbor C Down No memory
Sep 22 23:00:45 1.1.1.1 190: Sep 22 23:14:24: %BGP-5-ADJCHANGE: neighbor D Down No memory
Sep 22 23:00:45 1.1.1.1 191: Sep 22 23:14:24: %BGP-5-ADJCHANGE: neighbor E Down No memory
помогла только перезагрузка
ИОС: Cisco IOS Software, C3560 Software (C3560-ADVIPSERVICESK9-M), Version 12.2(44)SE1, RELEASE SOFTWARE (fc1)
вот как расходуется память:
sh mem free: free 55217200
через 10 сек: free 55215612
#sh proc memory sorted allocated
Processor Pool Total: 84504788 Used: 29278836 Free: 55225952
I/O Pool Total: 8380416 Used: 3597620 Free: 4782796
Driver te Pool Total: 1048576 Used: 40 Free: 1048536
PID TTY Allocated Freed Holding Getbufs Retbufs Process
124 0 341633480 340093480 24996 0 0 HQM Stack Proces
280 0 244807052 385958268 12924 0 0 SNMP ENGINE
125 0 177024056 177024056 60924 0 0 HRPC qos request
278 0 173528644 173527728 13840 0 0 IP SNMP
279 0 141151216 0 12924 0 0 PDU DISPATCHER
0 0 82635168 80210616 4128108 5369644 2002472 *Dead*
0 0 38102352 13532380 22025304 0 0 *Init*
50 0 24234364 34915784 6924 0 0 RedEarth Tx Mana
222 0 21231976 0 6924 0 0 MDFS RP process
81 0 18911276 65580 9924 0 0 BGP I/O
242 0 13698856 19163740 342216 0 0 BGP Router
116 0 10455132 180 6924 0 0 Hulc LED Process
194 0 9978964 15652 16532 0 0 TCP Protocols
каковы могут быть причины утечки памяти, и чем можно это вылечить? может обновить ios?
(посоветовали ребутнуться с иосом c3560-advipservicesk9-mz.122-46.SE.bin)
есть еще идеи?
спасибо.
-
s.lobanov
Большое спасибо! Все заработало как надо: убрал soft-reconf на бекапе, - никаких "лишних" префиксов не попадает в RIB.
-
Добрый вечер!
имеем катал 3560G, подключенных к двум апстримам (PRI и BACKUP) - разделяем исходящий траф по localpref
по бекап-апстриму садимся на бекап-коммьюнити.
с PRI апстримом договорился чтобы анонсировали мне только дефолт, с BACKUP - не успел (так и кидает FV), но нужно уже срочно каталист поставить на узел.
Вопрос, можно ли както срезать FV от бекапа, чтобы не забивало память каталисту?
чтобы по команде
"sh ip bgp neighbors <BACKUP> received-routes" показывался только дефолт, не смотря на то что мне кидают FV ?
p.s.
срезаю входящий FV до дефаулта (ip prefix-list default seq 10 permit 0.0.0.0/0 le 1) - не помогает разгрузить память по BGP RIB
-
как это не печально звучит, но этот потолок в 800мбит вход и 800мбит исход трафик (суммарно 1,6Гбит) продолжает меня преследовать даже с бондингом :((
при этом заняты все 4 порта сетевой карты
на апстрим - бондинг (eth2, eth4) (ограничение у апстрима исключено)
в локалку - eth3 (на два ната смотрит), eth5 (на 3-й нат)
PerfTop: 2123 irqs/sec kernel:99.6% [1000Hz cycles], (all, 4 CPUs)
---------------------------------------------------------------------------------------------------------------------------------------------------------------------------
samples pcnt function DSO
_______ _____ ________________________________ ________________________________________________________________
1216.00 16.0% ip_route_input_common /lib/modules/2.6.36-zebra3/build/vmlinux
833.00 10.9% igb_poll /lib/modules/2.6.36-zebra3/kernel/drivers/net/igb/igb.ko
829.00 10.9% acpi_idle_enter_simple /lib/modules/2.6.36-zebra3/build/vmlinux
314.00 4.1% read_hpet /lib/modules/2.6.36-zebra3/build/vmlinux
312.00 4.1% igb_xmit_frame_ring /lib/modules/2.6.36-zebra3/kernel/drivers/net/igb/igb.ko
278.00 3.7% _raw_spin_lock /lib/modules/2.6.36-zebra3/build/vmlinux
251.00 3.3% __kmalloc_node_track_caller /lib/modules/2.6.36-zebra3/build/vmlinux
205.00 2.7% __alloc_skb /lib/modules/2.6.36-zebra3/build/vmlinux
198.00 2.6% dev_queue_xmit /lib/modules/2.6.36-zebra3/build/vmlinux
197.00 2.6% kmem_cache_alloc_node /lib/modules/2.6.36-zebra3/build/vmlinux
178.00 2.3% kfree /lib/modules/2.6.36-zebra3/build/vmlinux
165.00 2.2% ip_forward /lib/modules/2.6.36-zebra3/build/vmlinux
127.00 1.7% dev_hard_start_xmit /lib/modules/2.6.36-zebra3/build/vmlinux
114.00 1.5% kmem_cache_free /lib/modules/2.6.36-zebra3/build/vmlinux
113.00 1.5% __slab_free /lib/modules/2.6.36-zebra3/build/vmlinux
94.00 1.2% irq_entries_start /lib/modules/2.6.36-zebra3/build/vmlinux
93.00 1.2% eth_type_trans /lib/modules/2.6.36-zebra3/build/vmlinux
85.00 1.1% ip_rcv /lib/modules/2.6.36-zebra3/build/vmlinux
78.00 1.0% ip_finish_output /lib/modules/2.6.36-zebra3/build/vmlinux
75.00 1.0% skb_put /lib/modules/2.6.36-zebra3/build/vmlinux
69.00 0.9% acpi_safe_halt /lib/modules/2.6.36-zebra3/build/vmlinux
64.00 0.8% get_partial_node /lib/modules/2.6.36-zebra3/build/vmlinux
63.00 0.8% igb_alloc_rx_buffers /lib/modules/2.6.36-zebra3/kernel/drivers/net/igb/igb.ko
63.00 0.8% __slab_alloc /lib/modules/2.6.36-zebra3/build/vmlinux
54.00 0.7% __netif_receive_skb /lib/modules/2.6.36-zebra3/build/vmlinux
53.00 0.7% rt_intern_hash /lib/modules/2.6.36-zebra3/build/vmlinux
53.00 0.7% local_bh_enable /lib/modules/2.6.36-zebra3/build/vmlinux
50.00 0.7% __phys_addr /lib/modules/2.6.36-zebra3/build/vmlinux
49.00 0.6% _kc_netdev_alloc_skb_ip_align /lib/modules/2.6.36-zebra3/kernel/drivers/net/igb/igb.ko
48.00 0.6% bond_3ad_xmit_xor /lib/modules/2.6.36-zebra3/kernel/drivers/net/bonding/bonding.ko
40.00 0.5% nommu_map_page /lib/modules/2.6.36-zebra3/build/vmlinux
39.00 0.5% skb_release_data /lib/modules/2.6.36-zebra3/build/vmlinux
38.00 0.5% put_page /lib/modules/2.6.36-zebra3/build/vmlinux
38.00 0.5% skb_release_head_state /lib/modules/2.6.36-zebra3/build/vmlinux
37.00 0.5% __memset /lib/modules/2.6.36-zebra3/build/vmlinux
37.00 0.5% fib_table_lookup /lib/modules/2.6.36-zebra3/build/vmlinux
35.00 0.5% igb_unmap_and_free_tx_resource /lib/modules/2.6.36-zebra3/kernel/drivers/net/igb/igb.ko
34.00 0.4% sch_direct_xmit /lib/modules/2.6.36-zebra3/build/vmlinux
30.00 0.4% vlan_dev_hwaccel_hard_start_xmit /lib/modules/2.6.36-zebra3/kernel/net/8021q/8021q.ko
30.00 0.4% vlan_gro_common /lib/modules/2.6.36-zebra3/build/vmlinux
28.00 0.4% __napi_complete /lib/modules/2.6.36-zebra3/build/vmlinux
26.00 0.3% vlan_gro_receive /lib/modules/2.6.36-zebra3/build/vmlinux
25.00 0.3% check_addr /lib/modules/2.6.36-zebra3/build/vmlinux
24.00 0.3% bond_xmit_hash_policy_l34 /lib/modules/2.6.36-zebra3/kernel/drivers/net/bonding/bonding.ko
23.00 0.3% __do_softirq /lib/modules/2.6.36-zebra3/build/vmlinux
22.00 0.3% dma_issue_pending_all /lib/modules/2.6.36-zebra3/build/vmlinux
21.00 0.3% _raw_spin_lock_irqsave /lib/modules/2.6.36-zebra3/build/vmlinux
21.00 0.3% skb_push /lib/modules/2.6.36-zebra3/build/vmlinux
уже голову сломал, в чем может быть трабла??, узкое место выходит где то еще надо искать.., только где?
может увеличит параметр net.core.rmem_max (сейчас стоит 4194304) ?
-
Удалось удачно подружить линукс бордер с цыской при этом заработало L3 балансировка, вот мой конфиг:
ifcfg-eth1 и ifcfg-eth3
# Intel Corporation 82576 Gigabit Network Connection
DEVICE=eth1 (eth3)
HWADDR=00:1B:21:6C:50:CC (CE)
ONBOOT=yes
BOOTPROTO=none
TYPE=Ethernet
USERCTL=no
MASTER=bond0
SLAVE=yes
ifcfg-bond0:
# Intel Corporation 82576 Gigabit Network Connection
DEVICE=bond0
BOOTPROTO=none
ONBOOT=yes
VLAN=yes
USERCTL=no
BONDING_MASTER=yes
ifcfg-bond0.669:
# Intel Corporation 82576 Gigabit Network Connection
DEVICE=bond0.669
BOOTPROTO=none
IPADDR=x.x.x.14
NETMASK=255.255.255.252
NETWORK=x.x.x.12
ONBOOT=yes
VLAN=yes
USERCTL=no
modprobe.conf :
options bonding miimon=100 mode=4 xmit_hash_policy=layer3+4 max_bonds=1
cisco catalyst:
port-channel load-balance src-dst-ip
на обоих интерфейсах порт ченела:
channel-group 3 mode active
#sh etherchannel 3 summary
Group Port-channel Protocol Ports
------+-------------+-----------+-----------------------------------------------
3 Po3(SU) LACP Gi0/1(P) Gi0/24(P)
входящий и исходящий трафик на обоих физ интерфейсах корректно балансируется
реальный тест будет завтра, завтра вечером и отпишусь что как в результате
-
Опубликовано · Изменено пользователем dbask · Жалоба на ответ
dbaskУ вас не физические интерфейсы, а вилановые объединены в бонд? Если так, то не удивительно, что они договориться не могут.
Кроме этого надо еще с обоих сторон указать тип балансировки как минимум по L3.
Да именно влановые,
подскажите плиз, если балансировку на каталисте сделаю L3: port-channel load-balance src-dst-ip
под какой режим channel-group 3 mode (active,auto,desirable,on,passive) настраивать интерфейсы для корректной работы с вланами в бонде ?
-
в связи с нехваткой времени на отладочные работы было решено переходить сразу на бондинг, но тут возникли трудности с балансировкой трафика по двум интерфейсам
конфиг в кратце:
ifcfg-eth2.722 и ifcfg-eth4.722:
# Intel Corporation 82576 Gigabit Network Connection
DEVICE=eth2.722 (eth4.722 )
BOOTPROTO=none
ONBOOT=yes
TYPE=Ethernet
VLAN=yes
USERCTL=no
MASTER=bond722
SLAVE=yes
ifcfg-bond722:
# Intel Corporation 82576 Gigabit Network Connection
DEVICE=bond722
BOOTPROTO=none
ONBOOT=yes
#HWADDR=00:1b:21:51:9f:90
TYPE=Ethernet
IPADDR=x.x.x.190
NETMASK=255.255.255.252
USERCTL=no
BONDING_MASTER=yes
в модпробе conf:
alias bond722 bonding
options bonding miimon=50 mode=4 (LACP)
настройки на каталисте:
port-channel load-balance src-dst-mac
на обоих интерфейсах порт ченела: channel-group 3 mode active или passive
в результате каталист ни один из интерфейсов не поднимает, да и пакеты через bond722 не ходят,
попробовал изменить конфиг на:
options bonding miimon=50 mode=0
изменил настройки на каталисте:
на обоих интерфейсах порт ченела: channel-group 3 mode on
bond722 - зацепился с каталистом корректно, но балансировки трафика при копировании тест файла замечено не было, пакеты ходили только через один физ интерфейс
порекомендуйте плиз настройки бондинга 82576 с каталистом на стыке: ( linux border if_bond722: x.x.x.190/30 ) ========= [catalyst] ---------( x.x.x.189/30 upstream cisco border)
спасибо.
-
Так же я бы попробовал уменьшить кольцо до 2К и поставить ITR в режим 2 - для пробы.
Если это не поможет, то ставить вторую пару интерфейсов и бондиться.
в дровах 2.3.4 (как и в 2.1.9) нету режима ITR = 2 :
"InterruptThrottleRate
---------------------
Valid Range: 0,1,3,100-100000 (0=off, 1=dynamic, 3=dynamic conservative)
Default Value: 3"
про какой режим вы говорили?
P.S.
ринг-буфер и так стоит 2к:
ethtool -g eth2
Ring parameters for eth2:
Pre-set maximums:
RX: 4096
RX Mini: 0
RX Jumbo: 0
TX: 4096
Current hardware settings:
RX: 2048
RX Mini: 0
RX Jumbo: 0
TX: 2048
идея с перекрестной прибивкой прерываний к ядрам интересна - будем пробовать
-
А perf top можно?
У меня на E5430 && 82571 прокачивается 800mbit с натом. CPU - по 50% на 2х ядрах и поменьше на 2х других.
Прерывания раскиданы как 3 && 0xc + RPS (ядро 35е) , но RPS я так и не понял дает ли выигрыш сильный.
А fib алгоритм какой? TRIE||HASH?
также 800мбит - полка?, или до ~900мбит можете прокачать канал?
куплю 1-2 волокна - от Монтажной до Уральской
в Телекомбиржа - Circuit Exchange
Опубликовано · Изменено пользователем dbask · Жалоба на ответ
Интересует вариант продажи нам 1 или 2 волокон в вашем кабеле , между муфтами ближайшими к точкам:
Точка А:
а) пересечение Монтажной ул и 2-й Иртышский пр-д
либо
б) Щелковское ш. 25/15
Точка Б:
ул. Уральская 19А
предложения в личку