murzik_one Опубликовано 23 ноября, 2012 (изменено) · Жалоба попутно вопросец, сколько трафика и какой kpps можно отрутить посредствои такого сервачка? (в стойке пылится). HP Proliant DL360 G4 (двупроцессорный ксеньчик с хипертрейдингом), мозга вроде 2гига. записей в файерволе ipfw show | wc -l >>> 59 из сопутствующего snmpd (для кактуса) + apache (ловить завороты с таблички при блокировках) + zabbix агент + ipcad (сбор netflow статы) зы. уж больно мне нравятся его сетевушки =) Изменено 23 ноября, 2012 пользователем murzik_one Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
zlolotus Опубликовано 24 ноября, 2012 · Жалоба попутно вопросец, сколько трафика и какой kpps можно отрутить посредствои такого сервачка? (в стойке пылится). HP Proliant DL360 G4 (двупроцессорный ксеньчик с хипертрейдингом), мозга вроде 2гига. записей в файерволе ipfw show | wc -l >>> 59 из сопутствующего snmpd (для кактуса) + apache (ловить завороты с таблички при блокировках) + zabbix агент + ipcad (сбор netflow статы) зы. уж больно мне нравятся его сетевушки =) pptp + mpd4 + ipfw nat = около 70-90kps. 7.x на них плохо сидит. А вот 8.2 села хорошо. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
murzik_one Опубликовано 24 ноября, 2012 · Жалоба pptp + mpd4 + ipfw nat = около 70-90kps. 7.x на них плохо сидит. А вот 8.2 села хорошо. 70-90 это в обе стороны, или только в одну? а то у меня сейчас в пиках (в чнн) от 80 до 110 кппс суммарно. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 25 ноября, 2012 · Жалоба в чем может быть косяк, а то как вечер, у меня рутер захлебывается. vmstat -z Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
murzik_one Опубликовано 25 ноября, 2012 · Жалоба Ivan_83 vmstat -z | grep -ve 0$ ITEM SIZE LIMIT USED FREE REQUESTS FAILURES 32 Bucket: 280, 0, 178, 4, 178, 1 64 Bucket: 536, 0, 147, 0, 160, 9 128 Bucket: 1048, 0, 14248, 2, 14254, 743 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 25 ноября, 2012 · Жалоба net.isr.direct=1 Попробуйте 0 поставить. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
murzik_one Опубликовано 27 ноября, 2012 · Жалоба Но вроде пока терпимо. Если опяпть проблема всплывет, отпишусь. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
murzik_one Опубликовано 28 ноября, 2012 · Жалоба Не прошло и года... =( last pid: 96894; load averages: 0.05, 0.02, 0.00 up 6+01:44:41 20:16:19 126 processes: 7 running, 91 sleeping, 28 waiting CPU 0: 0.0% user, 0.0% nice, 0.8% system, 35.0% interrupt, 64.3% idle CPU 1: 0.0% user, 0.0% nice, 0.8% system, 49.2% interrupt, 50.0% idle CPU 2: 0.0% user, 0.0% nice, 1.1% system, 49.8% interrupt, 49.1% idle CPU 3: 0.0% user, 0.0% nice, 0.0% system, 32.8% interrupt, 67.2% idle Mem: 116M Active, 929M Inact, 695M Wired, 252K Cache, 418M Buf, 2207M Free Swap: 4096M Total, 4096M Free PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND 12 root -44 - 0K 480K CPU2 2 63.4H 99.46% {swi1: netisr 1} 11 root 171 ki31 0K 64K CPU3 3 130.7H 68.12% {idle: cpu3} 11 root 171 ki31 0K 64K RUN 0 102.9H 61.18% {idle: cpu0} 12 root -44 - 0K 480K CPU1 1 18.2H 60.06% {swi1: netisr 3} 11 root 171 ki31 0K 64K RUN 2 118.6H 57.96% {idle: cpu2} 11 root 171 ki31 0K 64K RUN 1 101.3H 53.12% {idle: cpu1} 12 root -68 - 0K 480K WAIT 3 519:10 3.27% {irq259: em1:rx 0} 12 root -68 - 0K 480K WAIT 0 28.1H 2.59% {irq256: em0:rx 0} 12 root -68 - 0K 480K WAIT 1 120:56 0.63% {irq257: em0:tx 0} 12 root -68 - 0K 480K WAIT 0 117:48 0.49% {irq260: em1:tx 0} 0 root -68 0 0K 208K - 3 56:02 0.10% {em0 txq} 12 root -44 - 0K 480K WAIT 0 79:56 0.00% {swi1: netisr 2} 12 root -32 - 0K 480K WAIT 0 58:16 0.00% {swi4: clock} 0 root -68 0 0K 208K - 3 46:31 0.00% {em1 txq} netstat -h -w1 input (Total) output packets errs idrops bytes packets errs bytes colls 57K 0 0 33M 51K 0 23M 0 57K 0 0 34M 52K 0 25M 0 59K 0 0 37M 53K 0 26M 0 57K 0 0 34M 52K 0 26M 0 56K 0 0 33M 49K 0 23M 0 53K 0 0 30M 49K 0 23M 0 54K 0 0 30M 48K 0 22M 0 53K 0 0 29M 48K 0 22M 0 54K 0 0 30M 51K 0 23M 0 31K 0 0 13M 13K 0 7.6M 0 51K 0 0 28M 49K 0 20M 0 57K 0 0 34M 51K 0 23M 0 59K 0 0 36M 52K 0 24M 0 59K 0 0 36M 54K 0 25M 0 64K 0 0 41M 57K 0 27M 0 61K 0 0 40M 55K 0 27M 0 ^C vmstat -z | grep -ve 0$ ITEM SIZE LIMIT USED FREE REQUESTS FAILURES 32 Bucket: 280, 0, 180, 2, 180, 1 64 Bucket: 536, 0, 154, 0, 167, 9 128 Bucket: 1048, 0, 14513, 1, 14519, 925 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
murzik_one Опубликовано 28 ноября, 2012 · Жалоба После приминения: net.isr.direct=1 net.isr.direct_force=1 система стабилизировалась, как то так: last pid: 98117; load averages: 0.68, 0.69, 0.49 up 6+02:36:51 21:08:29 95 processes: 11 running, 56 sleeping, 1 stopped, 27 waiting CPU 0: 0.0% user, 0.0% nice, 0.4% system, 84.1% interrupt, 15.6% idle CPU 1: 0.0% user, 0.0% nice, 31.9% system, 1.9% interrupt, 66.3% idle CPU 2: 0.0% user, 0.0% nice, 40.0% system, 1.1% interrupt, 58.9% idle CPU 3: 0.0% user, 0.0% nice, 0.0% system, 90.0% interrupt, 10.0% idle Mem: 68M Active, 1409M Inact, 818M Wired, 252K Cache, 418M Buf, 1652M Free Swap: 4096M Total, 4096M Free PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND 12 root -68 - 0K 480K CPU3 3 536:08 90.92% {irq259: em1:rx 0} 12 root -68 - 0K 480K CPU0 0 28.3H 87.01% {irq256: em0:rx 0} 11 root 171 ki31 0K 64K RUN 2 119.1H 62.94% {idle: cpu2} 11 root 171 ki31 0K 64K RUN 1 101.7H 59.47% {idle: cpu1} 0 root -68 0 0K 208K CPU2 2 9:09 49.61% {em1 rxq} 0 root -68 0 0K 208K - 1 16:58 23.39% {em0 rxq} 11 root 171 ki31 0K 64K RUN 0 103.4H 21.04% {idle: cpu0} 11 root 171 ki31 0K 64K RUN 3 131.1H 9.52% {idle: cpu3} 98096 root 4 0 9120K 5376K STOP 1 0:14 2.10% cvsup 12 root -68 - 0K 480K WAIT 1 121:30 1.22% {irq257: em0:tx 0} 12 root -68 - 0K 480K WAIT 1 118:16 0.88% {irq260: em1:tx 0} 15 root 44 - 0K 16K syncer 1 15:01 0.15% syncer 0 root -68 0 0K 208K RUN 1 56:15 0.10% {em0 txq} 12 root -32 - 0K 480K WAIT 1 58:34 0.05% {swi4: clock} 1576 root 44 0 27340K 6916K select 1 21:38 0.05% snmpd 12 root -44 - 0K 480K WAIT 1 64.0H 0.00% {swi1: netisr 1} 12 root -44 - 0K 480K WAIT 1 18.4H 0.00% {swi1: netisr 3} 12 root -44 - 0K 480K WAIT 1 80:08 0.00% {swi1: netisr 2} 0 root -68 0 0K 208K RUN 1 46:40 0.00% {em1 txq} 0 root -68 0 0K 208K - 1 39:44 0.00% {dummynet} 13 root 44 - 0K 16K - 2 14:58 0.00% yarrow 1702 _bgpd 44 0 150M 146M select 1 6:14 0.00% bgpd netstat -h -w1 input (Total) output packets errs idrops bytes packets errs bytes colls 108K 0 0 88M 97K 0 61M 0 109K 0 0 89M 98K 0 63M 0 108K 0 0 89M 97K 0 62M 0 109K 0 0 89M 98K 0 63M 0 109K 0 0 90M 97K 0 62M 0 106K 0 0 87M 95K 0 60M 0 109K 0 0 89M 95K 0 63M 0 110K 0 0 93M 101K 0 64M 0 ^C vmstat -z | grep -ve 0$ ITEM SIZE LIMIT USED FREE REQUESTS FAILURES 32 Bucket: 280, 0, 180, 2, 180, 1 64 Bucket: 536, 0, 154, 0, 167, 9 128 Bucket: 1048, 0, 14543, 1, 14549, 925 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 28 ноября, 2012 · Жалоба Файлуресы для баскетов - обычное дело, даже на только что загруженной системе вообще без сервисов и нагрузок. Не понятно: - почему весь траф на одном проце крутится? - почему такая дикая загрузка ядра? пф? димминет не прибит к 0 ядру? фастфорвадинг=1? дохрена правил в фаерволе? # NetISR net.isr.maxthreads="32" # Use at most this many CPUs for netisr processing net.isr.bindthreads="1" # Bind netisr threads to CPUs. PS: у меня роутер на закате (это такой двухядерный адм проц для ноутов) и реалтеке гигабитном больше пакетов жрёт в синтетике и не давится. Е5300 жрал по 150кппс гоняя их в юзерспейс и обратно через дивертсокеты. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dimic Опубликовано 29 ноября, 2012 (изменено) · Жалоба Ivan_83 1. ipfw 2. dummynet есть в ядре, но он не используется 3. net.inet.ip.fastforwarding: 0 4. ipfw list|wc -l >> 87 (правила nat и различные фильтрующие правила) 5. net.isr.maxthreads: 4 6. net.isr.bindthreads: 0 ну и net.isr.direct: 0 net.isr.direct_force=0 п.с. во время припадка один тред netisr полностью сжирает один процессор (причем постоянно прыгает с одного на другой). В последний раз помогло прекратить коллапс изменение параметра net.isr.direct и net.isr.direct_force на 1 Изменено 29 ноября, 2012 пользователем Dimic Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 29 ноября, 2012 · Жалоба net.isr.bindthreads="1" # Bind netisr threads to CPUs. в loader.conf добавить - прыгать перестанет. И потом хз какая у вас версия фри, может имеет смысл обновится. По поводу правил - имеет смысл их попытатся оптимизировать. PS: надеюсь HZ было 1000 при пересборке ядра. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
murzik_one Опубликовано 29 ноября, 2012 (изменено) · Жалоба в loader.conf добавить - прыгать перестанет. И потом хз какая у вас версия фри, может имеет смысл обновится. По поводу правил - имеет смысл их попытатся оптимизировать. PS: надеюсь HZ было 1000 при пересборке ядра. FreeBSD bgp.xxx.xxx 8.2-RELEASE-p10 FreeBSD 8.2-RELEASE-p10 #1: Wed Nov 28 21:43:14 KRAT 2012 xxx@bgp.xxx.xxx:/usr/obj/usr/src/sys/BGP amd64 cat /usr/src/sys/amd64/conf/BGP | grep HZ options HZ=2000 В правилах особо оптимизировать нечего. Просто nat разнесен по абонентским подсетям, на каждую серую /21 по отдельному нату. 00200 65032921 34356139025 nat 200 ip from 10.0.0.0/21 to any 00200 39178696 40430832092 nat 200 ip from any to xxx.xxx.xxx.110 00201 13841177 8232242515 nat 201 ip from 10.0.8.0/21 to any 00201 7452712 5797414726 nat 201 ip from any to xxx.xxx.xxx.111 00202 25977913 16535827985 nat 202 ip from 10.0.16.0/21 to any 00202 15189967 14377697806 nat 202 ip from any to xxx.xxx.xxx.112 00203 48584868 28890272963 nat 203 ip from 10.0.24.0/21 to any 00203 25854340 23162237753 nat 203 ip from any to xxx.xxx.xxx.113 00204 62020028 32237717874 nat 204 ip from 10.0.32.0/21 to any 00204 37590991 36487198380 nat 204 ip from any to xxx.xxx.xxx.114 00205 52908233 36578115617 nat 205 ip from 10.0.40.0/21 to any 00205 32544423 34184109093 nat 205 ip from any to xxx.xxx.xxx.115 00206 0 0 nat 206 ip from 10.0.48.0/21 to any 00206 162 13785 nat 206 ip from any to xxx.xxx.xxx.116 00207 8004673 713812121 nat 207 ip from 10.0.56.0/21 to any 00207 6021879 6805394969 nat 207 ip from any to xxx.xxx.xxx.117 ... Кусочек для примера. При чем если так не разносить, климакс наспупает значительно раньше. Изменено 29 ноября, 2012 пользователем murzik_one Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
st_re Опубликовано 29 ноября, 2012 · Жалоба Эээ man ipfw на предмет tablearg ? И будет всего 2 таблицы и 2 правила. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 29 ноября, 2012 · Жалоба Ещё можно прибить powerd и энергосберегайки в биосе, типа С6 - тоже могут ронять производительность. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
st_re Опубликовано 29 ноября, 2012 · Жалоба В качестве бреда, а проц не греется часом ? А то у меня было както, кулер стоял криво, и оно при нагрузке начинало дико тормозить бо проц снижал частоту :/ Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
murzik_one Опубликовано 29 ноября, 2012 · Жалоба хм. идея интересная. попробую натравить забикс на температуру камня и корпуса. спасибо за идею. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dimic Опубликовано 30 ноября, 2012 · Жалоба Сутра накатил ядро 8.2 STABLE и заодно прибил треды netisr к ядрам (net.isr.bindthreads=1). Посмотрим что будет в ЧНН. На предмет лишнего в БИОСе посмотрим в период ночной смены. п.с. ко всему прочему еще и винт начал сыпаться на этом тазике :( Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dimic Опубликовано 8 декабря, 2012 (изменено) · Жалоба А еще предположение - может ли быть проблема в непатченных драйверах em на предмет крутилок hw.em.max_interrupt_rate? Такое впечатление, что пинги начинают расти после того, как количество прерываний на интерфейсах упирается в 8000. Ткните носом в матчасть, если это возможно. п.с. включение/отключение netisr особо ничего не меняет п.п.с в исходниках нашел лишь #define MAX_INTS_PER_SEC 8000 #define DEFAULT_ITR 1000000000/(MAX_INTS_PER_SEC * 256) На всякий случай прилагаю файлы исходников Изменено 8 декабря, 2012 пользователем Dimic Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dm1try Опубликовано 9 декабря, 2012 · Жалоба Как на em может быть 8K прерываний? Interrupt Modeation не используется? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dimic Опубликовано 9 декабря, 2012 · Жалоба Interrupt Modeation Я образно представляю себе "Координацию прерываний", но не знаю точно, насколько хорошо оно реализовано вот на этом Вот какие параметры присутствуют в sysctl: sysctl -a | grep dev.em.0. dev.em.0.%desc: Intel(R) PRO/1000 Network Connection 7.3.2 dev.em.0.%driver: em dev.em.0.%location: slot=0 function=0 dev.em.0.%pnpinfo: vendor=0x8086 device=0x10d3 subvendor=0x8086 subdevice=0xa01f class=0x020000 dev.em.0.%parent: pci2 dev.em.0.nvm: -1 dev.em.0.debug: -1 dev.em.0.fc: 3 dev.em.0.rx_int_delay: 0 dev.em.0.tx_int_delay: 66 dev.em.0.rx_abs_int_delay: 66 dev.em.0.tx_abs_int_delay: 66 dev.em.0.rx_processing_limit: 100 dev.em.0.eee_control: 0 dev.em.0.link_irq: 218203 dev.em.0.mbuf_alloc_fail: 0 dev.em.0.cluster_alloc_fail: 0 dev.em.0.dropped: 0 dev.em.0.tx_dma_fail: 0 dev.em.0.rx_overruns: 0 dev.em.0.watchdog_timeouts: 0 dev.em.0.device_control: 1477444168 dev.em.0.rx_control: 67141634 dev.em.0.fc_high_water: 18432 dev.em.0.fc_low_water: 16932 dev.em.0.queue0.txd_head: 182 dev.em.0.queue0.txd_tail: 185 dev.em.0.queue0.tx_irq: 4316624137 dev.em.0.queue0.no_desc_avail: 0 dev.em.0.queue0.rxd_head: 3032 dev.em.0.queue0.rxd_tail: 3021 dev.em.0.queue0.rx_irq: 4123528035 dev.em.0.mac_stats.excess_coll: 0 dev.em.0.mac_stats.single_coll: 0 dev.em.0.mac_stats.multiple_coll: 0 dev.em.0.mac_stats.late_coll: 0 dev.em.0.mac_stats.collision_count: 0 dev.em.0.mac_stats.symbol_errors: 0 dev.em.0.mac_stats.sequence_errors: 0 dev.em.0.mac_stats.defer_count: 0 dev.em.0.mac_stats.missed_packets: 694647 dev.em.0.mac_stats.recv_no_buff: 197751 dev.em.0.mac_stats.recv_undersize: 0 dev.em.0.mac_stats.recv_fragmented: 0 dev.em.0.mac_stats.recv_oversize: 0 dev.em.0.mac_stats.recv_jabber: 0 dev.em.0.mac_stats.recv_errs: 0 dev.em.0.mac_stats.crc_errs: 0 dev.em.0.mac_stats.alignment_errs: 0 dev.em.0.mac_stats.coll_ext_errs: 0 dev.em.0.mac_stats.xon_recvd: 999 dev.em.0.mac_stats.xon_txd: 1142 dev.em.0.mac_stats.xoff_recvd: 50307 dev.em.0.mac_stats.xoff_txd: 683103 dev.em.0.mac_stats.total_pkts_recvd: 12931708537 dev.em.0.mac_stats.good_pkts_recvd: 12930964864 dev.em.0.mac_stats.bcast_pkts_recvd: 381 dev.em.0.mac_stats.mcast_pkts_recvd: 0 dev.em.0.mac_stats.rx_frames_64: 3801646407 dev.em.0.mac_stats.rx_frames_65_127: 4450084534 dev.em.0.mac_stats.rx_frames_128_255: 485325743 dev.em.0.mac_stats.rx_frames_256_511: 167998510 dev.em.0.mac_stats.rx_frames_512_1023: 368733588 dev.em.0.mac_stats.rx_frames_1024_1522: 3657176082 dev.em.0.mac_stats.good_octets_recvd: 6300297688139 dev.em.0.mac_stats.good_octets_txd: 16195010143271 dev.em.0.mac_stats.total_pkts_txd: 15503279179 dev.em.0.mac_stats.good_pkts_txd: 15502594931 dev.em.0.mac_stats.bcast_pkts_txd: 1142423 dev.em.0.mac_stats.mcast_pkts_txd: 0 dev.em.0.mac_stats.tx_frames_64: 1039818386 dev.em.0.mac_stats.tx_frames_65_127: 2926796701 dev.em.0.mac_stats.tx_frames_128_255: 425274672 dev.em.0.mac_stats.tx_frames_256_511: 376433904 dev.em.0.mac_stats.tx_frames_512_1023: 358090192 dev.em.0.mac_stats.tx_frames_1024_1522: 10376181079 dev.em.0.mac_stats.tso_txd: 0 dev.em.0.mac_stats.tso_ctx_fail: 0 dev.em.0.interrupts.asserts: 150876 dev.em.0.interrupts.rx_pkt_timer: 17 dev.em.0.interrupts.rx_abs_timer: 0 dev.em.0.interrupts.tx_pkt_timer: 8 dev.em.0.interrupts.tx_abs_timer: 17 dev.em.0.interrupts.tx_queue_empty: 0 dev.em.0.interrupts.tx_queue_min_thresh: 0 dev.em.0.interrupts.rx_desc_min_thresh: 0 dev.em.0.interrupts.rx_overrun: 41 Ну и прерывания в данный момент: vmstat -i | grep em irq256: em0:rx 0 4382928414 7085 irq257: em0:tx 0 4325845138 6993 irq258: em0:link 271510 0 irq259: em1:rx 0 4416450123 7139 irq260: em1:tx 0 4350873324 7033 irq261: em1:link 97623 0 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
flow Опубликовано 9 декабря, 2012 · Жалоба dev.em.0.rx_int_delay: 0 dev.em.0.tx_int_delay: 66 dev.em.0.rx_abs_int_delay: 66 dev.em.0.tx_abs_int_delay: 66 Для начала попробуйте dev.em.0.rx_int_delay=600 dev.em.0.tx_int_delay=600 dev.em.0.rx_abs_int_delay=1000 dev.em.0.tx_abs_int_delay=1000 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
murzik_one Опубликовано 12 декабря, 2012 · Жалоба доброго дня. по советам заказали, оплатили. поулчили. Intel < E1G42ET> Gigabit Adapter Dual Port (OEM) PCI-E x4 10 / 100 / 1000Mbps поставили ее родную x4 в порт x16 завелось, оба порта есть в системе, igb0 и igb1 через igb0 трафик бегает, и с вланами и без, через igb1 не бегает вообще. root@bgp:/etc # uname -a FreeBSD bgp.xxx.xxx 9.1-RC3 FreeBSD 9.1-RC3 #0: Tue Dec 11 18:10:33 KRAT 2012 root@bgp.xxx.xxx:/usr/obj/usr/src/sys/GENERIC amd64 какие могут быть идеи? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 12 декабря, 2012 · Жалоба Буферов не хватает. В мыллисте вроде давно уже была дискуссия на тему увеличения дефолтного количества, но консерваторы победили. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dimic Опубликовано 12 декабря, 2012 · Жалоба vmstat -z|grep buf mbuf_packet: 256, 0, 17409, 2559,1217648382, 0, 0 mbuf: 256, 0, 2, 1675,1224291945, 0, 0 mbuf_cluster: 2048, 25600, 19968, 6, 19968, 0, 0 mbuf_jumbo_page: 4096, 12800, 0, 104, 8829953, 0, 0 mbuf_jumbo_9k: 9216, 6400, 0, 0, 0, 0, 0 mbuf_jumbo_16k: 16384, 3200, 0, 0, 0, 0, 0 mbuf_ext_refcnt: 4, 0, 0, 1008, 32015, 0, 0 netstat -m 17452/4193/21645 mbufs in use (current/cache/total) 17448/2526/19974/25600 mbuf clusters in use (current/cache/total/max) 17448/2520 mbuf+clusters out of packet secondary zone in use (current/cache) 0/104/104/12800 4k (page size) jumbo clusters in use (current/cache/total/max) 0/0/0/6400 9k jumbo clusters in use (current/cache/total/max) 0/0/0/3200 16k jumbo clusters in use (current/cache/total/max) 39259K/6516K/45775K bytes allocated to network (current/cache/total) 0/0/0 requests for mbufs denied (mbufs/clusters/mbuf+clusters) 0/0/0 requests for jumbo clusters denied (4k/9k/16k) 0/0/0 sfbufs in use (current/peak/max) 0 requests for sfbufs denied 0 requests for sfbufs delayed 0 requests for I/O initiated by sendfile 0 calls to protocol drain routines Вроде хватает. И при пнге пишет не "No Buffer Space Available", а "Host is down", хотя физически линк есть. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...