Перейти к содержимому
Калькуляторы

NAS на FreeBSD Нормальна ли нагрузка?

попутно вопросец, сколько трафика и какой kpps можно отрутить посредствои такого сервачка? (в стойке пылится).

 

HP Proliant DL360 G4 (двупроцессорный ксеньчик с хипертрейдингом), мозга вроде 2гига.

 

записей в файерволе

ipfw show | wc -l

>>> 59

 

из сопутствующего snmpd (для кактуса) + apache (ловить завороты с таблички при блокировках) + zabbix агент + ipcad (сбор netflow статы)

 

зы. уж больно мне нравятся его сетевушки =)

Изменено пользователем murzik_one

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

попутно вопросец, сколько трафика и какой kpps можно отрутить посредствои такого сервачка? (в стойке пылится).

 

HP Proliant DL360 G4 (двупроцессорный ксеньчик с хипертрейдингом), мозга вроде 2гига.

 

записей в файерволе

ipfw show | wc -l

>>> 59

 

 

 

 

из сопутствующего snmpd (для кактуса) + apache (ловить завороты с таблички при блокировках) + zabbix агент + ipcad (сбор netflow статы)

 

зы. уж больно мне нравятся его сетевушки =)

 

 

pptp + mpd4 + ipfw nat = около 70-90kps. 7.x на них плохо сидит. А вот 8.2 села хорошо.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

pptp + mpd4 + ipfw nat = около 70-90kps. 7.x на них плохо сидит. А вот 8.2 села хорошо.

 

70-90 это в обе стороны, или только в одну?

а то у меня сейчас в пиках (в чнн) от 80 до 110 кппс суммарно.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

в чем может быть косяк, а то как вечер, у меня рутер захлебывается.

vmstat -z

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ivan_83

 

 vmstat -z | grep -ve 0$
ITEM                     SIZE     LIMIT      USED      FREE  REQUESTS  FAILURES

32 Bucket:                280,        0,      178,        4,      178,        1
64 Bucket:                536,        0,      147,        0,      160,        9
128 Bucket:              1048,        0,    14248,        2,    14254,      743

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

net.isr.direct=1

Попробуйте 0 поставить.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Но вроде пока терпимо. Если опяпть проблема всплывет, отпишусь.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Не прошло и года... =(

 

last pid: 96894;  load averages:  0.05,  0.02,  0.00                                                                                                                         up 6+01:44:41  20:16:19
126 processes: 7 running, 91 sleeping, 28 waiting
CPU 0:  0.0% user,  0.0% nice,  0.8% system, 35.0% interrupt, 64.3% idle
CPU 1:  0.0% user,  0.0% nice,  0.8% system, 49.2% interrupt, 50.0% idle
CPU 2:  0.0% user,  0.0% nice,  1.1% system, 49.8% interrupt, 49.1% idle
CPU 3:  0.0% user,  0.0% nice,  0.0% system, 32.8% interrupt, 67.2% idle
Mem: 116M Active, 929M Inact, 695M Wired, 252K Cache, 418M Buf, 2207M Free
Swap: 4096M Total, 4096M Free

 PID USERNAME PRI NICE   SIZE    RES STATE   C   TIME   WCPU COMMAND
  12 root     -44    -     0K   480K CPU2    2  63.4H 99.46% {swi1: netisr 1}
  11 root     171 ki31     0K    64K CPU3    3 130.7H 68.12% {idle: cpu3}
  11 root     171 ki31     0K    64K RUN     0 102.9H 61.18% {idle: cpu0}
  12 root     -44    -     0K   480K CPU1    1  18.2H 60.06% {swi1: netisr 3}
  11 root     171 ki31     0K    64K RUN     2 118.6H 57.96% {idle: cpu2}
  11 root     171 ki31     0K    64K RUN     1 101.3H 53.12% {idle: cpu1}
  12 root     -68    -     0K   480K WAIT    3 519:10  3.27% {irq259: em1:rx 0}
  12 root     -68    -     0K   480K WAIT    0  28.1H  2.59% {irq256: em0:rx 0}
  12 root     -68    -     0K   480K WAIT    1 120:56  0.63% {irq257: em0:tx 0}
  12 root     -68    -     0K   480K WAIT    0 117:48  0.49% {irq260: em1:tx 0}
   0 root     -68    0     0K   208K -       3  56:02  0.10% {em0 txq}
  12 root     -44    -     0K   480K WAIT    0  79:56  0.00% {swi1: netisr 2}
  12 root     -32    -     0K   480K WAIT    0  58:16  0.00% {swi4: clock}
   0 root     -68    0     0K   208K -       3  46:31  0.00% {em1 txq}

 

 netstat -h -w1
           input        (Total)           output
  packets  errs idrops      bytes    packets  errs      bytes colls
      57K     0     0        33M        51K     0        23M     0
      57K     0     0        34M        52K     0        25M     0
      59K     0     0        37M        53K     0        26M     0
      57K     0     0        34M        52K     0        26M     0
      56K     0     0        33M        49K     0        23M     0
      53K     0     0        30M        49K     0        23M     0
      54K     0     0        30M        48K     0        22M     0
      53K     0     0        29M        48K     0        22M     0
      54K     0     0        30M        51K     0        23M     0
      31K     0     0        13M        13K     0       7.6M     0
      51K     0     0        28M        49K     0        20M     0
      57K     0     0        34M        51K     0        23M     0
      59K     0     0        36M        52K     0        24M     0
      59K     0     0        36M        54K     0        25M     0
      64K     0     0        41M        57K     0        27M     0
      61K     0     0        40M        55K     0        27M     0
^C

 

 

 vmstat -z | grep -ve 0$
ITEM                     SIZE     LIMIT      USED      FREE  REQUESTS  FAILURES

32 Bucket:                280,        0,      180,        2,      180,        1
64 Bucket:                536,        0,      154,        0,      167,        9
128 Bucket:              1048,        0,    14513,        1,    14519,      925

 

d408cfb67a39t.jpg

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

После приминения:

 

net.isr.direct=1
net.isr.direct_force=1

 

система стабилизировалась, как то так:

 

last pid: 98117;  load averages:  0.68,  0.69,  0.49                                                                                                                         up 6+02:36:51  21:08:29
95 processes:  11 running, 56 sleeping, 1 stopped, 27 waiting
CPU 0:  0.0% user,  0.0% nice,  0.4% system, 84.1% interrupt, 15.6% idle
CPU 1:  0.0% user,  0.0% nice, 31.9% system,  1.9% interrupt, 66.3% idle
CPU 2:  0.0% user,  0.0% nice, 40.0% system,  1.1% interrupt, 58.9% idle
CPU 3:  0.0% user,  0.0% nice,  0.0% system, 90.0% interrupt, 10.0% idle
Mem: 68M Active, 1409M Inact, 818M Wired, 252K Cache, 418M Buf, 1652M Free
Swap: 4096M Total, 4096M Free

 PID USERNAME PRI NICE   SIZE    RES STATE   C   TIME   WCPU COMMAND
  12 root     -68    -     0K   480K CPU3    3 536:08 90.92% {irq259: em1:rx 0}
  12 root     -68    -     0K   480K CPU0    0  28.3H 87.01% {irq256: em0:rx 0}
  11 root     171 ki31     0K    64K RUN     2 119.1H 62.94% {idle: cpu2}
  11 root     171 ki31     0K    64K RUN     1 101.7H 59.47% {idle: cpu1}
   0 root     -68    0     0K   208K CPU2    2   9:09 49.61% {em1 rxq}
   0 root     -68    0     0K   208K -       1  16:58 23.39% {em0 rxq}
  11 root     171 ki31     0K    64K RUN     0 103.4H 21.04% {idle: cpu0}
  11 root     171 ki31     0K    64K RUN     3 131.1H  9.52% {idle: cpu3}
98096 root       4    0  9120K  5376K STOP    1   0:14  2.10% cvsup
  12 root     -68    -     0K   480K WAIT    1 121:30  1.22% {irq257: em0:tx 0}
  12 root     -68    -     0K   480K WAIT    1 118:16  0.88% {irq260: em1:tx 0}
  15 root      44    -     0K    16K syncer  1  15:01  0.15% syncer
   0 root     -68    0     0K   208K RUN     1  56:15  0.10% {em0 txq}
  12 root     -32    -     0K   480K WAIT    1  58:34  0.05% {swi4: clock}
1576 root      44    0 27340K  6916K select  1  21:38  0.05% snmpd
  12 root     -44    -     0K   480K WAIT    1  64.0H  0.00% {swi1: netisr 1}
  12 root     -44    -     0K   480K WAIT    1  18.4H  0.00% {swi1: netisr 3}
  12 root     -44    -     0K   480K WAIT    1  80:08  0.00% {swi1: netisr 2}
   0 root     -68    0     0K   208K RUN     1  46:40  0.00% {em1 txq}
   0 root     -68    0     0K   208K -       1  39:44  0.00% {dummynet}
  13 root      44    -     0K    16K -       2  14:58  0.00% yarrow
1702 _bgpd     44    0   150M   146M select  1   6:14  0.00% bgpd

 

 

netstat -h -w1
           input        (Total)           output
  packets  errs idrops      bytes    packets  errs      bytes colls
     108K     0     0        88M        97K     0        61M     0
     109K     0     0        89M        98K     0        63M     0
     108K     0     0        89M        97K     0        62M     0
     109K     0     0        89M        98K     0        63M     0
     109K     0     0        90M        97K     0        62M     0
     106K     0     0        87M        95K     0        60M     0
     109K     0     0        89M        95K     0        63M     0
     110K     0     0        93M       101K     0        64M     0
^C

 

vmstat -z | grep -ve 0$
ITEM                     SIZE     LIMIT      USED      FREE  REQUESTS  FAILURES

32 Bucket:                280,        0,      180,        2,      180,        1
64 Bucket:                536,        0,      154,        0,      167,        9
128 Bucket:              1048,        0,    14543,        1,    14549,      925

 

6fa6aed9c64bt.jpg

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Файлуресы для баскетов - обычное дело, даже на только что загруженной системе вообще без сервисов и нагрузок.

 

Не понятно:

- почему весь траф на одном проце крутится?

- почему такая дикая загрузка ядра?

 

пф? димминет не прибит к 0 ядру? фастфорвадинг=1? дохрена правил в фаерволе?

# NetISR

net.isr.maxthreads="32" # Use at most this many CPUs for netisr processing

net.isr.bindthreads="1" # Bind netisr threads to CPUs.

 

 

PS: у меня роутер на закате (это такой двухядерный адм проц для ноутов) и реалтеке гигабитном больше пакетов жрёт в синтетике и не давится. Е5300 жрал по 150кппс гоняя их в юзерспейс и обратно через дивертсокеты.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ivan_83

1. ipfw

2. dummynet есть в ядре, но он не используется

3. net.inet.ip.fastforwarding: 0

4. ipfw list|wc -l >> 87 (правила nat и различные фильтрующие правила)

5. net.isr.maxthreads: 4

6. net.isr.bindthreads: 0

 

ну и

net.isr.direct: 0
net.isr.direct_force=0

 

п.с. во время припадка один тред netisr полностью сжирает один процессор (причем постоянно прыгает с одного на другой). В последний раз помогло прекратить коллапс изменение параметра net.isr.direct и net.isr.direct_force на 1

Изменено пользователем Dimic

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

net.isr.bindthreads="1" # Bind netisr threads to CPUs.

в loader.conf добавить - прыгать перестанет.

И потом хз какая у вас версия фри, может имеет смысл обновится.

По поводу правил - имеет смысл их попытатся оптимизировать.

 

PS: надеюсь HZ было 1000 при пересборке ядра.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

в loader.conf добавить - прыгать перестанет.

И потом хз какая у вас версия фри, может имеет смысл обновится.

По поводу правил - имеет смысл их попытатся оптимизировать.

 

PS: надеюсь HZ было 1000 при пересборке ядра.

 

FreeBSD bgp.xxx.xxx 8.2-RELEASE-p10 FreeBSD 8.2-RELEASE-p10 #1: Wed Nov 28 21:43:14 KRAT 2012     xxx@bgp.xxx.xxx:/usr/obj/usr/src/sys/BGP  amd64

cat /usr/src/sys/amd64/conf/BGP | grep HZ
options         HZ=2000

 

В правилах особо оптимизировать нечего. Просто nat разнесен по абонентским подсетям, на каждую серую /21 по отдельному нату.

 

00200   65032921   34356139025 nat 200 ip from 10.0.0.0/21 to any
00200   39178696   40430832092 nat 200 ip from any to xxx.xxx.xxx.110
00201   13841177    8232242515 nat 201 ip from 10.0.8.0/21 to any
00201    7452712    5797414726 nat 201 ip from any to xxx.xxx.xxx.111
00202   25977913   16535827985 nat 202 ip from 10.0.16.0/21 to any
00202   15189967   14377697806 nat 202 ip from any to xxx.xxx.xxx.112
00203   48584868   28890272963 nat 203 ip from 10.0.24.0/21 to any
00203   25854340   23162237753 nat 203 ip from any to xxx.xxx.xxx.113
00204   62020028   32237717874 nat 204 ip from 10.0.32.0/21 to any
00204   37590991   36487198380 nat 204 ip from any to xxx.xxx.xxx.114
00205   52908233   36578115617 nat 205 ip from 10.0.40.0/21 to any
00205   32544423   34184109093 nat 205 ip from any to xxx.xxx.xxx.115
00206          0             0 nat 206 ip from 10.0.48.0/21 to any
00206        162         13785 nat 206 ip from any to xxx.xxx.xxx.116
00207    8004673     713812121 nat 207 ip from 10.0.56.0/21 to any
00207    6021879    6805394969 nat 207 ip from any to xxx.xxx.xxx.117
...

 

Кусочек для примера.

 

При чем если так не разносить, климакс наспупает значительно раньше.

Изменено пользователем murzik_one

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Эээ man ipfw на предмет tablearg ? И будет всего 2 таблицы и 2 правила.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ещё можно прибить powerd и энергосберегайки в биосе, типа С6 - тоже могут ронять производительность.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

В качестве бреда, а проц не греется часом ? А то у меня было както, кулер стоял криво, и оно при нагрузке начинало дико тормозить бо проц снижал частоту :/

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

хм. идея интересная. попробую натравить забикс на температуру камня и корпуса.

спасибо за идею.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Сутра накатил ядро 8.2 STABLE и заодно прибил треды netisr к ядрам (net.isr.bindthreads=1). Посмотрим что будет в ЧНН.

На предмет лишнего в БИОСе посмотрим в период ночной смены.

 

п.с. ко всему прочему еще и винт начал сыпаться на этом тазике :(

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А еще предположение - может ли быть проблема в непатченных драйверах em на предмет крутилок hw.em.max_interrupt_rate?

Такое впечатление, что пинги начинают расти после того, как количество прерываний на интерфейсах упирается в 8000.

Ткните носом в матчасть, если это возможно.

 

п.с. включение/отключение netisr особо ничего не меняет

п.п.с в исходниках нашел лишь

#define MAX_INTS_PER_SEC        8000
#define DEFAULT_ITR          1000000000/(MAX_INTS_PER_SEC * 256)

На всякий случай прилагаю файлы исходников

Изменено пользователем Dimic

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Как на em может быть 8K прерываний? Interrupt Modeation не используется?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Interrupt Modeation

Я образно представляю себе "Координацию прерываний", но не знаю точно, насколько хорошо оно реализовано вот на этом

Вот какие параметры присутствуют в sysctl:

sysctl -a | grep dev.em.0.
dev.em.0.%desc: Intel(R) PRO/1000 Network Connection 7.3.2
dev.em.0.%driver: em
dev.em.0.%location: slot=0 function=0
dev.em.0.%pnpinfo: vendor=0x8086 device=0x10d3 subvendor=0x8086 subdevice=0xa01f class=0x020000
dev.em.0.%parent: pci2
dev.em.0.nvm: -1
dev.em.0.debug: -1
dev.em.0.fc: 3
dev.em.0.rx_int_delay: 0
dev.em.0.tx_int_delay: 66
dev.em.0.rx_abs_int_delay: 66
dev.em.0.tx_abs_int_delay: 66
dev.em.0.rx_processing_limit: 100
dev.em.0.eee_control: 0
dev.em.0.link_irq: 218203
dev.em.0.mbuf_alloc_fail: 0
dev.em.0.cluster_alloc_fail: 0
dev.em.0.dropped: 0
dev.em.0.tx_dma_fail: 0
dev.em.0.rx_overruns: 0
dev.em.0.watchdog_timeouts: 0
dev.em.0.device_control: 1477444168
dev.em.0.rx_control: 67141634
dev.em.0.fc_high_water: 18432
dev.em.0.fc_low_water: 16932
dev.em.0.queue0.txd_head: 182
dev.em.0.queue0.txd_tail: 185
dev.em.0.queue0.tx_irq: 4316624137
dev.em.0.queue0.no_desc_avail: 0
dev.em.0.queue0.rxd_head: 3032
dev.em.0.queue0.rxd_tail: 3021
dev.em.0.queue0.rx_irq: 4123528035
dev.em.0.mac_stats.excess_coll: 0
dev.em.0.mac_stats.single_coll: 0
dev.em.0.mac_stats.multiple_coll: 0
dev.em.0.mac_stats.late_coll: 0
dev.em.0.mac_stats.collision_count: 0
dev.em.0.mac_stats.symbol_errors: 0
dev.em.0.mac_stats.sequence_errors: 0
dev.em.0.mac_stats.defer_count: 0
dev.em.0.mac_stats.missed_packets: 694647
dev.em.0.mac_stats.recv_no_buff: 197751
dev.em.0.mac_stats.recv_undersize: 0
dev.em.0.mac_stats.recv_fragmented: 0
dev.em.0.mac_stats.recv_oversize: 0
dev.em.0.mac_stats.recv_jabber: 0
dev.em.0.mac_stats.recv_errs: 0
dev.em.0.mac_stats.crc_errs: 0
dev.em.0.mac_stats.alignment_errs: 0
dev.em.0.mac_stats.coll_ext_errs: 0
dev.em.0.mac_stats.xon_recvd: 999
dev.em.0.mac_stats.xon_txd: 1142
dev.em.0.mac_stats.xoff_recvd: 50307
dev.em.0.mac_stats.xoff_txd: 683103
dev.em.0.mac_stats.total_pkts_recvd: 12931708537
dev.em.0.mac_stats.good_pkts_recvd: 12930964864
dev.em.0.mac_stats.bcast_pkts_recvd: 381
dev.em.0.mac_stats.mcast_pkts_recvd: 0
dev.em.0.mac_stats.rx_frames_64: 3801646407
dev.em.0.mac_stats.rx_frames_65_127: 4450084534
dev.em.0.mac_stats.rx_frames_128_255: 485325743
dev.em.0.mac_stats.rx_frames_256_511: 167998510
dev.em.0.mac_stats.rx_frames_512_1023: 368733588
dev.em.0.mac_stats.rx_frames_1024_1522: 3657176082
dev.em.0.mac_stats.good_octets_recvd: 6300297688139
dev.em.0.mac_stats.good_octets_txd: 16195010143271
dev.em.0.mac_stats.total_pkts_txd: 15503279179
dev.em.0.mac_stats.good_pkts_txd: 15502594931
dev.em.0.mac_stats.bcast_pkts_txd: 1142423
dev.em.0.mac_stats.mcast_pkts_txd: 0
dev.em.0.mac_stats.tx_frames_64: 1039818386
dev.em.0.mac_stats.tx_frames_65_127: 2926796701
dev.em.0.mac_stats.tx_frames_128_255: 425274672
dev.em.0.mac_stats.tx_frames_256_511: 376433904
dev.em.0.mac_stats.tx_frames_512_1023: 358090192
dev.em.0.mac_stats.tx_frames_1024_1522: 10376181079
dev.em.0.mac_stats.tso_txd: 0
dev.em.0.mac_stats.tso_ctx_fail: 0
dev.em.0.interrupts.asserts: 150876
dev.em.0.interrupts.rx_pkt_timer: 17
dev.em.0.interrupts.rx_abs_timer: 0
dev.em.0.interrupts.tx_pkt_timer: 8
dev.em.0.interrupts.tx_abs_timer: 17
dev.em.0.interrupts.tx_queue_empty: 0
dev.em.0.interrupts.tx_queue_min_thresh: 0
dev.em.0.interrupts.rx_desc_min_thresh: 0
dev.em.0.interrupts.rx_overrun: 41

Ну и прерывания в данный момент:

vmstat -i | grep em
irq256: em0:rx 0              4382928414       7085
irq257: em0:tx 0              4325845138       6993
irq258: em0:link                  271510          0
irq259: em1:rx 0              4416450123       7139
irq260: em1:tx 0              4350873324       7033
irq261: em1:link                   97623          0

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

dev.em.0.rx_int_delay: 0

dev.em.0.tx_int_delay: 66

dev.em.0.rx_abs_int_delay: 66

dev.em.0.tx_abs_int_delay: 66

Для начала попробуйте

dev.em.0.rx_int_delay=600
dev.em.0.tx_int_delay=600
dev.em.0.rx_abs_int_delay=1000
dev.em.0.tx_abs_int_delay=1000

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

доброго дня.

по советам заказали, оплатили. поулчили.

Intel < E1G42ET> Gigabit Adapter Dual Port (OEM) PCI-E x4 10 / 100 / 1000Mbps

поставили ее родную x4 в порт x16

завелось, оба порта есть в системе, igb0 и igb1

через igb0 трафик бегает, и с вланами и без, через igb1 не бегает вообще.

root@bgp:/etc # uname -a
FreeBSD bgp.xxx.xxx 9.1-RC3 FreeBSD 9.1-RC3 #0: Tue Dec 11 18:10:33 KRAT 2012     root@bgp.xxx.xxx:/usr/obj/usr/src/sys/GENERIC  amd64

 

какие могут быть идеи?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Буферов не хватает.

В мыллисте вроде давно уже была дискуссия на тему увеличения дефолтного количества, но консерваторы победили.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

 vmstat -z|grep buf
mbuf_packet:            256,      0,   17409,    2559,1217648382,   0,   0
mbuf:                   256,      0,       2,    1675,1224291945,   0,   0
mbuf_cluster:          2048,  25600,   19968,       6,   19968,   0,   0
mbuf_jumbo_page:       4096,  12800,       0,     104, 8829953,   0,   0
mbuf_jumbo_9k:         9216,   6400,       0,       0,       0,   0,   0
mbuf_jumbo_16k:       16384,   3200,       0,       0,       0,   0,   0
mbuf_ext_refcnt:          4,      0,       0,    1008,   32015,   0,   0

 

netstat -m
17452/4193/21645 mbufs in use (current/cache/total)
17448/2526/19974/25600 mbuf clusters in use (current/cache/total/max)
17448/2520 mbuf+clusters out of packet secondary zone in use (current/cache)
0/104/104/12800 4k (page size) jumbo clusters in use (current/cache/total/max)
0/0/0/6400 9k jumbo clusters in use (current/cache/total/max)
0/0/0/3200 16k jumbo clusters in use (current/cache/total/max)
39259K/6516K/45775K bytes allocated to network (current/cache/total)
0/0/0 requests for mbufs denied (mbufs/clusters/mbuf+clusters)
0/0/0 requests for jumbo clusters denied (4k/9k/16k)
0/0/0 sfbufs in use (current/peak/max)
0 requests for sfbufs denied
0 requests for sfbufs delayed
0 requests for I/O initiated by sendfile
0 calls to protocol drain routines

 

Вроде хватает. И при пнге пишет не "No Buffer Space Available", а "Host is down", хотя физически линк есть.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.