Jump to content
Калькуляторы

la на NAT/shaping серверах

Столкнулся с необычным поведением двух очень похожих серверов:

1й - core i5-2500 + 2*2Gb ram + intel E1G42ET (dual port, 82576 chip, driver 2.2.3)

8.2-RELEASE-p6 FreeBSD 8.2-RELEASE-p6 #1 amd64

2й - core i5-3570 + 1*4Gb ram + intel E1G42ET (dual port, 82576 chip, driver 2.3.1)

8.3-RELEASE FreeBSD 8.3-RELEASE #0 amd64

 

оба сервера используются под NAT/shaping + на 1м живет mpd5 с парой сотен подключений, ipfw на таблицах, конфиги всего идентичны, однако под нагрузкой существенно отличаются la на серверах.

1й:

#netstat -w1 -h
           input        (Total)           output
  packets  errs idrops      bytes    packets  errs      bytes colls
     148K     0     0       117M       145K     0       121M     0
     149K     0     0       117M       146K     0       120M     0
     154K     0     0       122M       152K     0       126M     0
     149K     0     0       117M       147K     0       122M     0

#top -PSH

last pid: 46669;  load averages:  0.27,  0.45,  0.57                                                                      up 2+18:29:20  22:00:37
118 processes: 13 running, 79 sleeping, 26 waiting
CPU 0:  2.8% user,  0.0% nice, 11.2% system, 27.3% interrupt, 58.7% idle
CPU 1:  2.8% user,  0.0% nice,  7.7% system, 30.1% interrupt, 59.4% idle
CPU 2:  0.0% user,  0.0% nice, 23.1% system, 45.5% interrupt, 31.5% idle
CPU 3:  3.5% user,  0.0% nice,  9.8% system, 54.5% interrupt, 32.2% idle
Mem: 38M Active, 678M Inact, 654M Wired, 1744K Cache, 412M Buf, 2504M Free
Swap: 4096M Total, 4096M Free

 PID USERNAME PRI NICE   SIZE    RES STATE   C   TIME   WCPU COMMAND
  11 root     171 ki31     0K    64K RUN     0  46.6H 59.52% {idle: cpu0}
  11 root     171 ki31     0K    64K RUN     1  51.5H 53.96% {idle: cpu1}
  11 root     171 ki31     0K    64K RUN     3  34.4H 38.33% {idle: cpu3}
  12 root     -64    -     0K   512K RUN     3  19.1H 29.93% {irq16: ehci0}
  11 root     171 ki31     0K    64K RUN     2  51.0H 29.30% {idle: cpu2}
  12 root     -68    -     0K   512K WAIT    2 473:39 28.52% {irq258: igb0:que}
  12 root     -68    -     0K   512K RUN     1 411:04 27.34% {irq257: igb0:que}
  12 root     -68    -     0K   512K CPU0    0 365:54 24.22% {irq256: igb0:que}
  13 root      56    -     0K    32K CPU2    2 251:50 21.00% {ng_queue1}
  12 root     -68    -     0K   512K RUN     3 421:36 18.12% {irq259: igb0:que}
  12 root     -68    -     0K   512K WAIT    2 180:53 12.11% {irq262: igb1:que}
   0 root     -68    0     0K   240K -       1  69:57 10.30% {igb1 que}
  12 root     -68    -     0K   512K RUN     3 149:41  9.72% {irq263: igb1:que}
  12 root     -68    -     0K   512K CPU1    1 155:47  9.57% {irq261: igb1:que}
  12 root     -68    -     0K   512K WAIT    0 144:16  7.67% {irq264: igb1:que}
   0 root     -68    0     0K   240K -       2  23:18  4.98% {igb1 que}
  13 root      65    -     0K    32K CPU0    0 331:12  4.54% {ng_queue0}
   0 root     -68    0     0K   240K -       2  21:02  4.39% {igb1 que}
   0 root     -68    0     0K   240K -       2   7:15  0.98% {igb0 que}
   0 root     -68    0     0K   240K -       2  14:50  0.59% {igb1 que}
   0 root     -68    0     0K   240K -       2   8:03  0.39% {igb0 que}
  12 root     -32    -     0K   512K WAIT    3  33:09  0.34% {swi4: clock}
   0 root     -68    0     0K   240K -       0 522:10  0.10% {dummynet}
   0 root     -68    0     0K   240K -       0   6:52  0.10% {igb0 que}
1290 root      44    0 47800K 15504K select  3  19:36  0.00% {mpd5}

 

# netstat -w1 -h
           input        (Total)           output
  packets  errs idrops      bytes    packets  errs      bytes colls
     116k     0     0        97M       114k     0        97M     0
     108k     0     0        91M       106k     0        91M     0
     112k     0     0        95M       109k     0        94M     0
     114k     0     0        96M       111k     0        96M     0

#top -PSH

last pid: 45914;  load averages:  1.92,  2.03,  2.18                                                              up 2+18:30:47  22:02:04
120 processes: 12 running, 84 sleeping, 24 waiting
CPU 0:  0.0% user,  0.0% nice,  0.5% system, 29.5% interrupt, 69.9% idle
CPU 1:  1.5% user,  0.0% nice,  1.5% system, 33.5% interrupt, 63.4% idle
CPU 2:  0.0% user,  0.0% nice,  3.6% system, 31.4% interrupt, 64.9% idle
CPU 3:  0.5% user,  0.0% nice,  1.5% system, 32.0% interrupt, 66.0% idle
Mem: 32M Active, 303M Inact, 633M Wired, 576K Cache, 386M Buf, 2657M Free
Swap: 4096M Total, 4096M Free

 PID USERNAME PRI NICE   SIZE    RES STATE   C   TIME   WCPU COMMAND
  11 root     171 ki31     0K    64K RUN     2  52.7H 72.66% idle{idle: cpu2}
  11 root     171 ki31     0K    64K CPU3    3  52.8H 71.14% idle{idle: cpu3}
  11 root     171 ki31     0K    64K RUN     1  52.7H 70.46% idle{idle: cpu1}
  11 root     171 ki31     0K    64K RUN     0  45.3H 69.34% idle{idle: cpu0}
  12 root     -68    -     0K   480K WAIT    3 520:35 21.04% intr{irq259: igb0:que}
  12 root     -68    -     0K   480K RUN     0 434:46 20.21% intr{irq256: igb0:que}
  12 root     -68    -     0K   480K RUN     1 491:11 19.87% intr{irq257: igb0:que}
  12 root     -68    -     0K   480K CPU2    2 514:34 16.94% intr{irq258: igb0:que}
  12 root     -68    -     0K   480K RUN     2 217:31 10.30% intr{irq262: igb1:que}
  12 root     -68    -     0K   480K RUN     1 216:42  9.42% intr{irq261: igb1:que}
  12 root     -68    -     0K   480K RUN     0 214:03  9.18% intr{irq264: igb1:que}
  12 root     -68    -     0K   480K WAIT    3 222:25  8.45% intr{irq263: igb1:que}
  12 root     -32    -     0K   480K WAIT    2  34:22  0.93% intr{swi4: clock}
   0 root     -68    0     0K   256K -       3  40:51  0.83% kernel{igb1 que}
   0 root     -68    0     0K   256K -       3  37:58  0.83% kernel{igb1 que}
   0 root     -68    0     0K   256K -       1  24:11  0.63% kernel{igb1 que}
   0 root     -68    0     0K   256K -       2  43:32  0.39% kernel{igb1 que}
   0 root     -68    0     0K   256K -       1  10:35  0.34% kernel{igb0 que}
   0 root     -68    0     0K   256K CPU0    0 555:48  0.20% kernel{dummynet}
   0 root     -68    0     0K   256K -       0  10:04  0.10% kernel{igb0 que}
   0 root     -68    0     0K   256K -       3   9:45  0.10% kernel{igb0 que}
   0 root     -68    0     0K   256K -       0   7:47  0.05% kernel{igb0 que}

 

Причем по проценту бездействия 2й сервер вроде как меньше нагружен, но la у него выше, несмотря на меньший объем трафика и более шустрый процессор. Неужели такую разницу дают те минимальные отличия в железе и версии freebsd?

Edited by pod

Share this post


Link to post
Share on other sites

Отличия по железу у вас как-бы громадны. Если я правильно понял - во втором сервере 1 планка памяти(одноканальный режим), а значит роутер из нее значительно слабее.

Share this post


Link to post
Share on other sites

Я бы для чистоты эксперимента добавил вторую планку памяти и версию драйвера поставил новее и одинаковую на обеих машинах.

 

Так проще мониторить ситуацию.

Share this post


Link to post
Share on other sites

Неужели режим работы памяти настолько влияет на производительность?

Узкое место современных софт-роутеров - именно память. Заставив систему работать с 1 каналом вместо двух вы ей серьезно подрезали крылья, вероятно как раз и вылазит эффект упора в ширину памяти при свободном CPU.

Share this post


Link to post
Share on other sites

Отличия по железу у вас как-бы громадны. Если я правильно понял - во втором сервере 1 планка памяти(одноканальный режим), а значит роутер из нее значительно слабее.

а как вы поняли что она одна?

Share this post


Link to post
Share on other sites

Отличия по железу у вас как-бы громадны. Если я правильно понял - во втором сервере 1 планка памяти(одноканальный режим), а значит роутер из нее значительно слабее.

а как вы поняли что она одна?

Так ТС в начале написал:

2й - core i5-3570 + 1*4Gb ram...

 

п.с.

неужели так память может влиять?

Share this post


Link to post
Share on other sites

Заглянул в сервер. у меня оказывает 3-х канальная память. Стоит 2 планки. Почитал, вроде как 3-х канальная не дает прирост особо. Поставил 3-ю. посмотрим на результаты.

Share this post


Link to post
Share on other sites

Поставил на второй сервер 2 планки памяти и драйвер для igb версии 2.2.3. Таким образом осталась только разница в версии freebsd и процессоре, который на втором сервере должен быть лучше. Но la остались такие как и были. На данный момент:

1й:

# netstat -w1 -h
           input        (Total)           output
  packets  errs idrops      bytes    packets  errs      bytes colls
      69K     0     0        53M        71K     0        60M     0

#top -PSH
last pid: 95622;  load averages:  0.39,  0.23,  0.17                                                                                up 7+06:57:23  10:28:40
108 processes: 8 running, 70 sleeping, 30 waiting
CPU 0:  0.0% user,  0.0% nice,  8.0% system,  6.9% interrupt, 85.1% idle
CPU 1:  0.0% user,  0.0% nice,  3.4% system, 16.1% interrupt, 80.5% idle
CPU 2:  1.1% user,  0.0% nice,  3.4% system, 18.4% interrupt, 77.0% idle
CPU 3:  0.0% user,  0.0% nice,  2.3% system, 46.0% interrupt, 51.7% idle
Mem: 34M Active, 656M Inact, 842M Wired, 172K Cache, 412M Buf, 2342M Free
Swap: 4096M Total, 4096M Free

 PID USERNAME PRI NICE   SIZE    RES STATE   C   TIME   WCPU COMMAND
  11 root     171 ki31     0K    64K CPU1    1 129.1H 88.23% {idle: cpu1}
  11 root     171 ki31     0K    64K CPU0    0 113.2H 86.08% {idle: cpu0}
  11 root     171 ki31     0K    64K CPU2    2 127.1H 81.93% {idle: cpu2}
  11 root     171 ki31     0K    64K RUN     3  85.8H 51.37% {idle: cpu3}
  12 root     -64    -     0K   512K RUN     3  48.4H 36.62% {irq16: ehci0}
  12 root     -68    -     0K   512K WAIT    2  25.8H 13.18% {irq258: igb0:que}
  13 root      48    -     0K    32K CPU0    0 785:47 10.94% {ng_queue1}
  12 root     -68    -     0K   512K WAIT    3  22.7H  9.81% {irq259: igb0:que}
  12 root     -68    -     0K   512K WAIT    1  22.2H  9.08% {irq257: igb0:que}
  12 root     -68    -     0K   512K WAIT    0  19.8H  7.62% {irq256: igb0:que}
  12 root     -68    -     0K   512K WAIT    1 513:28  4.93% {irq261: igb1:que}
  12 root     -68    -     0K   512K WAIT    2 579:42  4.49% {irq262: igb1:que}
  12 root     -68    -     0K   512K RUN     3 501:07  3.47% {irq263: igb1:que}
  12 root     -68    -     0K   512K WAIT    0 477:05  2.54% {irq264: igb1:que}
   0 root     -68    0     0K   240K -       2 227:24  0.59% {igb1 que}
  13 root      50    -     0K    32K sleep   3 764:51  0.49% {ng_queue0}
  12 root     -32    -     0K   512K WAIT    0  97:04  0.24% {swi4: clock}

 

#netstat -w1 -h
           input        (Total)           output
  packets  errs idrops      bytes    packets  errs      bytes colls
      17k     0     0        14M        17k     0        14M     0

#top -PSH
last pid: 47340;  load averages:  0.39,  0.24,  0.16                                                                                up 0+00:31:48  10:28:34
110 processes: 6 running, 75 sleeping, 29 waiting
CPU 0:  0.4% user,  0.0% nice,  1.7% system,  3.8% interrupt, 94.1% idle
CPU 1:  0.8% user,  0.0% nice,  0.4% system,  1.7% interrupt, 97.1% idle
CPU 2:  0.0% user,  0.0% nice,  0.0% system,  7.1% interrupt, 92.9% idle
CPU 3:  0.0% user,  0.0% nice,  0.4% system,  2.9% interrupt, 96.6% idle
Mem: 20M Active, 17M Inact, 216M Wired, 344K Cache, 20M Buf, 3372M Free
Swap: 4096M Total, 4096M Free

 PID USERNAME PRI NICE   SIZE    RES STATE   C   TIME   WCPU COMMAND
  11 root     171 ki31     0K    64K CPU3    3  31:10 100.00% idle{idle: cpu3}
  11 root     171 ki31     0K    64K CPU1    1  30:46 99.51% idle{idle: cpu1}
  11 root     171 ki31     0K    64K RUN     0  30:19 99.22% idle{idle: cpu0}
  11 root     171 ki31     0K    64K CPU2    2  31:00 93.95% idle{idle: cpu2}
  12 root     -68    -     0K   480K WAIT    2   0:18  3.42% intr{irq262: igb1:que}
  12 root     -68    -     0K   480K WAIT    2   0:18  2.73% intr{irq258: igb0:que}
  12 root     -68    -     0K   480K WAIT    1   0:18  2.15% intr{irq257: igb0:que}
  12 root     -68    -     0K   480K RUN     0   0:14  2.00% intr{irq264: igb1:que}
  12 root     -68    -     0K   480K WAIT    3   0:19  1.27% intr{irq259: igb0:que}
  12 root     -68    -     0K   480K WAIT    0   0:17  1.17% intr{irq256: igb0:que}
  12 root     -68    -     0K   480K WAIT    1   0:16  1.12% intr{irq261: igb1:que}
  12 root     -68    -     0K   480K WAIT    3   0:13  0.78% intr{irq263: igb1:que}
  12 root     -32    -     0K   480K WAIT    0   0:11  0.54% intr{swi4: clock}

Edited by pod

Share this post


Link to post
Share on other sites

Думаю, пока версии фри разные смысла ломать голову дальше нет.

Ещё, могут быть различия в самом трафике, которые могут влиять на загрузку проца.

Share this post


Link to post
Share on other sites

мне помогло добавление еще одной планки. До этого 2 планки стояло. Мать и проц 3-х канальная

Share this post


Link to post
Share on other sites

Думаю, пока версии фри разные смысла ломать голову дальше нет.

Ещё, могут быть различия в самом трафике, которые могут влиять на загрузку проца.

 

Характер трафика должен быть максимально схож - NATятся подсети с абонентами, по 1-1.5к на сервер. С версиями пока ничего не сделаю, т.к обновлять 8.2 с хорошими показателями не хочется, а ставить 8.2 на 2й сервер пока нет технической возможности - сервер на боевом дежурстве. Идеальный вариант был бы вообще склонировать систему с 1го сервера на 2й

Share this post


Link to post
Share on other sites

Заставил себя выйти в ночь и все-таки склонировал систему с первого сервера на второй. теперь la в норме на обоих серверах, несмотря на то, что на 2м вернул память в одноканале. Значит все дело в версии freebsd и freebsd 8.3 отличается от 8.2 более высоким load average, возможно именно в сочетании с сетевыми картами igb. Или изменился способ подсчета la, так как встречал информацию, что kernel nat в 8.2 не отображается в la

Edited by pod

Share this post


Link to post
Share on other sites

la ещё зависит от hz при сборке ядра. Чем меньше хз - тем грубее подсчёт и больше показывает. Зато на арм хреновинке у меня производительность при хз=100 поднялась процентов на 5-10%.

И куча других факторов о которых я даже не подозреваю...

Share this post


Link to post
Share on other sites

Не пойму в чем дело. Сервер работает 2 дня, затем прерывания начинают расти с каждым днем, хотя трафик и pps не растет. Freebsd 9.1 MPD5.6 PPPoE. Сетевые карты Intel 82576 2-х портовые , две штуки в lagg0 на uplink и lagg1 (вланы слушает PPPoE) .NAT нету, netflow нет.

 

График 1-день и во 2-ой день отличаются, прерывания растут. На этих прерываниях ходит PPPoE . На 3 день уже не справляется с трафиком. Как будто что-то утекает. После ребута , все ок. В первый день вообще может прокачать 1500 мбит и 3000 сессий.

 

Процессор

hw.model: Intel(R) Xeon(R) CPU           E5620  @ 2.40GHz

uname -a

FreeBSD pppoe2.xxx.ru 9.1-PRERELEASE FreeBSD 9.1-PRERELEASE #1 r243569: Tue Nov 27 08:47:54 UTC 2012     root@pppoe2.xxx.ru:/usr/obj/usr/src/sys/GENERIC.ok  amd64

 

top -SHPI (Во 2-ой день, а в первый был в 2 раза меньше при одинаковом трафике и кол-вом сессий)

last pid: 82808;  load averages:  2.12,  2.14,  1.96                                                                                                                            up 2+05:54:23  15:51:18
155 processes: 7 running, 110 sleeping, 38 waiting
CPU 0:  1.9% user,  0.0% nice,  0.0% system, 15.4% interrupt, 82.7% idle
CPU 1:  0.0% user,  0.0% nice,  0.0% system, 25.0% interrupt, 75.0% idle
CPU 2:  0.0% user,  0.0% nice,  0.0% system, 59.6% interrupt, 40.4% idle
CPU 3:  0.0% user,  0.0% nice,  0.0% system, 75.0% interrupt, 25.0% idle
Mem: 138M Active, 304M Inact, 803M Wired, 622M Buf, 4683M Free
Swap: 4096M Total, 4096M Free

 PID USERNAME PRI NICE   SIZE    RES STATE   C   TIME   WCPU COMMAND
  11 root     155 ki31     0K    64K RUN     0  42.4H 75.00% idle{idle: cpu0}
  11 root     155 ki31     0K    64K CPU1    1  43.1H 73.19% idle{idle: cpu1}
  12 root     -92    -     0K   640K CPU3    3 977:42 69.97% intr{irq271: igb3:que}
  12 root     -92    -     0K   640K CPU2    2 898:07 68.55% intr{irq266: igb2:que}
  11 root     155 ki31     0K    64K RUN     2  37.2H 35.60% idle{idle: cpu2}
  11 root     155 ki31     0K    64K RUN     3  36.0H 29.49% idle{idle: cpu3}
87666 root      29    0 37596K 11568K select  1  67:16  7.76% snmpd
  12 root     -92    -     0K   640K WAIT    1 132:24  5.96% intr{irq259: igb0:que}
  12 root     -92    -     0K   640K WAIT    0 128:03  5.96% intr{irq257: igb0:que}
  12 root     -92    -     0K   640K WAIT    1 129:08  5.86% intr{irq258: igb0:que}
  12 root     -92    -     0K   640K WAIT    0 133:01  5.76% intr{irq264: igb1:que}
  12 root     -92    -     0K   640K WAIT    0 166:22  5.47% intr{irq256: igb0:que}
  12 root     -92    -     0K   640K WAIT    1 129:09  5.27% intr{irq262: igb1:que}
  12 root     -92    -     0K   640K WAIT    1 136:49  4.88% intr{irq261: igb1:que}
  12 root     -92    -     0K   640K WAIT    0 130:24  4.59% intr{irq263: igb1:que}
12666 root      21    0   201M   148M select  2 117:38  1.86% mpd5{mpd5}
  12 root     -92    -     0K   640K WAIT    0  23:45  0.49% intr{irq267: igb2:que}
  12 root     -92    -     0K   640K WAIT    1  20:46  0.39% intr{irq272: igb3:que}

vmstat -i

pppoe2# vmstat -i
interrupt                          total       rate
irq1: atkbd0                         484          0
irq17: atapci0+                   748946          3
irq22: uhci2 ehci0*                   24          0
cpu0:timer                     217856857       1122
irq256: igb0:que 0            2206216507      11364
irq257: igb0:que 1             581958303       2997
irq258: igb0:que 2             589851497       3038
irq259: igb0:que 3             595861406       3069
irq260: igb0:link                      2          0
irq261: igb1:que 0             602716675       3104
irq262: igb1:que 1             591501353       3046
irq263: igb1:que 2             595067135       3065
irq264: igb1:que 3             602330313       3102
irq265: igb1:link                      3          0
irq266: igb2:que 0            1426977377       7350
irq267: igb2:que 1            1034078673       5326
irq268: igb2:que 2             103934187        535
irq269: igb2:que 3             106750526        549
irq270: igb2:link                      2          0
irq271: igb3:que 0            1455368054       7496
irq272: igb3:que 1             941925109       4851
irq273: igb3:que 2             100996264        520
irq274: igb3:que 3              98194261        505
irq275: igb3:link                      3          0
irq276: bge0                     4736870         24
cpu3:timer                     217341602       1119
cpu2:timer                     217331835       1119
cpu1:timer                     216559594       1115
Total                        12508303862      64431

 

ifconfig | grep ng -c

1418

 

netstat -w1 -h

 

pppoe2# netstat -w1 -h
           input        (Total)           output
  packets  errs idrops      bytes    packets  errs      bytes colls
     273k     0     0       180M       295k     0       257M     0
     282k     0     0       188M       304k     0       269M     0
     267k     0     0       179M       284k     0       244M     0

 

loader.conf

kern.maxfiles="25000"
kern.ipc.nmbclusters=262144
kern.ipc.nmbjumbop=262144
net.graph.maxdata=65536
net.graph.maxalloc=65536
net.link.ifqmaxlen=10240
net.inet.tcp.syncache.hashsize=1024
net.inet.tcp.syncache.bucketlimit=100
net.inet.tcp.tcbhashsize=4096
kern.ipc.nsfbufs=10240

hw.igb.rxd=4096
hw.igb.txd=4096
hw.igb.max_interrupt_rate=32000
net.graph.maxdgram=8388608
net.graph.recvspace=8388608
net.isr.defaultqlimit=4096

hw.igb.rx_process_limit=2048

sysctl.conf

dev.igb.0.rx_processing_limit=4096
dev.igb.1.rx_processing_limit=4096
dev.igb.2.rx_processing_limit=4096
dev.igb.3.rx_processing_limit=4096

net.inet.ip.fastforwarding=1
net.inet.ip.redirect=0
kern.random.sys.harvest.ethernet=0
kern.random.sys.harvest.point_to_point=0
kern.random.sys.harvest.interrupt=0
net.inet.ip.fw.verbose_limit=10
net.inet.icmp.icmplim=1500
net.inet.tcp.drop_synfin=1
net.inet.tcp.delayed_ack=0
net.inet.ip.process_options=0
net.inet.raw.maxdgram=16384
net.inet.raw.recvspace=16384

post-88211-043006600 1354189699_thumb.png

post-88211-046816900 1354189723_thumb.png

post-88211-018592900 1354189727_thumb.png

post-88211-068750600 1354189731_thumb.png

post-88211-088408000 1354189734_thumb.png

post-88211-035944100 1354189740_thumb.png

post-88211-049125800 1354189745_thumb.png

post-88211-054188500 1354189748_thumb.png

Share this post


Link to post
Share on other sites

hw.igb.rxd=4096 hw.igb.txd=4096 hw.igb.max_interrupt_rate=32000

Ему есть куда расти, вот и растёт.

Проверьте настройки перед ребутом - может они поменялись.

Ещё vmstat -z может показать чего много выделено, иногда помогает с утечками и при поиске узких мест.

Share this post


Link to post
Share on other sites

hw.igb.rxd=4096 hw.igb.txd=4096 hw.igb.max_interrupt_rate=32000

Ему есть куда расти, вот и растёт.

Проверьте настройки перед ребутом - может они поменялись.

Ещё vmstat -z может показать чего много выделено, иногда помогает с утечками и при поиске узких мест.

Уберу сегодня и посмотрю.

vmstat -z

 

pppoe2# vmstat -z
ITEM                   SIZE  LIMIT     USED     FREE      REQ FAIL SLEEP

UMA Kegs:               208,      0,     100,       2,     100,   0,   0
UMA Zones:              896,      0,     100,       0,     100,   0,   0
UMA Slabs:              568,      0,   30262,     769,  219054,   0,   0
UMA RCntSlabs:          568,      0,   35216,       1,   35216,   0,   0
UMA Hash:               256,      0,       1,      14,       4,   0,   0
16 Bucket:              152,      0,     134,      16,     134,   0,   0
32 Bucket:              280,      0,     195,       1,     195,   0,   0
64 Bucket:              536,      0,     169,       6,     169,  98,   0
128 Bucket:            1048,      0,    2644,       2,    2644,1373,   0
VM OBJECT:              232,      0,   68974,     322,22375710,   0,   0
MAP:                    232,      0,       7,      25,       7,   0,   0
KMAP ENTRY:             120, 227044,     170,     853, 2134372,   0,   0
MAP ENTRY:              120,      0,    7874,    7068,201178693,   0,   0
fakepg:                 120,      0,       0,     124,      90,   0,   0
mt_zone:               4112,      0,     301,      10,     301,   0,   0
16:                      16,      0,    4809,    1575,209900431,   0,   0
32:                      32,      0,    9815,    5032,9423503888,   0,   0
64:                      64,      0,   17700,    3748,160848842,   0,   0
128:                    128,      0,  101697,   56063,63216627,   0,   0
256:                    256,      0,   46551,    6069, 6889178,   0,   0
512:                    512,      0,    6056,    2834, 2090241,   0,   0
1024:                  1024,      0,      71,     241, 7514092,   0,   0
2048:                  2048,      0,    6572,    1418,21680026,   0,   0
4096:                  4096,      0,    5661,    3672, 2825128,   0,   0
Files:                   80,      0,     336,     474,100423817,   0,   0
TURNSTILE:              136,      0,     460,     100,     460,   0,   0
rl_entry:                40,      0,     155,     265,     155,   0,   0
umtx pi:                 96,      0,       0,       0,       0,   0,   0
MAC labels:              40,      0,       0,       0,       0,   0,   0
PROC:                  1184,      0,      60,     120, 1534459,   0,   0
THREAD:                1160,      0,     287,     172, 1114353,   0,   0
SLEEPQUEUE:              80,      0,     460,      91,     460,   0,   0
VMSPACE:                392,      0,      41,     159, 1534439,   0,   0
cpuset:                  72,      0,     127,     223,     170,   0,   0
audit_record:           960,      0,       0,       0,       0,   0,   0
mbuf_packet:            256,      0,   66375,    3897,16647703058,   0,   0
mbuf:                   256,      0,      91,    5162,16707941550,   0,   0
mbuf_cluster:          2048, 400000,   70272,       6,   70272,   0,   0
mbuf_jumbo_page:       4096, 262144,       0,      77,     208,   0,   0
mbuf_jumbo_9k:         9216,  65536,       0,       0,       0,   0,   0
mbuf_jumbo_16k:       16384,  32768,       0,       0,       0,   0,   0
mbuf_ext_refcnt:          4,      0,       0,       0,       0,   0,   0
NetGraph items:          72,  65540,       0,     406,55461341,   0,   0
NetGraph data items:     72,  65540,       0,     406,16653925344,   0,   0
g_bio:                  232,      0,       0,    6656, 2344461,   0,   0
ttyinq:                 160,      0,     195,      69,     630,   0,   0
ttyoutq:                256,      0,     103,      77,     335,   0,   0
ata_request:            328,      0,       0,     144,  781530,   0,   0
ata_composite:          336,      0,       0,       0,       0,   0,   0
VNODE:                  504,      0,  105024,     168, 2077630,   0,   0
VNODEPOLL:              112,      0,       1,      65,       1,   0,   0
NAMEI:                 1024,      0,       0,      96,14102245,   0,   0
S VFS Cache:            108,      0,   83093,   28711, 1668947,   0,   0
STS VFS Cache:          148,      0,       0,       0,       0,   0,   0
L VFS Cache:            328,      0,   24254,   19870,  503397,   0,   0
LTS VFS Cache:          368,      0,       0,       0,       0,   0,   0
DIRHASH:               1024,      0,    5996,      36,    5996,   0,   0
NCLNODE:                568,      0,       0,       0,       0,   0,   0
pipe:                   728,      0,      15,      90, 1169590,   0,   0
Mountpoints:            792,      0,       2,       8,       2,   0,   0
ksiginfo:               112,      0,     167,     889,   39530,   0,   0
itimer:                 344,      0,       0,       0,       0,   0,   0
pfsrctrpl:              152,      0,       0,       0,       0,   0,   0
pfrulepl:               936,      0,       0,       0,       0,   0,   0
pfstatepl:              288,  10010,       0,       0,       0,   0,   0
pfstatekeypl:           288,      0,       0,       0,       0,   0,   0
pfstateitempl:          288,      0,       0,       0,       0,   0,   0
pfaltqpl:               240,      0,       0,       0,       0,   0,   0
pfpooladdrpl:            88,      0,       0,       0,       0,   0,   0
pfrktable:             1296,      0,       0,       0,       0,   0,   0
pfrkentry:              160,      0,       0,       0,       0,   0,   0
pfrkcounters:            64,      0,       0,       0,       0,   0,   0
pffrent:                 32,   5050,       0,       0,       0,   0,   0
pffrag:                  80,      0,       0,       0,       0,   0,   0
pffrcache:               80,  10035,       0,       0,       0,   0,   0
pffrcent:                24,  50022,       0,       0,       0,   0,   0
pfstatescrub:            40,      0,       0,       0,       0,   0,   0
pfiaddrpl:              120,      0,       0,       0,       0,   0,   0
pfospfen:               112,      0,       0,       0,       0,   0,   0
pfosfp:                  40,      0,       0,       0,       0,   0,   0
KNOTE:                  128,      0,       8,     369,  508862,   0,   0
socket:                 680, 262146,     251,     313,91992608,   0,   0
ipq:                     56,  12537,       0,       0,       0,   0,   0
udp_inpcb:              392, 262150,       3,     197,87389689,   0,   0
udpcb:                   16, 262248,       3,     837,87389689,   0,   0
tcp_inpcb:              392, 262150,      48,     942,  246007,   0,   0
tcpcb:                  976, 262144,      25,     263,  246007,   0,   0
tcptw:                   72,  27800,      23,    1077,  124734,   0,   0
syncache:               152, 102400,       0,     175,  168648,   0,   0
hostcache:              136,  15372,       9,     159,     185,   0,   0
tcpreass:                40,  25032,       0,     168,     364,   0,   0
sackhole:                32,      0,       0,     505,      53,   0,   0
ripcb:                  392, 262150,       0,     100,    4381,   0,   0
unpcb:                  240, 262144,      15,     177, 4304055,   0,   0
rtentry:                200,      0,   13407,    8348,  245902,   0,   0
pfsync:                  88,      0,       0,       0,       0,   0,   0
IPFW dynamic rule:      120,      0,      12,     267,  254774,   0,   0
selfd:                   56,      0,     346,    1040,4573583963,   0,   0
SWAPMETA:               288, 758797,       0,       0,       0,   0,   0
FFS inode:              168,      0,  104993,     145, 2077546,   0,   0
FFS1 dinode:            128,      0,       0,       0,       0,   0,   0
FFS2 dinode:            256,      0,  104993,     142, 2077546,   0,   0

 

vmstat -w 1

pppoe2# vmstat -w 1
procs      memory      page                    disks     faults         cpu
r b w     avm    fre   flt  re  pi  po    fr  sr ad0 cd0   in   sy   cs us sy id
0 0 0    866M  4663M  1086   0   0   0   793   0   0   0 3227 5592 1297  2 28 70
0 0 0    866M  4663M   267   0   0   0    16   0   0   0 64414 1333 121793  0 42 58
0 0 0    866M  4663M   256   0   0   0     4   0   0   0 65139 1374 124156  0 38 62
0 0 0    866M  4663M   305   0   0   0    12   0   0   0 62971 10432 121144  3 40 57
0 0 0    866M  4663M     6   0   0   0     8   0   0   0 63022  808 120288  0 36 64
0 0 0    866M  4663M     7   0   0   0     8   0   0   0 60436 1472 116003  1 34 65
0 0 0    866M  4663M    78   0   0   0    20   0   1   0 62378 4599 119564  3 35 62
0 0 0    866M  4663M     6   0   0   0    24   0   0   0 62152 1400 119011  0 37 63
0 0 0    866M  4663M     3   0   0   0     4   0   0   0 61940 1491 119314  0 31 69
0 0 0    866M  4663M    76   0   0   0    12   0   0   0 61673 4190 118626  2 34 64
0 0 0    866M  4663M     4   0   0   0    12   0   1   0 60707 1498 116736  0 37 63
0 0 0    866M  4663M     1   0   0   0     0   0   0   0 60883 1308 116496  0 37 63
0 0 0    866M  4663M    72   0   0   0     8   0   0   0 61320 4327 117704  3 33 64
0 0 0    866M  4663M  1124   0   0   0  1045   0   0   0 60993 2095 117475  0 35 65
0 0 0    866M  4663M   454   0   0   0    12   0   0   0 62720  994 119331  0 36 64
0 0 0    866M  4663M   436   0   0   0     8   0   0   0 64507 4736 123258  3 39 58

Edited by roysbike

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.