pod Posted November 22, 2012 (edited) Столкнулся с необычным поведением двух очень похожих серверов: 1й - core i5-2500 + 2*2Gb ram + intel E1G42ET (dual port, 82576 chip, driver 2.2.3) 8.2-RELEASE-p6 FreeBSD 8.2-RELEASE-p6 #1 amd64 2й - core i5-3570 + 1*4Gb ram + intel E1G42ET (dual port, 82576 chip, driver 2.3.1) 8.3-RELEASE FreeBSD 8.3-RELEASE #0 amd64 оба сервера используются под NAT/shaping + на 1м живет mpd5 с парой сотен подключений, ipfw на таблицах, конфиги всего идентичны, однако под нагрузкой существенно отличаются la на серверах. 1й: #netstat -w1 -h input (Total) output packets errs idrops bytes packets errs bytes colls 148K 0 0 117M 145K 0 121M 0 149K 0 0 117M 146K 0 120M 0 154K 0 0 122M 152K 0 126M 0 149K 0 0 117M 147K 0 122M 0 #top -PSH last pid: 46669; load averages: 0.27, 0.45, 0.57 up 2+18:29:20 22:00:37 118 processes: 13 running, 79 sleeping, 26 waiting CPU 0: 2.8% user, 0.0% nice, 11.2% system, 27.3% interrupt, 58.7% idle CPU 1: 2.8% user, 0.0% nice, 7.7% system, 30.1% interrupt, 59.4% idle CPU 2: 0.0% user, 0.0% nice, 23.1% system, 45.5% interrupt, 31.5% idle CPU 3: 3.5% user, 0.0% nice, 9.8% system, 54.5% interrupt, 32.2% idle Mem: 38M Active, 678M Inact, 654M Wired, 1744K Cache, 412M Buf, 2504M Free Swap: 4096M Total, 4096M Free PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND 11 root 171 ki31 0K 64K RUN 0 46.6H 59.52% {idle: cpu0} 11 root 171 ki31 0K 64K RUN 1 51.5H 53.96% {idle: cpu1} 11 root 171 ki31 0K 64K RUN 3 34.4H 38.33% {idle: cpu3} 12 root -64 - 0K 512K RUN 3 19.1H 29.93% {irq16: ehci0} 11 root 171 ki31 0K 64K RUN 2 51.0H 29.30% {idle: cpu2} 12 root -68 - 0K 512K WAIT 2 473:39 28.52% {irq258: igb0:que} 12 root -68 - 0K 512K RUN 1 411:04 27.34% {irq257: igb0:que} 12 root -68 - 0K 512K CPU0 0 365:54 24.22% {irq256: igb0:que} 13 root 56 - 0K 32K CPU2 2 251:50 21.00% {ng_queue1} 12 root -68 - 0K 512K RUN 3 421:36 18.12% {irq259: igb0:que} 12 root -68 - 0K 512K WAIT 2 180:53 12.11% {irq262: igb1:que} 0 root -68 0 0K 240K - 1 69:57 10.30% {igb1 que} 12 root -68 - 0K 512K RUN 3 149:41 9.72% {irq263: igb1:que} 12 root -68 - 0K 512K CPU1 1 155:47 9.57% {irq261: igb1:que} 12 root -68 - 0K 512K WAIT 0 144:16 7.67% {irq264: igb1:que} 0 root -68 0 0K 240K - 2 23:18 4.98% {igb1 que} 13 root 65 - 0K 32K CPU0 0 331:12 4.54% {ng_queue0} 0 root -68 0 0K 240K - 2 21:02 4.39% {igb1 que} 0 root -68 0 0K 240K - 2 7:15 0.98% {igb0 que} 0 root -68 0 0K 240K - 2 14:50 0.59% {igb1 que} 0 root -68 0 0K 240K - 2 8:03 0.39% {igb0 que} 12 root -32 - 0K 512K WAIT 3 33:09 0.34% {swi4: clock} 0 root -68 0 0K 240K - 0 522:10 0.10% {dummynet} 0 root -68 0 0K 240K - 0 6:52 0.10% {igb0 que} 1290 root 44 0 47800K 15504K select 3 19:36 0.00% {mpd5} 2й # netstat -w1 -h input (Total) output packets errs idrops bytes packets errs bytes colls 116k 0 0 97M 114k 0 97M 0 108k 0 0 91M 106k 0 91M 0 112k 0 0 95M 109k 0 94M 0 114k 0 0 96M 111k 0 96M 0 #top -PSH last pid: 45914; load averages: 1.92, 2.03, 2.18 up 2+18:30:47 22:02:04 120 processes: 12 running, 84 sleeping, 24 waiting CPU 0: 0.0% user, 0.0% nice, 0.5% system, 29.5% interrupt, 69.9% idle CPU 1: 1.5% user, 0.0% nice, 1.5% system, 33.5% interrupt, 63.4% idle CPU 2: 0.0% user, 0.0% nice, 3.6% system, 31.4% interrupt, 64.9% idle CPU 3: 0.5% user, 0.0% nice, 1.5% system, 32.0% interrupt, 66.0% idle Mem: 32M Active, 303M Inact, 633M Wired, 576K Cache, 386M Buf, 2657M Free Swap: 4096M Total, 4096M Free PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND 11 root 171 ki31 0K 64K RUN 2 52.7H 72.66% idle{idle: cpu2} 11 root 171 ki31 0K 64K CPU3 3 52.8H 71.14% idle{idle: cpu3} 11 root 171 ki31 0K 64K RUN 1 52.7H 70.46% idle{idle: cpu1} 11 root 171 ki31 0K 64K RUN 0 45.3H 69.34% idle{idle: cpu0} 12 root -68 - 0K 480K WAIT 3 520:35 21.04% intr{irq259: igb0:que} 12 root -68 - 0K 480K RUN 0 434:46 20.21% intr{irq256: igb0:que} 12 root -68 - 0K 480K RUN 1 491:11 19.87% intr{irq257: igb0:que} 12 root -68 - 0K 480K CPU2 2 514:34 16.94% intr{irq258: igb0:que} 12 root -68 - 0K 480K RUN 2 217:31 10.30% intr{irq262: igb1:que} 12 root -68 - 0K 480K RUN 1 216:42 9.42% intr{irq261: igb1:que} 12 root -68 - 0K 480K RUN 0 214:03 9.18% intr{irq264: igb1:que} 12 root -68 - 0K 480K WAIT 3 222:25 8.45% intr{irq263: igb1:que} 12 root -32 - 0K 480K WAIT 2 34:22 0.93% intr{swi4: clock} 0 root -68 0 0K 256K - 3 40:51 0.83% kernel{igb1 que} 0 root -68 0 0K 256K - 3 37:58 0.83% kernel{igb1 que} 0 root -68 0 0K 256K - 1 24:11 0.63% kernel{igb1 que} 0 root -68 0 0K 256K - 2 43:32 0.39% kernel{igb1 que} 0 root -68 0 0K 256K - 1 10:35 0.34% kernel{igb0 que} 0 root -68 0 0K 256K CPU0 0 555:48 0.20% kernel{dummynet} 0 root -68 0 0K 256K - 0 10:04 0.10% kernel{igb0 que} 0 root -68 0 0K 256K - 3 9:45 0.10% kernel{igb0 que} 0 root -68 0 0K 256K - 0 7:47 0.05% kernel{igb0 que} Причем по проценту бездействия 2й сервер вроде как меньше нагружен, но la у него выше, несмотря на меньший объем трафика и более шустрый процессор. Неужели такую разницу дают те минимальные отличия в железе и версии freebsd? Edited November 22, 2012 by pod Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
kayot Posted November 23, 2012 Отличия по железу у вас как-бы громадны. Если я правильно понял - во втором сервере 1 планка памяти(одноканальный режим), а значит роутер из нее значительно слабее. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
pod Posted November 23, 2012 Неужели режим работы памяти настолько влияет на производительность? Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
replicant Posted November 24, 2012 Я бы для чистоты эксперимента добавил вторую планку памяти и версию драйвера поставил новее и одинаковую на обеих машинах. Так проще мониторить ситуацию. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
kayot Posted November 25, 2012 Неужели режим работы памяти настолько влияет на производительность? Узкое место современных софт-роутеров - именно память. Заставив систему работать с 1 каналом вместо двух вы ей серьезно подрезали крылья, вероятно как раз и вылазит эффект упора в ширину памяти при свободном CPU. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
roysbike Posted November 26, 2012 Отличия по железу у вас как-бы громадны. Если я правильно понял - во втором сервере 1 планка памяти(одноканальный режим), а значит роутер из нее значительно слабее. а как вы поняли что она одна? Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
No_name Posted November 26, 2012 Отличия по железу у вас как-бы громадны. Если я правильно понял - во втором сервере 1 планка памяти(одноканальный режим), а значит роутер из нее значительно слабее. а как вы поняли что она одна? Так ТС в начале написал: 2й - core i5-3570 + 1*4Gb ram... п.с. неужели так память может влиять? Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
roysbike Posted November 27, 2012 Заглянул в сервер. у меня оказывает 3-х канальная память. Стоит 2 планки. Почитал, вроде как 3-х канальная не дает прирост особо. Поставил 3-ю. посмотрим на результаты. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
pod Posted November 27, 2012 (edited) Поставил на второй сервер 2 планки памяти и драйвер для igb версии 2.2.3. Таким образом осталась только разница в версии freebsd и процессоре, который на втором сервере должен быть лучше. Но la остались такие как и были. На данный момент: 1й: # netstat -w1 -h input (Total) output packets errs idrops bytes packets errs bytes colls 69K 0 0 53M 71K 0 60M 0 #top -PSH last pid: 95622; load averages: 0.39, 0.23, 0.17 up 7+06:57:23 10:28:40 108 processes: 8 running, 70 sleeping, 30 waiting CPU 0: 0.0% user, 0.0% nice, 8.0% system, 6.9% interrupt, 85.1% idle CPU 1: 0.0% user, 0.0% nice, 3.4% system, 16.1% interrupt, 80.5% idle CPU 2: 1.1% user, 0.0% nice, 3.4% system, 18.4% interrupt, 77.0% idle CPU 3: 0.0% user, 0.0% nice, 2.3% system, 46.0% interrupt, 51.7% idle Mem: 34M Active, 656M Inact, 842M Wired, 172K Cache, 412M Buf, 2342M Free Swap: 4096M Total, 4096M Free PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND 11 root 171 ki31 0K 64K CPU1 1 129.1H 88.23% {idle: cpu1} 11 root 171 ki31 0K 64K CPU0 0 113.2H 86.08% {idle: cpu0} 11 root 171 ki31 0K 64K CPU2 2 127.1H 81.93% {idle: cpu2} 11 root 171 ki31 0K 64K RUN 3 85.8H 51.37% {idle: cpu3} 12 root -64 - 0K 512K RUN 3 48.4H 36.62% {irq16: ehci0} 12 root -68 - 0K 512K WAIT 2 25.8H 13.18% {irq258: igb0:que} 13 root 48 - 0K 32K CPU0 0 785:47 10.94% {ng_queue1} 12 root -68 - 0K 512K WAIT 3 22.7H 9.81% {irq259: igb0:que} 12 root -68 - 0K 512K WAIT 1 22.2H 9.08% {irq257: igb0:que} 12 root -68 - 0K 512K WAIT 0 19.8H 7.62% {irq256: igb0:que} 12 root -68 - 0K 512K WAIT 1 513:28 4.93% {irq261: igb1:que} 12 root -68 - 0K 512K WAIT 2 579:42 4.49% {irq262: igb1:que} 12 root -68 - 0K 512K RUN 3 501:07 3.47% {irq263: igb1:que} 12 root -68 - 0K 512K WAIT 0 477:05 2.54% {irq264: igb1:que} 0 root -68 0 0K 240K - 2 227:24 0.59% {igb1 que} 13 root 50 - 0K 32K sleep 3 764:51 0.49% {ng_queue0} 12 root -32 - 0K 512K WAIT 0 97:04 0.24% {swi4: clock} 2й #netstat -w1 -h input (Total) output packets errs idrops bytes packets errs bytes colls 17k 0 0 14M 17k 0 14M 0 #top -PSH last pid: 47340; load averages: 0.39, 0.24, 0.16 up 0+00:31:48 10:28:34 110 processes: 6 running, 75 sleeping, 29 waiting CPU 0: 0.4% user, 0.0% nice, 1.7% system, 3.8% interrupt, 94.1% idle CPU 1: 0.8% user, 0.0% nice, 0.4% system, 1.7% interrupt, 97.1% idle CPU 2: 0.0% user, 0.0% nice, 0.0% system, 7.1% interrupt, 92.9% idle CPU 3: 0.0% user, 0.0% nice, 0.4% system, 2.9% interrupt, 96.6% idle Mem: 20M Active, 17M Inact, 216M Wired, 344K Cache, 20M Buf, 3372M Free Swap: 4096M Total, 4096M Free PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND 11 root 171 ki31 0K 64K CPU3 3 31:10 100.00% idle{idle: cpu3} 11 root 171 ki31 0K 64K CPU1 1 30:46 99.51% idle{idle: cpu1} 11 root 171 ki31 0K 64K RUN 0 30:19 99.22% idle{idle: cpu0} 11 root 171 ki31 0K 64K CPU2 2 31:00 93.95% idle{idle: cpu2} 12 root -68 - 0K 480K WAIT 2 0:18 3.42% intr{irq262: igb1:que} 12 root -68 - 0K 480K WAIT 2 0:18 2.73% intr{irq258: igb0:que} 12 root -68 - 0K 480K WAIT 1 0:18 2.15% intr{irq257: igb0:que} 12 root -68 - 0K 480K RUN 0 0:14 2.00% intr{irq264: igb1:que} 12 root -68 - 0K 480K WAIT 3 0:19 1.27% intr{irq259: igb0:que} 12 root -68 - 0K 480K WAIT 0 0:17 1.17% intr{irq256: igb0:que} 12 root -68 - 0K 480K WAIT 1 0:16 1.12% intr{irq261: igb1:que} 12 root -68 - 0K 480K WAIT 3 0:13 0.78% intr{irq263: igb1:que} 12 root -32 - 0K 480K WAIT 0 0:11 0.54% intr{swi4: clock} Edited November 27, 2012 by pod Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
Ivan_83 Posted November 27, 2012 Думаю, пока версии фри разные смысла ломать голову дальше нет. Ещё, могут быть различия в самом трафике, которые могут влиять на загрузку проца. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
roysbike Posted November 27, 2012 мне помогло добавление еще одной планки. До этого 2 планки стояло. Мать и проц 3-х канальная Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
pod Posted November 27, 2012 Думаю, пока версии фри разные смысла ломать голову дальше нет. Ещё, могут быть различия в самом трафике, которые могут влиять на загрузку проца. Характер трафика должен быть максимально схож - NATятся подсети с абонентами, по 1-1.5к на сервер. С версиями пока ничего не сделаю, т.к обновлять 8.2 с хорошими показателями не хочется, а ставить 8.2 на 2й сервер пока нет технической возможности - сервер на боевом дежурстве. Идеальный вариант был бы вообще склонировать систему с 1го сервера на 2й Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
pod Posted November 28, 2012 (edited) Заставил себя выйти в ночь и все-таки склонировал систему с первого сервера на второй. теперь la в норме на обоих серверах, несмотря на то, что на 2м вернул память в одноканале. Значит все дело в версии freebsd и freebsd 8.3 отличается от 8.2 более высоким load average, возможно именно в сочетании с сетевыми картами igb. Или изменился способ подсчета la, так как встречал информацию, что kernel nat в 8.2 не отображается в la Edited November 28, 2012 by pod Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
Ivan_83 Posted November 28, 2012 la ещё зависит от hz при сборке ядра. Чем меньше хз - тем грубее подсчёт и больше показывает. Зато на арм хреновинке у меня производительность при хз=100 поднялась процентов на 5-10%. И куча других факторов о которых я даже не подозреваю... Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
roysbike Posted November 29, 2012 Не пойму в чем дело. Сервер работает 2 дня, затем прерывания начинают расти с каждым днем, хотя трафик и pps не растет. Freebsd 9.1 MPD5.6 PPPoE. Сетевые карты Intel 82576 2-х портовые , две штуки в lagg0 на uplink и lagg1 (вланы слушает PPPoE) .NAT нету, netflow нет. График 1-день и во 2-ой день отличаются, прерывания растут. На этих прерываниях ходит PPPoE . На 3 день уже не справляется с трафиком. Как будто что-то утекает. После ребута , все ок. В первый день вообще может прокачать 1500 мбит и 3000 сессий. Процессор hw.model: Intel(R) Xeon(R) CPU E5620 @ 2.40GHz uname -a FreeBSD pppoe2.xxx.ru 9.1-PRERELEASE FreeBSD 9.1-PRERELEASE #1 r243569: Tue Nov 27 08:47:54 UTC 2012 root@pppoe2.xxx.ru:/usr/obj/usr/src/sys/GENERIC.ok amd64 top -SHPI (Во 2-ой день, а в первый был в 2 раза меньше при одинаковом трафике и кол-вом сессий) last pid: 82808; load averages: 2.12, 2.14, 1.96 up 2+05:54:23 15:51:18 155 processes: 7 running, 110 sleeping, 38 waiting CPU 0: 1.9% user, 0.0% nice, 0.0% system, 15.4% interrupt, 82.7% idle CPU 1: 0.0% user, 0.0% nice, 0.0% system, 25.0% interrupt, 75.0% idle CPU 2: 0.0% user, 0.0% nice, 0.0% system, 59.6% interrupt, 40.4% idle CPU 3: 0.0% user, 0.0% nice, 0.0% system, 75.0% interrupt, 25.0% idle Mem: 138M Active, 304M Inact, 803M Wired, 622M Buf, 4683M Free Swap: 4096M Total, 4096M Free PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND 11 root 155 ki31 0K 64K RUN 0 42.4H 75.00% idle{idle: cpu0} 11 root 155 ki31 0K 64K CPU1 1 43.1H 73.19% idle{idle: cpu1} 12 root -92 - 0K 640K CPU3 3 977:42 69.97% intr{irq271: igb3:que} 12 root -92 - 0K 640K CPU2 2 898:07 68.55% intr{irq266: igb2:que} 11 root 155 ki31 0K 64K RUN 2 37.2H 35.60% idle{idle: cpu2} 11 root 155 ki31 0K 64K RUN 3 36.0H 29.49% idle{idle: cpu3} 87666 root 29 0 37596K 11568K select 1 67:16 7.76% snmpd 12 root -92 - 0K 640K WAIT 1 132:24 5.96% intr{irq259: igb0:que} 12 root -92 - 0K 640K WAIT 0 128:03 5.96% intr{irq257: igb0:que} 12 root -92 - 0K 640K WAIT 1 129:08 5.86% intr{irq258: igb0:que} 12 root -92 - 0K 640K WAIT 0 133:01 5.76% intr{irq264: igb1:que} 12 root -92 - 0K 640K WAIT 0 166:22 5.47% intr{irq256: igb0:que} 12 root -92 - 0K 640K WAIT 1 129:09 5.27% intr{irq262: igb1:que} 12 root -92 - 0K 640K WAIT 1 136:49 4.88% intr{irq261: igb1:que} 12 root -92 - 0K 640K WAIT 0 130:24 4.59% intr{irq263: igb1:que} 12666 root 21 0 201M 148M select 2 117:38 1.86% mpd5{mpd5} 12 root -92 - 0K 640K WAIT 0 23:45 0.49% intr{irq267: igb2:que} 12 root -92 - 0K 640K WAIT 1 20:46 0.39% intr{irq272: igb3:que} vmstat -i pppoe2# vmstat -i interrupt total rate irq1: atkbd0 484 0 irq17: atapci0+ 748946 3 irq22: uhci2 ehci0* 24 0 cpu0:timer 217856857 1122 irq256: igb0:que 0 2206216507 11364 irq257: igb0:que 1 581958303 2997 irq258: igb0:que 2 589851497 3038 irq259: igb0:que 3 595861406 3069 irq260: igb0:link 2 0 irq261: igb1:que 0 602716675 3104 irq262: igb1:que 1 591501353 3046 irq263: igb1:que 2 595067135 3065 irq264: igb1:que 3 602330313 3102 irq265: igb1:link 3 0 irq266: igb2:que 0 1426977377 7350 irq267: igb2:que 1 1034078673 5326 irq268: igb2:que 2 103934187 535 irq269: igb2:que 3 106750526 549 irq270: igb2:link 2 0 irq271: igb3:que 0 1455368054 7496 irq272: igb3:que 1 941925109 4851 irq273: igb3:que 2 100996264 520 irq274: igb3:que 3 98194261 505 irq275: igb3:link 3 0 irq276: bge0 4736870 24 cpu3:timer 217341602 1119 cpu2:timer 217331835 1119 cpu1:timer 216559594 1115 Total 12508303862 64431 ifconfig | grep ng -c 1418 netstat -w1 -h pppoe2# netstat -w1 -h input (Total) output packets errs idrops bytes packets errs bytes colls 273k 0 0 180M 295k 0 257M 0 282k 0 0 188M 304k 0 269M 0 267k 0 0 179M 284k 0 244M 0 loader.conf kern.maxfiles="25000" kern.ipc.nmbclusters=262144 kern.ipc.nmbjumbop=262144 net.graph.maxdata=65536 net.graph.maxalloc=65536 net.link.ifqmaxlen=10240 net.inet.tcp.syncache.hashsize=1024 net.inet.tcp.syncache.bucketlimit=100 net.inet.tcp.tcbhashsize=4096 kern.ipc.nsfbufs=10240 hw.igb.rxd=4096 hw.igb.txd=4096 hw.igb.max_interrupt_rate=32000 net.graph.maxdgram=8388608 net.graph.recvspace=8388608 net.isr.defaultqlimit=4096 hw.igb.rx_process_limit=2048 sysctl.conf dev.igb.0.rx_processing_limit=4096 dev.igb.1.rx_processing_limit=4096 dev.igb.2.rx_processing_limit=4096 dev.igb.3.rx_processing_limit=4096 net.inet.ip.fastforwarding=1 net.inet.ip.redirect=0 kern.random.sys.harvest.ethernet=0 kern.random.sys.harvest.point_to_point=0 kern.random.sys.harvest.interrupt=0 net.inet.ip.fw.verbose_limit=10 net.inet.icmp.icmplim=1500 net.inet.tcp.drop_synfin=1 net.inet.tcp.delayed_ack=0 net.inet.ip.process_options=0 net.inet.raw.maxdgram=16384 net.inet.raw.recvspace=16384 Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
Ivan_83 Posted November 29, 2012 hw.igb.rxd=4096 hw.igb.txd=4096 hw.igb.max_interrupt_rate=32000 Ему есть куда расти, вот и растёт. Проверьте настройки перед ребутом - может они поменялись. Ещё vmstat -z может показать чего много выделено, иногда помогает с утечками и при поиске узких мест. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
roysbike Posted November 29, 2012 (edited) hw.igb.rxd=4096 hw.igb.txd=4096 hw.igb.max_interrupt_rate=32000 Ему есть куда расти, вот и растёт. Проверьте настройки перед ребутом - может они поменялись. Ещё vmstat -z может показать чего много выделено, иногда помогает с утечками и при поиске узких мест. Уберу сегодня и посмотрю. vmstat -z pppoe2# vmstat -z ITEM SIZE LIMIT USED FREE REQ FAIL SLEEP UMA Kegs: 208, 0, 100, 2, 100, 0, 0 UMA Zones: 896, 0, 100, 0, 100, 0, 0 UMA Slabs: 568, 0, 30262, 769, 219054, 0, 0 UMA RCntSlabs: 568, 0, 35216, 1, 35216, 0, 0 UMA Hash: 256, 0, 1, 14, 4, 0, 0 16 Bucket: 152, 0, 134, 16, 134, 0, 0 32 Bucket: 280, 0, 195, 1, 195, 0, 0 64 Bucket: 536, 0, 169, 6, 169, 98, 0 128 Bucket: 1048, 0, 2644, 2, 2644,1373, 0 VM OBJECT: 232, 0, 68974, 322,22375710, 0, 0 MAP: 232, 0, 7, 25, 7, 0, 0 KMAP ENTRY: 120, 227044, 170, 853, 2134372, 0, 0 MAP ENTRY: 120, 0, 7874, 7068,201178693, 0, 0 fakepg: 120, 0, 0, 124, 90, 0, 0 mt_zone: 4112, 0, 301, 10, 301, 0, 0 16: 16, 0, 4809, 1575,209900431, 0, 0 32: 32, 0, 9815, 5032,9423503888, 0, 0 64: 64, 0, 17700, 3748,160848842, 0, 0 128: 128, 0, 101697, 56063,63216627, 0, 0 256: 256, 0, 46551, 6069, 6889178, 0, 0 512: 512, 0, 6056, 2834, 2090241, 0, 0 1024: 1024, 0, 71, 241, 7514092, 0, 0 2048: 2048, 0, 6572, 1418,21680026, 0, 0 4096: 4096, 0, 5661, 3672, 2825128, 0, 0 Files: 80, 0, 336, 474,100423817, 0, 0 TURNSTILE: 136, 0, 460, 100, 460, 0, 0 rl_entry: 40, 0, 155, 265, 155, 0, 0 umtx pi: 96, 0, 0, 0, 0, 0, 0 MAC labels: 40, 0, 0, 0, 0, 0, 0 PROC: 1184, 0, 60, 120, 1534459, 0, 0 THREAD: 1160, 0, 287, 172, 1114353, 0, 0 SLEEPQUEUE: 80, 0, 460, 91, 460, 0, 0 VMSPACE: 392, 0, 41, 159, 1534439, 0, 0 cpuset: 72, 0, 127, 223, 170, 0, 0 audit_record: 960, 0, 0, 0, 0, 0, 0 mbuf_packet: 256, 0, 66375, 3897,16647703058, 0, 0 mbuf: 256, 0, 91, 5162,16707941550, 0, 0 mbuf_cluster: 2048, 400000, 70272, 6, 70272, 0, 0 mbuf_jumbo_page: 4096, 262144, 0, 77, 208, 0, 0 mbuf_jumbo_9k: 9216, 65536, 0, 0, 0, 0, 0 mbuf_jumbo_16k: 16384, 32768, 0, 0, 0, 0, 0 mbuf_ext_refcnt: 4, 0, 0, 0, 0, 0, 0 NetGraph items: 72, 65540, 0, 406,55461341, 0, 0 NetGraph data items: 72, 65540, 0, 406,16653925344, 0, 0 g_bio: 232, 0, 0, 6656, 2344461, 0, 0 ttyinq: 160, 0, 195, 69, 630, 0, 0 ttyoutq: 256, 0, 103, 77, 335, 0, 0 ata_request: 328, 0, 0, 144, 781530, 0, 0 ata_composite: 336, 0, 0, 0, 0, 0, 0 VNODE: 504, 0, 105024, 168, 2077630, 0, 0 VNODEPOLL: 112, 0, 1, 65, 1, 0, 0 NAMEI: 1024, 0, 0, 96,14102245, 0, 0 S VFS Cache: 108, 0, 83093, 28711, 1668947, 0, 0 STS VFS Cache: 148, 0, 0, 0, 0, 0, 0 L VFS Cache: 328, 0, 24254, 19870, 503397, 0, 0 LTS VFS Cache: 368, 0, 0, 0, 0, 0, 0 DIRHASH: 1024, 0, 5996, 36, 5996, 0, 0 NCLNODE: 568, 0, 0, 0, 0, 0, 0 pipe: 728, 0, 15, 90, 1169590, 0, 0 Mountpoints: 792, 0, 2, 8, 2, 0, 0 ksiginfo: 112, 0, 167, 889, 39530, 0, 0 itimer: 344, 0, 0, 0, 0, 0, 0 pfsrctrpl: 152, 0, 0, 0, 0, 0, 0 pfrulepl: 936, 0, 0, 0, 0, 0, 0 pfstatepl: 288, 10010, 0, 0, 0, 0, 0 pfstatekeypl: 288, 0, 0, 0, 0, 0, 0 pfstateitempl: 288, 0, 0, 0, 0, 0, 0 pfaltqpl: 240, 0, 0, 0, 0, 0, 0 pfpooladdrpl: 88, 0, 0, 0, 0, 0, 0 pfrktable: 1296, 0, 0, 0, 0, 0, 0 pfrkentry: 160, 0, 0, 0, 0, 0, 0 pfrkcounters: 64, 0, 0, 0, 0, 0, 0 pffrent: 32, 5050, 0, 0, 0, 0, 0 pffrag: 80, 0, 0, 0, 0, 0, 0 pffrcache: 80, 10035, 0, 0, 0, 0, 0 pffrcent: 24, 50022, 0, 0, 0, 0, 0 pfstatescrub: 40, 0, 0, 0, 0, 0, 0 pfiaddrpl: 120, 0, 0, 0, 0, 0, 0 pfospfen: 112, 0, 0, 0, 0, 0, 0 pfosfp: 40, 0, 0, 0, 0, 0, 0 KNOTE: 128, 0, 8, 369, 508862, 0, 0 socket: 680, 262146, 251, 313,91992608, 0, 0 ipq: 56, 12537, 0, 0, 0, 0, 0 udp_inpcb: 392, 262150, 3, 197,87389689, 0, 0 udpcb: 16, 262248, 3, 837,87389689, 0, 0 tcp_inpcb: 392, 262150, 48, 942, 246007, 0, 0 tcpcb: 976, 262144, 25, 263, 246007, 0, 0 tcptw: 72, 27800, 23, 1077, 124734, 0, 0 syncache: 152, 102400, 0, 175, 168648, 0, 0 hostcache: 136, 15372, 9, 159, 185, 0, 0 tcpreass: 40, 25032, 0, 168, 364, 0, 0 sackhole: 32, 0, 0, 505, 53, 0, 0 ripcb: 392, 262150, 0, 100, 4381, 0, 0 unpcb: 240, 262144, 15, 177, 4304055, 0, 0 rtentry: 200, 0, 13407, 8348, 245902, 0, 0 pfsync: 88, 0, 0, 0, 0, 0, 0 IPFW dynamic rule: 120, 0, 12, 267, 254774, 0, 0 selfd: 56, 0, 346, 1040,4573583963, 0, 0 SWAPMETA: 288, 758797, 0, 0, 0, 0, 0 FFS inode: 168, 0, 104993, 145, 2077546, 0, 0 FFS1 dinode: 128, 0, 0, 0, 0, 0, 0 FFS2 dinode: 256, 0, 104993, 142, 2077546, 0, 0 vmstat -w 1 pppoe2# vmstat -w 1 procs memory page disks faults cpu r b w avm fre flt re pi po fr sr ad0 cd0 in sy cs us sy id 0 0 0 866M 4663M 1086 0 0 0 793 0 0 0 3227 5592 1297 2 28 70 0 0 0 866M 4663M 267 0 0 0 16 0 0 0 64414 1333 121793 0 42 58 0 0 0 866M 4663M 256 0 0 0 4 0 0 0 65139 1374 124156 0 38 62 0 0 0 866M 4663M 305 0 0 0 12 0 0 0 62971 10432 121144 3 40 57 0 0 0 866M 4663M 6 0 0 0 8 0 0 0 63022 808 120288 0 36 64 0 0 0 866M 4663M 7 0 0 0 8 0 0 0 60436 1472 116003 1 34 65 0 0 0 866M 4663M 78 0 0 0 20 0 1 0 62378 4599 119564 3 35 62 0 0 0 866M 4663M 6 0 0 0 24 0 0 0 62152 1400 119011 0 37 63 0 0 0 866M 4663M 3 0 0 0 4 0 0 0 61940 1491 119314 0 31 69 0 0 0 866M 4663M 76 0 0 0 12 0 0 0 61673 4190 118626 2 34 64 0 0 0 866M 4663M 4 0 0 0 12 0 1 0 60707 1498 116736 0 37 63 0 0 0 866M 4663M 1 0 0 0 0 0 0 0 60883 1308 116496 0 37 63 0 0 0 866M 4663M 72 0 0 0 8 0 0 0 61320 4327 117704 3 33 64 0 0 0 866M 4663M 1124 0 0 0 1045 0 0 0 60993 2095 117475 0 35 65 0 0 0 866M 4663M 454 0 0 0 12 0 0 0 62720 994 119331 0 36 64 0 0 0 866M 4663M 436 0 0 0 8 0 0 0 64507 4736 123258 3 39 58 Edited November 29, 2012 by roysbike Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...