lanc Posted July 22, 2010 Posted July 22, 2010 железо CORE I7 920 2,66GHz 1333 Intel <EXPI9402PT> PRO/1000 PT Dual Port (OEM) на FreeBSD 7.2-P2 IPNAT+DUMMYNET и сталкивались с проблемой 30000 сессий... все заполнились при 600 человек онлайн т.к. есть юзеры что открывают более 5-19тыс соединений (но это отдельная тема) ipnat -s показывает 8200 правил дальше танцы с бубном, увеличиваем кол-во сессий якобы до 300 000 (почему якобы опишу ниже) итак меняем содержимое ip_nat.h ставим define LARGE_NAT и еще донастройки // # define NAT_SIZE 2047 # define NAT_SIZE 4093 // # define RDR_SIZE 2047 # define RDR_SIZE 4093 // # define HOSTMAP_SIZE 8191 # define HOSTMAP_SIZE 16383 // # define NAT_TABLE_MAX 180000 # define NAT_TABLE_MAX 300000 // # define NAT_TABLE_SZ 16383 # define NAT_TABLE_SZ 32765 после тюнинга пересобираем ядро получили 300 000 сессий ОДНАКО.. (вот тут описание почему таки 300 000 так я и не увидел) при привышении 110к сессий (и чем больше тем хуже), начинают появляться ошибки на сетевых интерфейсах em0, em1 и данные ошибкт сводят всю работу NAT на нет... пинг увеличивается с 50 до 500.. страницы открываются через раз.... проблема решается путем очищения таблицы NAT nat1# uname -a FreeBSD nat1.global-x.ru 7.2-STABLE-200912 FreeBSD 7.2-STABLE-200912 #3: Sun Jul 18 14:19:01 YEKST 2010 root@nat1.global-x.ru:/usr/src/sys/amd64/compile/NAS_64 amd64 loadel.conf vm.kmem_size="1G" vm.kmem_size_max="1G" sysctl.conf net.inet.ip.fw.one_pass=0 kern.ipc.maxsockbuf=10485760 kern.maxfiles=65536 kern.maxfilesperproc=32768 net.inet.icmp.bmcastecho=0 net.inet.icmp.drop_redirect=1 net.inet.icmp.icmplim=200 net.inet.icmp.log_redirect=0 net.inet.ip.accept_sourceroute=0 net.inet.ip.random_id=1 net.inet.ip.redirect=0 net.inet.ip.sourceroute=0 net.inet.tcp.blackhole=2 net.inet.tcp.delayed_ack=0 net.inet.tcp.drop_synfin=1 net.inet.tcp.recvspace=65535 net.inet.tcp.rfc1323=0 net.inet.tcp.sendspace=65535 net.inet.udp.blackhole=1 net.inet.udp.recvspace=65535 net.inet6.ip6.redirect=0 net.link.ether.inet.max_age=1200 net.local.stream.recvspace=65535 net.local.stream.sendspace=65535 net.local.dgram.recvspace=65535 #anti DoS net.inet.tcp.msl=7500 net.inet.tcp.blackhole=2 net.inet.udp.blackhole=1 kern.ipc.somaxconn=32768 #net.inet.icmp.icmplim=50 dev.em.0.rx_int_delay=600 dev.em.0.tx_int_delay=600 dev.em.0.rx_abs_int_delay=1000 dev.em.0.tx_abs_int_delay=1000 dev.em.0.rx_processing_limit=1024 dev.em.1.rx_int_delay=600 dev.em.1.tx_int_delay=600 dev.em.1.rx_abs_int_delay=1000 dev.em.1.tx_abs_int_delay=1000 dev.em.1.rx_processing_limit=1024 vm.pmap.shpgperproc=1000 /sys/amd64/NAS_64 GENERIC + добавлено cpu HAMMER ident NAS_64 #options SHMSEG=256 # max shared mem id's per process #options SHMMNI=256 # max shared mem id's per system #options SHMMAX=67108864 # max shared memory segment size (bytes) #options SHMALL=16384 # max amount of shared memory (pages) #options KVA_PAGES=512 options IPFIREWALL options IPFIREWALL_VERBOSE options IPFIREWALL_VERBOSE_LIMIT=500 options IPFIREWALL_FORWARD options IPDIVERT # <E1><CB><D4><C9><D7><C1><C3><C9><D1> natd options DUMMYNET options IPFILTER # <FC><F4><EF> <E1><EB><F4><E9><F7><E9><FA><E1><E3><E9><F1> ipnat options IPFILTER_LOG #options MROUTING # <ED><C1><D2><DB><D2><D5><D4><C9><DA><C1><C3><C9><D1> <CD><D5><CC><D8><D4> #options DEVICE_POLLING # <F7><CB><CC><C0><DE><C1><C5><D4><D3><D1> <CE><C1> <CD><C1><D2><DB><D2><D5> options HZ=1000 options SC_DISABLE_REBOOT # <DA><C1><C2><CC><CF><CB><C9><D2><D5><C5><D4> <D0><C5><D2><C5><DA><C1><C7><D2><D5> #--------------------------- NETGRAPH ------------------------------- options NETGRAPH options NETGRAPH_IPFW options LIBALIAS # device lines is also present in the ../../conf/NOTES and NOTES files. # If you are in doubt as to the purpose or necessity of a line, check first # in NOTES. # # $FreeBSD: src/sys/amd64/conf/GENERIC,v 1.484.2.22 2009/11/17 15:59:26 jhb Exp $ cpu HAMMER ident NAS_64 options IPFIREWALL options IPFIREWALL_VERBOSE options IPFIREWALL_VERBOSE_LIMIT=500 options IPFIREWALL_FORWARD options IPDIVERT # <E1><CB><D4><C9><D7><C1><C3><C9><D1> natd options DUMMYNET options IPFILTER # <FC><F4><EF> <E1><EB><F4><E9><F7><E9><FA><E1><E3><E9><F1> ipnat options IPFILTER_LOG #options MROUTING # <ED><C1><D2><DB><D2><D5><D4><C9><DA><C1><C3><C9><D1> <CD><D5><CC><D8><D4> #options DEVICE_POLLING # <F7><CB><CC><C0><DE><C1><C5><D4><D3><D1> <CE><C1> <CD><C1><D2><DB><D2><D5> options HZ=1000 options SC_DISABLE_REBOOT # <DA><C1><C2><CC><CF><CB><C9><D2><D5><C5><D4> <D0><C5><D2><C5><DA><C1><C7><D2><D5> #--------------------------- NETGRAPH ------------------------------- options NETGRAPH options NETGRAPH_IPFW options LIBALIAS options NETGRAPH_NAT options NETGRAPH_NETFLOW options NETGRAPH_SPLIT options NETGRAPH_KSOCKET options NETGRAPH_SOCKET options NETGRAPH_ETHER options NETGRAPH_IFACE #----- MPD ---- options NETGRAPH_PPP options NETGRAPH_BPF options NETGRAPH_VJC options NETGRAPH_TEE options NETGRAPH_PPTPGRE options NETGRAPH_TCPMSS в связи с этим вопрос Многие тут пишут что свободно делают 1-2 гигабита с NAT+dummynet люди поделитесь КАК.. как!? вам это удается... поделитесь настройками... какая версия freebsd или может лучше Linux? sys/i386 или sys/amd64 ? какие настройки ЯДРА ? какие настройки sysctl.conf loader.conf ? если ограничивать юзеров limit dst-add так же нужен тюнинг sysctl.conf скорее всего ибо в таблицах билинг сливает около 8к ip адресов ? какие драйвера родные, последние интеловые или яндекс ? использовать ли поллинг или нет ? все пишут по разному... каша получается если не сложно выложите рекомендации... кому сложно.. готовы купить... если I7 гигабит не прокушает так же есть Xenon 5540х2 e-mail: sany_k @ mail.ru icq: 33100437 skype: kraysvitniy Вставить ник Quote
make.kernel Posted July 22, 2010 Posted July 22, 2010 Ну при росте таблицы трансляций тормоза будут, никуда не денешься. И наверное чем больше таблица тем больше тормоза. А что если сделать несколько маленьких табличек например покурив сочетание ipfw nat с tablearg? А, да, там прийдется поправить#define NAT_BUF_LEN в /src/sys/netinet/ip_fw.h а то сильно много натов создать не получится. Ну и 1-2 гигабита это смотря как считать на самом деле, как говорится почувствуйте разницу # netstat -h -w 1 input (Total) output packets errs idrops bytes packets errs bytes colls 134K 0 0 66M 147K 0 119M 0 138K 0 0 68M 151K 0 124M 0 ^C # netstat -h -w 1 -I em0 input (em0) output packets errs idrops bytes packets errs bytes colls 43K 0 0 41M 36K 0 10M 0 44K 0 0 41M 36K 0 9.9M 0 ^C # Тут любят меряться большими цифрами. Вставить ник Quote
lanc Posted July 22, 2010 Author Posted July 22, 2010 (edited) мы используем ipnat он у нас в ядре... т.е. хош не хош.. а сначало пакет проходит ipnat (если конечно есть правило для этого пакета в конфиге ipnat.conf) а потом уже идет на ipfw и всякие там table как бы ваше предложение я так и не понял.. увы nat1# netstat -h -w 1 input (Total) output packets errs bytes packets errs bytes colls 31K 0 11M 30K 0 10M 0 31K 0 11M 30K 0 10M 0 31K 0 11M 30K 0 10M 0 30K 0 11M 29K 0 11M 0 nat1# netstat -w 1 -h -I em1 input (em1) output packets errs bytes packets errs bytes colls 21K 0 6.2M 20K 0 4.2M 0 20K 0 6.7M 19K 0 4.2M 0 20K 0 6.3M 19K 0 4.2M 0 21K 0 6.0M 20K 0 4.3M 0 nat1# ipnat -s mapped in 1185456690 out 1114357627 added 37216833 expired 33693459 no memory 0 bad nat 0 inuse 107039 orphans 0 rules 8475 wilds 0 hash efficiency 29.46% bucket usage 96.23% minimal length 0 maximal length 12 average length 3.395 TCP Entries per state 0 1 2 3 4 5 6 7 8 9 10 11 55 6866 70 16 3189 799 372 1 34 0 20376 846 пропадания пакетов начинается выше 110к сессий нат Edited July 22, 2010 by lanc Вставить ник Quote
Hawk128 Posted July 22, 2010 Posted July 22, 2010 Что-то у Вас не так. У меня общая загрузка по пакетам за 80-90 kpps часто уходит, и это на обычном natd. (Да, да, юзер спейс, он самый...). И никаких пропаданий, запас по мощности пока тоже есть. Вставить ник Quote
lanc Posted July 22, 2010 Author Posted July 22, 2010 (edited) что не так???? все выложил.. что еще нужно для анализа? подобное видел тут http://opennet.ru/openforum/vsluhforumID1/87585.html неужели ээээто выход!? т.е. переход на 8ку !? Edited July 22, 2010 by lanc Вставить ник Quote
polmax Posted July 23, 2010 Posted July 23, 2010 (edited) т.е. переход на 8ку !?Как вариант да!И чем не угодил ipfw nat? он изумительно справляется с поставленной задачей и пропускает огромное количество пакетов, всё остальное по-моему от лукавого! Edited July 23, 2010 by polmax Вставить ник Quote
lanc Posted July 23, 2010 Author Posted July 23, 2010 (edited) т.е. переход на 8ку !?Как вариант да!И чем не угодил ipfw nat? он изумительно справляется с поставленной задачей и пропускает огромное количество пакетов, всё остальное по-моему от лукавого! все банально начиналось все в далеком 2004.. взял первый пример что попоался.. ipnat настроил за 5 минут по примеру выбрал специально ipnat вместо natd т.к. все писали что он лучше и производительнее ну и собственно я думал что ipfw nat это и есть ipnat а ipfw nat это не тоже самое что natd ? Edited July 23, 2010 by lanc Вставить ник Quote
Сильвер Posted July 23, 2010 Posted July 23, 2010 ну и собственно я думал что ipfw nat это и есть ipnatа ipfw nat это не тоже самое что natd ? The natd utility provides a Network Address Translation facility for use with divert(4) sockets under FreeBSD. The natd utility normally runs in the background as a daemon. It is passed raw IP packets as they travel into and out of the machine, and will possibly change these before re-injecting them back into the IP packet stream. ipfw support in-kernel NAT using the kernel version of libalias(3) Вставить ник Quote
YuryD Posted July 23, 2010 Posted July 23, 2010 ipfw support in-kernel NAT using the kernel version of libalias(3) Вот хоть бы кто цифры нагрузки привел, при natd и ipfw nat... А то холивар юзерспейс-кернел... У лисяры спросил - презрительное молчание... Будет легче freebsd7.3 голый natd, если я его на ipfw nat заменю ? Не в час пик , ~60мбит, ~20kpps... CPU: 4.1% user, 0.0% nice, 11.0% system, 21.9% interrupt, 63.0% idle 972 root 1 103 0 20808K 17384K select 1 345.2H 34.96% natd Вставить ник Quote
lanc Posted July 23, 2010 Author Posted July 23, 2010 а смысл менять natd на ipnat 60 мбит это не нагрузка... у меня и 250 мбит прожевывает не напрягаясь.. т..е. где то 10% берет цпу от CORE I7 2,66 просто если кол-во сессий превышает 110к.. то все.. потеря пакетов и все отсюда вытекающее обнуляем.. и все ок.. такое положение дел не устраивает Вставить ник Quote
Ivan_83 Posted July 23, 2010 Posted July 23, 2010 на стенде у себе погоняйте все варианты. ещё и PF nat есть. Вставить ник Quote
terrible Posted July 23, 2010 Posted July 23, 2010 обнуляем.. и все ок А у вас все эти 250 мбит натятся на сколько IP адресов? Вставить ник Quote
lanc Posted July 24, 2010 Author Posted July 24, 2010 обнуляем.. и все окА у вас все эти 250 мбит натятся на сколько IP адресов? 250 мбит в моменты снятия лимитов а так около 3000 правил и 650 юзеров онлайин Вставить ник Quote
-Px- Posted July 24, 2010 Posted July 24, 2010 Вот хоть бы кто цифры нагрузки привел, при natd и ipfw nat... С natd на Duron 1600 максимум 40 Мбит из 100 удавалось выжать при 100% загрузке процессора, с ipfw легко 90-95 при 10-15% загрузки Вставить ник Quote
YuryD Posted July 25, 2010 Posted July 25, 2010 Вот хоть бы кто цифры нагрузки привел, при natd и ipfw nat...С natd на Duron 1600 максимум 40 Мбит из 100 удавалось выжать при 100% загрузке процессора, с ipfw легко 90-95 при 10-15% загрузки Ну, как-то не так... Вот месяц по mrtg внешнего интерфейса natd Max In 129M Max Out 79M В ЧНН natd сжирает 80-90% одного ядра... Но текущий месяц непоказательный - народ на каникулах... Вставить ник Quote
-Px- Posted July 25, 2010 Posted July 25, 2010 Ну, как-то не так... Других цифр у меня нету, перемерять ближайшие пару недель некогда Вставить ник Quote
-Px- Posted July 27, 2010 Posted July 27, 2010 Sempron 3000+, 1 поток wget-ом в ftp, скорость в обоих вариантах одинакова между 6.5 и 7.5 МБ/с last pid: 1509; load averages: 1.05, 0.53, 0.22 up 0+00:02:30 02:56:33 91 processes: 4 running, 73 sleeping, 14 waiting CPU: 5.9% user, 0.0% nice, 43.4% system, 18.4% interrupt, 32.4% idle Mem: 21M Active, 262M Inact, 77M Wired, 124K Cache, 60M Buf, 134M Free Swap: 1024M Total, 1024M Free PID USERNAME THR PRI NICE SIZE RES STATE TIME WCPU COMMAND 11 root 1 171 ki31 0K 8K RUN 1:25 32.28% idle 12 root 14 -60 - 0K 112K WAIT 0:09 23.24% intr 1509 root 1 53 0 5940K 2264K select 0:07 15.38% wget 626 root 1 63 0 3564K 1284K RUN 0:06 12.60% natd last pid: 1727; load averages: 0.23, 0.38, 0.25 up 0+00:07:05 03:01:06 105 processes: 3 running, 88 sleeping, 14 waiting CPU: 2.7% user, 0.0% nice, 26.6% system, 18.0% interrupt, 52.7% idle Mem: 28M Active, 174M Inact, 78M Wired, 1980K Cache, 60M Buf, 211M Free Swap: 1024M Total, 1024M Free PID USERNAME THR PRI NICE SIZE RES STATE TIME WCPU COMMAND 11 root 1 171 ki31 0K 8K RUN 5:19 54.59% idle 1613 root 1 53 0 5940K 1712K select 0:05 15.38% wget 12 root 14 -60 - 0K 112K WAIT 0:20 13.77% intr 13 root 1 52 - 0K 8K RUN 0:13 13.18% ng_queue Вставить ник Quote
lanc Posted July 27, 2010 Author Posted July 27, 2010 Хватит флудить! тему читаете или нет! тут нужно решение как уйти от ограничения 110к сессий IPNAT а не меряться PCками у кого какой сколько выжал Вставить ник Quote
YuryD Posted July 27, 2010 Posted July 27, 2010 а не меряться PCками у кого какой сколько выжал Тут показывают реальные цифры, а не диаметр щек в юзреспейс-кернелспейс... У вас есть что показать ? Или Вы с татуина ? Вставить ник Quote
lanc Posted July 27, 2010 Author Posted July 27, 2010 (edited) а не меряться PCками у кого какой сколько выжал Тут показывают реальные цифры, а не диаметр щек в юзреспейс-кернелспейс... У вас есть что показать ? Или Вы с татуина ? что именно вас интересует? все параметры дал выше в первом посте топика вот вам ТОП в момент когда это происходит last pid: 14352; load averages: 0.67, 0.58, 0.53 up 1+06:44:53 21:58:42 104 processes: 11 running, 71 sleeping, 22 waiting CPU: 0.0% user, 0.0% nice, 6.8% system, 13.8% interrupt, 79.4% idle Mem: 17M Active, 80M Inact, 440M Wired, 540K Cache, 417M Buf, 3401M Free Swap: 8192M Total, 8192M Free PID USERNAME THR PRI NICE SIZE RES STATE C TIME CPU COMMAND 11 root 1 171 ki31 0K 16K RUN 7 30.5H 100.00% idle: cpu7 17 root 1 171 ki31 0K 16K CPU1 1 28.9H 100.00% idle: cpu1 13 root 1 171 ki31 0K 16K CPU5 5 30.3H 98.78% idle: cpu5 15 root 1 171 ki31 0K 16K CPU3 3 27.2H 91.70% idle: cpu3 18 root 1 171 ki31 0K 16K RUN 0 27.2H 83.59% idle: cpu0 49 root 1 -68 - 0K 16K CPU6 6 809:00 73.97% irq256: em0 16 root 1 171 ki31 0K 16K CPU2 2 23.6H 70.36% idle: cpu2 66 root 1 -68 - 0K 16K CPU0 0 834:46 66.89% dummynet 53 root 1 -68 - 0K 16K WAIT 4 627:42 60.50% irq259: em1 14 root 1 171 ki31 0K 16K CPU4 4 21.0H 43.80% idle: cpu4 12 root 1 171 ki31 0K 16K RUN 6 17.7H 34.08% idle: cpu6 54 root 1 -68 - 0K 16K WAIT 2 10:46 0.10% irq260: em1 52 root 1 -68 - 0K 16K - 5 7:27 0.00% em1 taskq 19 root 1 -32 - 0K 16K WAIT 3 6:26 0.00% swi4: clock sio 50 root 1 -68 - 0K 16K WAIT 2 5:38 0.00% irq257: em0 48 root 1 -68 - 0K 16K - 2 4:41 0.00% em0 taskq 26 root 1 44 - 0K 16K - 7 3:23 0.00% yarrow 71 root 1 20 - 0K 16K syncer 7 0:31 0.00% syncer 1160 root 2 44 0 7260K 3584K select 1 0:28 0.00% utm5_rfw 55 root 1 -68 - 0K 16K WAIT 2 0:27 0.00% irq261: em1 51 root 1 -68 - 0K 16K WAIT 2 0:15 0.00% irq258: em0 вот вам ошибки когда более 110к нат nat1# netstat -w 1 -h -I em1 input (em1) output packets errs bytes packets errs bytes colls 25K 313 9.6M 22K 0 3.5M 0 23K 631 8.8M 21K 0 3.4M 0 26K 216 9.2M 23K 0 3.6M 0 вот вам статистика ип нат nat1# ipnat -s mapped in 928126269 out 820003493 added 29066953 expired 26769880 no memory 0 bad nat 0 inuse 128792 orphans 0 rules 8478 wilds 0 hash efficiency 24.95% bucket usage 98.06% minimal length 0 maximal length 14 average length 4.009 TCP Entries per state 0 1 2 3 4 5 6 7 8 9 10 11 49 12034 104 22 4378 1840 795 5 67 0 24170 1569 вот параметры ipfilter nat1# ipf -T list fr_flags min 0 max 0xffffffff current 0 fr_active min 0 max 0 current 0 fr_control_forwarding min 0 max 0x1 current 0 fr_update_ipid min 0 max 0x1 current 0 fr_chksrc min 0 max 0x1 current 0 fr_minttl min 0 max 0x1 current 4 fr_icmpminfragmtu min 0 max 0x1 current 68 fr_pass min 0 max 0xffffffff current 134217730 fr_tcpidletimeout min 0x1 max 0x7fffffff current 864000 fr_tcpclosewait min 0x1 max 0x7fffffff current 480 fr_tcplastack min 0x1 max 0x7fffffff current 60 fr_tcptimeout min 0x1 max 0x7fffffff current 480 fr_tcpclosed min 0x1 max 0x7fffffff current 60 fr_tcphalfclosed min 0x1 max 0x7fffffff current 14400 fr_udptimeout min 0x1 max 0x7fffffff current 240 fr_udpacktimeout min 0x1 max 0x7fffffff current 24 fr_icmptimeout min 0x1 max 0x7fffffff current 120 fr_icmpacktimeout min 0x1 max 0x7fffffff current 12 fr_iptimeout min 0x1 max 0x7fffffff current 120 fr_statemax min 0x1 max 0x7fffffff current 4013 fr_statesize min 0x1 max 0x7fffffff current 5737 fr_state_lock min 0 max 0x1 current 0 fr_state_maxbucket min 0x1 max 0x7fffffff current 26 fr_state_maxbucket_reset min 0 max 0x1 current 1 ipstate_logging min 0 max 0x1 current 1 fr_nat_lock min 0 max 0x1 current 0 ipf_nattable_sz min 0x1 max 0x7fffffff current 32765 ipf_nattable_max min 0x1 max 0x7fffffff current 300000 ipf_natrules_sz min 0x1 max 0x7fffffff current 4093 ipf_rdrrules_sz min 0x1 max 0x7fffffff current 4093 ipf_hostmap_sz min 0x1 max 0x7fffffff current 16383 fr_nat_maxbucket min 0x1 max 0x7fffffff current 30 fr_nat_maxbucket_reset min 0 max 0x1 current 1 nat_logging min 0 max 0x1 current 1 fr_defnatage min 0x1 max 0x7fffffff current 1200 fr_defnatipage min 0x1 max 0x7fffffff current 120 fr_defnaticmpage min 0x1 max 0x7fffffff current 6 fr_nat_doflush min 0 max 0x1 current 0 ipf_proxy_debug min 0 max 0xa current 0 ipfr_size min 0x1 max 0x7fffffff current 257 fr_ipfrttl min 0x1 max 0x7fffffff current 120 ipl_suppress min 0 max 0x1 current 1 ipl_logmax min 0 max 0x7fffffff current 7 ipl_logall min 0 max 0x1 current 0 ipl_logsize min 0 max 0x80000 current 8192 ippr_ftp_debug min 0 max 0xa current 0 nat1# sysctl -a | grep ipf net.inet.ipf.fr_minttl: 4 net.inet.ipf.fr_chksrc: 0 net.inet.ipf.fr_defaultauthage: 600 net.inet.ipf.fr_authused: 0 net.inet.ipf.fr_authsize: 32 net.inet.ipf.ipf_hostmap_sz: 16383 net.inet.ipf.ipf_rdrrules_sz: 4093 net.inet.ipf.ipf_natrules_sz: 4093 net.inet.ipf.ipf_nattable_sz: 32765 net.inet.ipf.fr_statemax: 4013 net.inet.ipf.fr_statesize: 5737 net.inet.ipf.fr_running: 1 net.inet.ipf.fr_ipfrttl: 120 net.inet.ipf.fr_defnatage: 1200 net.inet.ipf.fr_icmptimeout: 120 net.inet.ipf.fr_udpacktimeout: 24 net.inet.ipf.fr_udptimeout: 240 net.inet.ipf.fr_tcpclosed: 60 net.inet.ipf.fr_tcptimeout: 480 net.inet.ipf.fr_tcplastack: 60 net.inet.ipf.fr_tcpclosewait: 480 net.inet.ipf.fr_tcphalfclosed: 14400 net.inet.ipf.fr_tcpidletimeout: 864000 net.inet.ipf.fr_active: 0 net.inet.ipf.fr_pass: 134217730 net.inet.ipf.fr_flags: 0 net.link.ether.ipfw: 0 1 users Load 0.81 0.67 0.60 27 июл 22:11 Mem:KB REAL VIRTUAL VN PAGER SWAP PAGER Tot Share Tot Share Free in out in out Act 26564 12800 116720 17568 3482876 count All 95072 15388 1073933k 23424 pages Proc: Interrupts r p d s w Csw Trp Sys Int Sof Flt cow 28368 total 29 26k 3 52 12k 353 1 1 zfod atkbd0 1 ozfod uhci2 uhci 11.1%Sys 20.4%Intr 0.0%User 0.0%Nice 68.5%Idle %ozfod 2001 cpu0: time | | | | | | | | | | | daefr 3416 em0 irq256 ======++++++++++ prcfr 1338 em0 irq257 10 dtbuf totfr 136 em0 irq258 Namei Name-cache Dir-cache 100000 desvn react 5330 em1 irq259 Calls hits % hits % 59408 numvn pdwak 1715 em1 irq260 24993 frevn pdpgs 425 em1 irq261 intrn 2001 cpu1: time Disks ad6 ar0 451132 wire 2001 cpu7: time KB/t 0.00 2.00 17424 act 2001 cpu2: time tps 0 0 81528 inact 2001 cpu4: time MB/s 0.00 0.00 540 cache 2001 cpu3: time %busy 0 0 3482336 free 2001 cpu6: time 427152 buf 2001 cpu5: time Edited July 27, 2010 by lanc Вставить ник Quote
photon Posted July 27, 2010 Posted July 27, 2010 Предлагаю перейти на pf или ipfw nat. У ipnat были проблемы с утечками памяти. Я вообще не понимаю, почему его все еще не выкинули из FreeBSD. Вставить ник Quote
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.