roysbike Опубликовано 18 декабря, 2011 · Жалоба Хотелось бы пополнить свой кругозор) Использую NG_NAT и шейпер NG_CAR (rate-limit). Показалось , что самый быстрый. И надежный. Может просто на другие не хватило прямых рук). Раньше был ipfw NAT.Сервер жил 2суток. CPU сжирало. пакеты валились. Перешли на NG_NAT , живем по 60 дней Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ilya Evseev Опубликовано 18 декабря, 2011 · Жалоба Раньше был ipfw NAT.Сервер жил 2суток. CPU сжирало. пакеты валились. Перешли на NG_NAT , живем по 60 дней pf nat: [root@gate ~]# uptime 8:42PM up 884 days, 17:20, 1 user, load averages: 1.08, 0.99, 0.79 [root@gate ~]# uname -a FreeBSD gate.terabita.net 7.0-RELEASE FreeBSD 7.0-RELEASE #0: Sun Feb 24 19:59:52 UTC 2008 root@logan.cse.buffalo.edu:/usr/obj/usr/src/sys/GENERIC i386 [root@gate ~]# pfctl -si No ALTQ support in kernel ALTQ related functions disabled Status: Enabled for 30 days 10:58:51 Debug: Urgent State Table Total Rate current entries 19684 searches 55958808519 21264.7/s inserts 302262848 114.9/s removals 302250801 114.9/s Counters match 35827156481 13614.6/s ... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Sanchezz Опубликовано 19 декабря, 2011 · Жалоба живем на pf аптайм момента установки роутера. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
t00r Опубликовано 19 декабря, 2011 (изменено) · Жалоба Три GW - все на PT-шках серверных. Ядро самосбор. Нат кернельный. Шейпер на tablearg с маской 0xffffffff. На ядре сети - DGS-3610 в стеке. В ядре тупоая балансировка на случайный нат на 0.0.0.0. Весь остальной внутренний роутинг через OSPF. gw0# uptime 2:29PM up 25 days, 15:37, 1 user, load averages: 1.30, 1.33, 1.27 gw0# uname -a FreeBSD gw0 7.3-RELEASE FreeBSD 7.3-RELEASE #2: Tue Nov 15 21:40:36 MSK 2011 root@gw0:/usr/obj/usr/src/sys/GW0 i386 kernel space NAT, dummy gw1# uptime 9:30AM up 25 days, 15:35, 1 user, load averages: 1.49, 1.63, 1.60 gw1# uname -a FreeBSD gw1 7.4-RELEASE FreeBSD 7.4-RELEASE #2: Tue Nov 15 15:43:44 MSK 2011 root@gw1:/usr/obj/usr/src/sys/GW1 amd64 kernel space NAT, dummy gw2# uptime 10:29AM up 25 days, 15:39, 2 users, load averages: 1.34, 1.43, 1.38 gw2# uname -a FreeBSD gw2.mkc-net.ru 8.2-RELEASE FreeBSD 8.2-RELEASE #0: Wed Nov 16 11:10:37 MSK 2011 root@gw2.mkc-net.ru:/usr/obj/usr/src/sys/GW2 amd64 kernel space NAT, dummy 25 дней назад просто мосэнерго свет выключали - так там аптайм по пол-года .... Max In: 901.19Mb; Average In: 399.20Mb; Current In: 514.90Mb; Max Out: 546.97Mb; Average Out: 261.22Mb; Current Out: 222.55Mb; Max In: 865.16Mb; Average In: 400.57Mb; Current In: 418.10Mb; Max Out: 700.20Mb; Average Out: 415.12Mb; Current Out: 202.08Mb; Max In: 841.23Mb; Average In: 398.59Mb; Current In: 310.46Mb; Max Out: 679.88Mb; Average Out: 395.62Mb; Current Out: 154.55Mb; Все машины с разными ядрами для оценки производительности. Ядро сети стоит тупым load-balance-ингом - т.е. распределяет равнозначное количество маков на каждый GW. Число абонентов ( живых ) в пиках до 4к ( не так конечно много, но я и не утверждаю, что схема хорошая ). Если кто-то выдаст более оптимальное решение - буду благодарен. Делал сам по разным манам, но решение myself. Изменено 19 декабря, 2011 пользователем t00r Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Deac Опубликовано 19 декабря, 2011 · Жалоба В опрос надо добавить пункт: NAT - зло. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dyr Опубликовано 19 декабря, 2011 · Жалоба Перешли на NG_NAT , живем по 60 днейА что, простите, происходит на 61 день? И покажите, как сконфигурировали ng_nat и ng_car? У нас используется pf nat, недоволен. Раздражает проблемами с GRE, FTP и одноядерностью. Сейчас так, например (Core2Duo, обслуживает процентов 10 от общего числа абонентов): pfctl -si No ALTQ support in kernel ALTQ related functions disabled Status: Enabled for 13 days 21:24:04 Debug: Urgent State Table Total Rate current entries 83846 searches 42649445886 35534.0/s inserts 1199144538 999.1/s removals 1199098851 999.0/s Counters match 1227497469 1022.7/s bad-offset 0 0.0/s fragment 45953 0.0/s short 1617 0.0/s normalize 15910 0.0/s memory 0 0.0/s bad-timestamp 0 0.0/s congestion 0 0.0/s ip-option 158204 0.1/s proto-cksum 203496 0.2/s state-mismatch 2330559 1.9/s state-insert 0 0.0/s state-limit 249 0.0/s src-limit 76552 0.1/s synproxy 0 0.0/s root@Stella:/usr/home/dyr (259) uptime 16:14 up 167 days, 9:26, 1 user, load averages: 0,69 0,64 0,64 root@Stella:/usr/home/dyr (261) netstat -i -I vlan3050 -dh 1 input (vlan3050) output packets errs idrops bytes packets errs bytes colls drops 12K 0 0 8.2M 12K 0 11M 0 0 12K 0 0 7.8M 12K 0 10M 0 0 12K 0 0 7.6M 12K 0 11M 0 0 13K 0 0 9.7M 12K 0 9.9M 0 0 ^C root@Stella:/usr/home/dyr (261) top -aSCHIP last pid: 22989; load averages: 0.73, 0.66, 0.65 up 167+09:27:29 16:16:07 111 processes: 3 running, 92 sleeping, 16 waiting CPU 0: 0.0% user, 0.0% nice, 30.5% system, 1.1% interrupt, 68.4% idle CPU 1: 0.0% user, 0.0% nice, 35.8% system, 1.1% interrupt, 63.2% idle Mem: 44M Active, 3100M Inact, 611M Wired, 60M Cache, 418M Buf, 128M Free Swap: 1024M Total, 632K Used, 1023M Free PID USERNAME PRI NICE SIZE RES STATE C TIME CPU COMMAND 10 root 171 ki31 0K 32K RUN 0 2498.8 64.89% {idle: cpu0} 10 root 171 ki31 0K 32K CPU1 1 2495.5 61.96% {idle: cpu1} 0 root -68 0 0K 128K - 1 1243.9 39.70% {em0 taskq} 0 root -68 0 0K 128K - 0 1210.7 33.89% {em1 taskq} 11 root -32 - 0K 256K WAIT 1 73.7H 0.68% {swi4: clock} 60982 root 44 0 27240K 5908K select 1 453:56 0.39% /usr/local/sbin/snmpd -p /var/run/net-snmpd.pid 0 root -68 0 0K 128K - 1 419.4H 0.10% {dummynet} Перевели одну из машин на Xeon с linux'овыми iptables, стало значительно лучше, и подозреваю, в первую очередь всё же из-за iptables'овского NAT'a, а не из-за процессора. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
t00r Опубликовано 19 декабря, 2011 · Жалоба В опрос надо добавить пункт: NAT - зло. мужчина, вам плохо?))) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roysbike Опубликовано 19 декабря, 2011 (изменено) · Жалоба Перешли на NG_NAT , живем по 60 днейА что, простите, происходит на 61 день?И покажите, как сконфигурировали ng_nat и ng_car? часто серверная перезжает) или что нить меняем) то кабель выкапают электрический) с ng_car все бонально. В базе хранятся radcheck и radreply. Где содер. атрибуты mpd-limit += "in#1=all rate-limit 528001 pass" -например ОТправляем через radlient nasу , где крутиться mpd5 и NG_NAT , если надо сменить скорость на ходу. Для ТП с разной скоростью в разное время. Если не в курсе , расспишу Вот конфиг NG_nat) #cat /etc/rc.firewall #!/bin/sh ext="217.152.x.x" #внешний IP int="em1" # Внешний интерфейс nat="172.16.0.0/16" # Какой сети дать инет (Это пул адресов для абонентов) IP сервера 172.18.0.1 ngctl shutdown nat: ngctl mkpeer ipfw: nat 60 out ngctl name ipfw:60 nat ngctl connect ipfw: nat: 61 in ngctl msg nat: setaliasaddr $ext fwcmd="/sbin/ipfw" ${fwcmd} -f flush ${fwcmd} add 10000 netgraph 61 all from any to any in via $int ${fwcmd} add 10001 netgraph 60 all from $nat to any out via $int # не забудьте разшираить буфера) sysctl.conf net.graph.maxdgram=8388608 net.graph.recvspace=8388608 kern.ipc.maxsockbuf=83886080 kern.ipc.nmbclusters=400000 net.inet.ip.intr_queue_maxlen=10240 net.inet.tcp.sendspace=128000 net.inet.tcp.recvspace=128000 loader.conf net.graph.maxdata=65536 net.graph.maxalloc=65536 Изменено 19 декабря, 2011 пользователем roysbike Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dyr Опубликовано 20 декабря, 2011 · Жалоба roysbike, спасибо. С mpd5 и ng_car я как раз года четыре-пять назад развлекался. ;) Понравилось, но сейчас PPTP не использую, думал, у вас ng_car и ng_nat для всех сразу включены. А скорость на лету, очевидно, изменяете скриптом, с одной стороны вытягивающем нужные атрибуты из RADIUS, а другой отправляющей ngctl msg соответствующей ноде? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roysbike Опубликовано 20 декабря, 2011 (изменено) · Жалоба roysbike, спасибо. С mpd5 и ng_car я как раз года четыре-пять назад развлекался. ;) Понравилось, но сейчас PPTP не использую, думал, у вас ng_car и ng_nat для всех сразу включены. А скорость на лету, очевидно, изменяете скриптом, с одной стороны вытягивающем нужные атрибуты из RADIUS, а другой отправляющей ngctl msg соответствующей ноде? Меняем через базу. База отправляет через perl, шеллу. Используем PGSQL. Например, чтобы попробывать создаем скрипт #cat radsend.sh #!/bin/sh /usr/local/bin/radclient -x -c1 -n1 -t0 -f pack.txt IP_nas-сервера:3799 coa masterkey создаем файл с атрибутами Режем 50 мбит #cat pack.txt User-Name = "100500" #Кому сменить скорость 100500-логин mpd-limit += "out#1=all rate-limit 51036000" mpd-limit += "in#1=all rate-limit 51036000 " заходим по веб 5006 и проверяем [] link L-152 [L-152] show auth Configuration: My authname : Max-Logins : 0 Acct Update : 0 Limit In : 0 Limit Out : 0 Auth timeout : 40 ExtAuth script : ExtAcct script : Auth options radius-auth enable radius-acct enable internal disable ext-auth disable ext-acct disable system-auth disable system-acct disable pam-auth disable pam-acct disable opie disable acct-mandatory enable Auth Data Peer authname : 100500 IP range : 172.16.2.x/32 IP pool : DNS : 0.0.0.0 0.0.0.0 NBNS : 0.0.0.0 0.0.0.0 MTU : 0 Session-Timeout : 0 Idle-Timeout : 0 Acct-Update : 0 Routes : IPFW rules : IPFW pipes : IPFW queues : IPFW tables : Traffic filters : Traffic limits : in#2 : 'all rate-limit 51036000' out#1 : 'all rate-limit 51036000' MS-Domain : (null) MPPE Types : Allowed MPPE Policy : 40 128 bit MPPE Keys : yes Изменено 20 декабря, 2011 пользователем roysbike Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
911 Опубликовано 20 декабря, 2011 · Жалоба почему-то ipfw nat больше нагружает проц, чем pf Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roysbike Опубликовано 21 декабря, 2011 · Жалоба почему-то ipfw nat больше нагружает проц, чем pf причем в 5 раз. Щас перешел на PF_NAT + NG_CAR. Я удивлен. раньше было при NGNAT + NG_CAR . 300 мбит Load aver 3.0 гдето. И постоянно один их ng_queue залетал под 80 процентов. Соотвессвенно пинг и скорости не было. Теперь же при 300 мбит load av 1.0 Где-то Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dyr Опубликовано 21 декабря, 2011 · Жалоба Я разнёс вообще NAT и шейперы. Шейпер dummynet в bridge-режиме, NAT на линуксовых iptables. Хочу попробовать вот ещё dummynet под линукс, ибо уже года два как Луиджи их портировал. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
YuryD Опубликовано 22 декабря, 2011 · Жалоба Тут с natd вообще чудеса происходят. Стоял фуджицу-сименс r2 8-головый, сетевые bge, прожевывал 250М не напрягая 1 проц более чем на 30%. Решил заменить на ibm x3550, там процы побыстрее, но сетевые bce. Склонировал один-в-один, переключил кабели - natd 100% одного ядра сразу... FreeBSD7.4 обновленная... Вот сижу и думаю, поможет ли мне ipfw nat, или сразу ng_nat пробовать ? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roysbike Опубликовано 22 декабря, 2011 · Жалоба Тут с natd вообще чудеса происходят. Стоял фуджицу-сименс r2 8-головый, сетевые bge, прожевывал 250М не напрягая 1 проц более чем на 30%. Решил заменить на ibm x3550, там процы побыстрее, но сетевые bce. Склонировал один-в-один, переключил кабели - natd 100% одного ядра сразу... FreeBSD7.4 обновленная... Вот сижу и думаю, поможет ли мне ipfw nat, или сразу ng_nat пробовать ? Чем режешь скорость? Ставь Freebsd 8.2 Stable. Карточки igb. Шейпер ng-car , PF-NAT. И будет тебе счастье Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
YuryD Опубликовано 22 декабря, 2011 · Жалоба Чем режешь скорость? Ставь Freebsd 8.2 Stable. Карточки igb. Шейпер ng-car , PF-NAT. И будет тебе счастье Вся разница у меня - только в железе. Оба - серверы, не самосбор. ОС и конфиги идентичны, разница только в bge/bce И абсолютно непонятно, почему так... А от Pf-nat счастья не будет... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roysbike Опубликовано 22 декабря, 2011 · Жалоба Чем режешь скорость? Ставь Freebsd 8.2 Stable. Карточки igb. Шейпер ng-car , PF-NAT. И будет тебе счастье Вся разница у меня - только в железе. Оба - серверы, не самосбор. ОС и конфиги идентичны, разница только в bge/bce И абсолютно непонятно, почему так... А от Pf-nat счастья не будет... Не знаю как у вас. Использую Freebsd 8.2 PF_NAT(раньше был NG_NAT) Шейпер ng_car. Xeon 2.6 2 ядра 4 потока. карты bge1-lan bge0-wam em0-dmz. MPD5 800-online 400-500 mbit Load aver 3.0 где-то . Никаких задержек. Ну и тюнинг конечно Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
caz Опубликовано 3 января, 2012 · Жалоба когда был нат, использовал pf, результат nat_10G# pfctl -si No ALTQ support in kernel ALTQ related functions disabled Status: Enabled for 2 days 22:43:50 Debug: Urgent State Table Total Rate current entries 511399 searches 66242645155 260152.6/s inserts 1073620385 4216.4/s removals 1073108986 4214.4/s Counters match 4123564220 16194.3/s bad-offset 0 0.0/s fragment 20071 0.1/s short 3424288 13.4/s normalize 0 0.0/s memory 0 0.0/s bad-timestamp 0 0.0/s congestion 0 0.0/s ip-option 1 0.0/s proto-cksum 854072 3.4/s state-mismatch 2175192 8.5/s state-insert 0 0.0/s state-limit 0 0.0/s src-limit 0 0.0/s synproxy 0 0.0/s nat_10G# netstat -w1 input (Total) output packets errs idrops bytes packets errs bytes colls 507927 0 0 417395353 496043 0 417415206 0 504416 0 0 417048566 492349 0 416103187 0 512486 0 0 423252236 500738 0 422240643 0 509881 0 0 420324841 497159 0 418901467 0 509690 0 0 419741694 498244 0 418474526 0 504826 0 0 416572384 492656 0 415470689 0 503184 0 0 417901110 491040 0 416839754 0 513832 0 0 426541917 501968 0 425087011 0 511124 0 0 423056683 498789 0 421899454 0 494034 0 0 406351183 481640 0 406272692 0 493205 0 0 404245612 481932 0 402998981 0 495217 0 0 404396253 483272 0 403166908 0 508016 0 0 411733578 495702 0 410017315 0 nat_10G# ifstat -b ix0 ix1 em0 Kbps in Kbps out Kbps in Kbps out Kbps in Kbps out 1.04e+06 2.25e+06 2.26e+06 1.05e+06 0.00 0.00 1.01e+06 2.09e+06 2.09e+06 1.01e+06 0.00 0.00 992835.3 2.08e+06 2.09e+06 994844.6 0.00 0.00 985792.9 2.22e+06 2.23e+06 983862.9 0.00 0.00 1.03e+06 2.19e+06 2.20e+06 1.03e+06 0.00 0.00 1.07e+06 2.20e+06 2.21e+06 1.07e+06 0.00 0.33 1.02e+06 2.26e+06 2.27e+06 1.02e+06 0.00 0.00 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
zlolotus Опубликовано 7 января, 2012 · Жалоба freebsd 8.2 ipfw nat + mpd4 vpn# netstat -h -w 1 input (Total) output packets errs idrops bytes packets errs bytes colls 27K 0 0 15M 30K 0 24M 0 25K 0 0 14M 29K 0 22M 0 25K 0 0 14M 29K 0 22M 0 27K 0 0 15M 30K 0 24M 0 28K 0 0 15M 31K 0 24M 0 last pid: 17318; load averages: 0.29, 0.35, 0.33 up 45+09:07:30 17:42:18 111 processes: 6 running, 82 sleeping, 23 waiting CPU 0: 1.7% user, 0.0% nice, 3.3% system, 12.5% interrupt, 82.5% idle CPU 1: 0.8% user, 0.0% nice, 12.5% system, 17.5% interrupt, 69.2% idle CPU 2: 5.0% user, 0.0% nice, 13.3% system, 0.0% interrupt, 81.7% idle CPU 3: 1.7% user, 0.0% nice, 8.3% system, 0.0% interrupt, 90.0% idle Mem: 46M Active, 76M Inact, 549M Wired, 180K Cache, 616M Buf, 5162M Free Swap: 4096M Total, 4096M Free В пиках доходит до 200 мб При этом load average не превышает 1,5 Кстати пробовал ng_nat он все-таки по моему мнению больше грузит систему примерно на 10%. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dyr Опубликовано 10 января, 2012 · Жалоба Хочу внести существенные поправки по поводу своего предыдущего сообщения о недовольстве с PF. Узким местом всё же был не PF, а слабая сетевая и процессор. Стоило обновить сервер, как гигабит стал проходить просто прекрасно. Проблемы с GRE удалось решить блоком правил: pass in quick on $ext_if inet proto gre all no state pass out quick on $ext_if inet proto gre all no state "no state" ключевое и обязательное условие. Проблемы с FTP решил использованием ftpproxy: nat-anchor "ftp-proxy/*" rdr-anchor "ftp-proxy/*" rdr pass on $int_if proto tcp from <allow-nat> to any port 21 -> 127.0.0.1 port 8021 anchor "ftp-proxy/*" pass out proto tcp from any to any port 21 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
YuryD Опубликовано 11 января, 2012 · Жалоба Проблемы с GRE удалось решить блоком правил: pass in quick on $ext_if inet proto gre all no state pass out quick on $ext_if inet proto gre all no state "no state" ключевое и обязательное условие. Проблему нескольких pptp из-под одного nat к одному и тому-же серверу решает ? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
lagman Опубликовано 11 января, 2012 · Жалоба ipfw nat няшка. Сейчас, правда, обед, но цифры таковы: svm# uname -rm 8.2-STABLE amd64 svm# ipfw nat show nat 3: icmp=57, udp=16277, tcp=37264, sctp=0, pptp=0, proto=0, frag_id=5 frag_ptr=0 / tot=53603 nat 2: icmp=5696, udp=12686, tcp=24442, sctp=0, pptp=0, proto=1, frag_id=656 frag_ptr=0 / tot=43481 nat 1: icmp=22, udp=31119, tcp=60061, sctp=0, pptp=0, proto=0, frag_id=545 frag_ptr=0 / tot=91747 last pid: 96229; load averages: 1.70, 1.62, 1.51 up 23+07:02:59 12:08:02 485 processes: 25 running, 372 sleeping, 88 waiting CPU: 0.1% user, 0.0% nice, 0.1% system, 6.5% interrupt, 93.2% idle Mem: 48M Active, 4716K Inact, 5237M Wired, 232K Cache, 6580M Free Swap: 12G Total, 12G Free PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND 11 root 171 ki31 0K 384K CPU20 20 555.6H 100.00% {idle: cpu20} 11 root 171 ki31 0K 384K CPU21 21 555.4H 100.00% {idle: cpu21} 11 root 171 ki31 0K 384K CPU23 23 555.4H 100.00% {idle: cpu23} 11 root 171 ki31 0K 384K CPU19 19 554.6H 100.00% {idle: cpu19} 11 root 171 ki31 0K 384K CPU5 5 554.5H 100.00% {idle: cpu5} 11 root 171 ki31 0K 384K CPU18 18 554.5H 100.00% {idle: cpu18} 11 root 171 ki31 0K 384K CPU4 4 554.4H 100.00% {idle: cpu4} 11 root 171 ki31 0K 384K RUN 7 554.0H 100.00% {idle: cpu7} 11 root 171 ki31 0K 384K CPU6 6 553.6H 100.00% {idle: cpu6} 11 root 171 ki31 0K 384K CPU16 16 552.9H 100.00% {idle: cpu16} 11 root 171 ki31 0K 384K CPU17 17 552.8H 100.00% {idle: cpu17} 11 root 171 ki31 0K 384K CPU3 3 394.1H 100.00% {idle: cpu3} 11 root 171 ki31 0K 384K CPU2 2 394.1H 100.00% {idle: cpu2} 11 root 171 ki31 0K 384K CPU1 1 383.4H 100.00% {idle: cpu1} 11 root 171 ki31 0K 384K RUN 0 279.8H 100.00% {idle: cpu0} 11 root 171 ki31 0K 384K CPU22 22 555.7H 99.07% {idle: cpu22} 11 root 171 ki31 0K 384K CPU10 10 534.2H 91.26% {idle: cpu10} 11 root 171 ki31 0K 384K CPU12 12 530.8H 90.58% {idle: cpu12} 11 root 171 ki31 0K 384K CPU11 11 535.1H 88.33% {idle: cpu11} 11 root 171 ki31 0K 384K CPU13 13 531.0H 86.28% {idle: cpu13} 11 root 171 ki31 0K 384K CPU15 15 532.6H 86.23% {idle: cpu15} 11 root 171 ki31 0K 384K CPU8 8 534.5H 84.18% {idle: cpu8} 11 root 171 ki31 0K 384K CPU9 9 534.6H 81.93% {idle: cpu9} 11 root 171 ki31 0K 384K CPU14 14 533.1H 74.85% {idle: cpu14} 12 root -68 - 0K 1408K WAIT 14 75.8H 26.17% {irq293: igb7:que} 12 root -68 - 0K 1408K WAIT 9 127.0H 25.98% {irq282: igb5:que} 12 root -68 - 0K 1408K WAIT 8 112.2H 21.29% {irq281: igb5:que} 12 root -68 - 0K 1408K WAIT 13 82.0H 18.12% {irq292: igb7:que} 12 root -68 - 0K 1408K WAIT 12 69.3H 16.50% {irq291: igb7:que} 12 root -68 - 0K 1408K WAIT 15 76.3H 13.82% {irq294: igb7:que} 12 root -68 - 0K 1408K WAIT 10 122.3H 12.30% {irq283: igb5:que} 12 root -68 - 0K 1408K WAIT 11 120.5H 11.47% {irq284: igb5:que} 12 root -32 - 0K 1408K WAIT 7 492:12 1.12% {swi4: clock} 0 root -68 0 0K 4240K - 16 203:04 0.29% {igb7 que} 12 root -68 - 0K 1408K WAIT 1 98:04 0.20% {irq257: igb0:que} 12 root -68 - 0K 1408K WAIT 0 87:42 0.20% {irq256: igb0:que} 0 root -68 0 0K 4240K - 0 131.6H 0.10% {dummynet} 0 root -68 0 0K 4240K - 4 195:12 0.10% {igb5 que} 0 root -68 0 0K 4240K - 17 193:16 0.10% {igb5 que} 0 root -68 0 0K 4240K - 4 98:36 0.10% {igb5 que} svm# netstat -h 1 input (Total) output packets errs idrops bytes packets errs bytes colls 143K 0 0 117M 142K 0 116M 0 148K 0 0 124M 147K 0 124M 0 148K 0 0 123M 147K 0 123M 0 140K 0 0 118M 138K 0 117M 0 147K 0 0 123M 146K 0 123M 0 146K 0 0 121M 144K 0 120M 0 145K 0 0 119M 144K 0 119M 0 140K 0 0 114M 138K 0 114M 0 CPU: Intel(R) Xeon(R) CPU X5650 @ 2.67GHz (2677.45-MHz K8-class CPU) Origin = "GenuineIntel" Id = 0x206c2 Family = 6 Model = 2c Stepping = 2 Features=0xbfebfbff<FPU,VME,DE,PSE,TSC,MSR,PAE,MCE,CX8,APIC,SEP,MTRR,PGE,MCA,CMOV,PAT,PSE36,CLFLUSH,DTS,ACPI,MMX,FXSR,SSE,SSE2,SS,HTT,TM,PBE> Features2=0x9ee3fd<SSE3,DTES64,MON,DS_CPL,VMX,SMX,EST,TM2,SSSE3,CX16,xTPR,PDCM,PCID,DCA,SSE4.1,SSE4.2,POPCNT> AMD Features=0x2c100800<SYSCALL,NX,Page1GB,RDTSCP,LM> AMD Features2=0x1<LAHF> TSC: P-state invariant real memory = 12889096192 (12292 MB) avail memory = 12368695296 (11795 MB) машина - бордюр+нат+шейпер+нетфлоколлектор трафика гигабит-полтора, в пиках загрузка проца - 10-15% Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dyr Опубликовано 11 января, 2012 · Жалоба Проблему нескольких pptp из-под одного nat к одному и тому-же серверу решает ? Не помню, проверял ли это в тесте, но жаловаться на работу PPTP перестали. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dyr Опубликовано 11 января, 2012 · Жалоба машина - бордюр+нат+шейпер+нетфлоколлектор трафика гигабит-полтора, в пиках загрузка проца - 10-15% Пфф, неудивительно, в общем-то, с таким процессором (или, похоже, процессорами?). Кстати, у вас похоже HyperThreading включен - судя по количеству ядер в top. У меня выполняющая аналогичные задачи машинка с pf под NAT, dummynet и ng_netflow загружена в час пик (порядка 600-800 Мбит трафика) на 10-20%, с процом куда поменьше: FreeBSD 8.2-RELEASE #0: Thu Apr 7 15:02:22 UTC 2011 root@:/tmp/usr/src/sys/ROUTER_HOME_NETS amd64 Timecounter "i8254" frequency 1193182 Hz quality 0 CPU: Intel(R) Xeon(R) CPU E31270 @ 3.40GHz (3392.31-MHz K8-class CPU) Origin = "GenuineIntel" Id = 0x206a7 Family = 6 Model = 2a Stepping = 7 Features=0xbfebfbff<FPU,VME,DE,PSE,TSC,MSR,PAE,MCE,CX8,APIC,SEP,MTRR,PGE,MCA,CMOV,PAT,PSE36,CLFLUSH,DTS,ACPI,MMX,FXSR,SSE,SSE2,SS,HTT,TM,PBE> Features2=0x17bae3ff<SSE3,PCLMULQDQ,DTES64,MON,DS_CPL,VMX,SMX,EST,TM2,SSSE3,CX16,xTPR,PDCM,PCID,SSE4.1,SSE4.2,x2APIC,POPCNT,<b24>,AESNI,XSAVE,<b28>> AMD Features=0x28100800<SYSCALL,NX,RDTSCP,LM> AMD Features2=0x1<LAHF> TSC: P-state invariant real memory = 8589934592 (8192 MB) avail memory = 8233857024 (7852 MB) ACPI APIC Table: <SUPERM SMCI--MB> FreeBSD/SMP: Multiprocessor System Detected: 4 CPUs FreeBSD/SMP: 1 package(s) x 4 core(s) cpu0 (BSP): APIC ID: 0 cpu1 (AP): APIC ID: 2 cpu2 (AP): APIC ID: 4 cpu3 (AP): APIC ID: 6 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
lagman Опубликовано 11 января, 2012 · Жалоба Пфф, неудивительно, в общем-то, с таким процессором (или, похоже, процессорами?). Кстати, у вас похоже HyperThreading включен - судя по количеству ядер в top. Два процессора там: FreeBSD/SMP: 2 package(s) x 6 core(s) x 2 SMT threads Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...