roysbike Posted December 18, 2011 Posted December 18, 2011 Хотелось бы пополнить свой кругозор) Использую NG_NAT и шейпер NG_CAR (rate-limit). Показалось , что самый быстрый. И надежный. Может просто на другие не хватило прямых рук). Раньше был ipfw NAT.Сервер жил 2суток. CPU сжирало. пакеты валились. Перешли на NG_NAT , живем по 60 дней Вставить ник Quote
Ilya Evseev Posted December 18, 2011 Posted December 18, 2011 Раньше был ipfw NAT.Сервер жил 2суток. CPU сжирало. пакеты валились. Перешли на NG_NAT , живем по 60 дней pf nat: [root@gate ~]# uptime 8:42PM up 884 days, 17:20, 1 user, load averages: 1.08, 0.99, 0.79 [root@gate ~]# uname -a FreeBSD gate.terabita.net 7.0-RELEASE FreeBSD 7.0-RELEASE #0: Sun Feb 24 19:59:52 UTC 2008 root@logan.cse.buffalo.edu:/usr/obj/usr/src/sys/GENERIC i386 [root@gate ~]# pfctl -si No ALTQ support in kernel ALTQ related functions disabled Status: Enabled for 30 days 10:58:51 Debug: Urgent State Table Total Rate current entries 19684 searches 55958808519 21264.7/s inserts 302262848 114.9/s removals 302250801 114.9/s Counters match 35827156481 13614.6/s ... Вставить ник Quote
Sanchezz Posted December 19, 2011 Posted December 19, 2011 живем на pf аптайм момента установки роутера. Вставить ник Quote
t00r Posted December 19, 2011 Posted December 19, 2011 (edited) Три GW - все на PT-шках серверных. Ядро самосбор. Нат кернельный. Шейпер на tablearg с маской 0xffffffff. На ядре сети - DGS-3610 в стеке. В ядре тупоая балансировка на случайный нат на 0.0.0.0. Весь остальной внутренний роутинг через OSPF. gw0# uptime 2:29PM up 25 days, 15:37, 1 user, load averages: 1.30, 1.33, 1.27 gw0# uname -a FreeBSD gw0 7.3-RELEASE FreeBSD 7.3-RELEASE #2: Tue Nov 15 21:40:36 MSK 2011 root@gw0:/usr/obj/usr/src/sys/GW0 i386 kernel space NAT, dummy gw1# uptime 9:30AM up 25 days, 15:35, 1 user, load averages: 1.49, 1.63, 1.60 gw1# uname -a FreeBSD gw1 7.4-RELEASE FreeBSD 7.4-RELEASE #2: Tue Nov 15 15:43:44 MSK 2011 root@gw1:/usr/obj/usr/src/sys/GW1 amd64 kernel space NAT, dummy gw2# uptime 10:29AM up 25 days, 15:39, 2 users, load averages: 1.34, 1.43, 1.38 gw2# uname -a FreeBSD gw2.mkc-net.ru 8.2-RELEASE FreeBSD 8.2-RELEASE #0: Wed Nov 16 11:10:37 MSK 2011 root@gw2.mkc-net.ru:/usr/obj/usr/src/sys/GW2 amd64 kernel space NAT, dummy 25 дней назад просто мосэнерго свет выключали - так там аптайм по пол-года .... Max In: 901.19Mb; Average In: 399.20Mb; Current In: 514.90Mb; Max Out: 546.97Mb; Average Out: 261.22Mb; Current Out: 222.55Mb; Max In: 865.16Mb; Average In: 400.57Mb; Current In: 418.10Mb; Max Out: 700.20Mb; Average Out: 415.12Mb; Current Out: 202.08Mb; Max In: 841.23Mb; Average In: 398.59Mb; Current In: 310.46Mb; Max Out: 679.88Mb; Average Out: 395.62Mb; Current Out: 154.55Mb; Все машины с разными ядрами для оценки производительности. Ядро сети стоит тупым load-balance-ингом - т.е. распределяет равнозначное количество маков на каждый GW. Число абонентов ( живых ) в пиках до 4к ( не так конечно много, но я и не утверждаю, что схема хорошая ). Если кто-то выдаст более оптимальное решение - буду благодарен. Делал сам по разным манам, но решение myself. Edited December 19, 2011 by t00r Вставить ник Quote
Deac Posted December 19, 2011 Posted December 19, 2011 В опрос надо добавить пункт: NAT - зло. Вставить ник Quote
Dyr Posted December 19, 2011 Posted December 19, 2011 Перешли на NG_NAT , живем по 60 днейА что, простите, происходит на 61 день? И покажите, как сконфигурировали ng_nat и ng_car? У нас используется pf nat, недоволен. Раздражает проблемами с GRE, FTP и одноядерностью. Сейчас так, например (Core2Duo, обслуживает процентов 10 от общего числа абонентов): pfctl -si No ALTQ support in kernel ALTQ related functions disabled Status: Enabled for 13 days 21:24:04 Debug: Urgent State Table Total Rate current entries 83846 searches 42649445886 35534.0/s inserts 1199144538 999.1/s removals 1199098851 999.0/s Counters match 1227497469 1022.7/s bad-offset 0 0.0/s fragment 45953 0.0/s short 1617 0.0/s normalize 15910 0.0/s memory 0 0.0/s bad-timestamp 0 0.0/s congestion 0 0.0/s ip-option 158204 0.1/s proto-cksum 203496 0.2/s state-mismatch 2330559 1.9/s state-insert 0 0.0/s state-limit 249 0.0/s src-limit 76552 0.1/s synproxy 0 0.0/s root@Stella:/usr/home/dyr (259) uptime 16:14 up 167 days, 9:26, 1 user, load averages: 0,69 0,64 0,64 root@Stella:/usr/home/dyr (261) netstat -i -I vlan3050 -dh 1 input (vlan3050) output packets errs idrops bytes packets errs bytes colls drops 12K 0 0 8.2M 12K 0 11M 0 0 12K 0 0 7.8M 12K 0 10M 0 0 12K 0 0 7.6M 12K 0 11M 0 0 13K 0 0 9.7M 12K 0 9.9M 0 0 ^C root@Stella:/usr/home/dyr (261) top -aSCHIP last pid: 22989; load averages: 0.73, 0.66, 0.65 up 167+09:27:29 16:16:07 111 processes: 3 running, 92 sleeping, 16 waiting CPU 0: 0.0% user, 0.0% nice, 30.5% system, 1.1% interrupt, 68.4% idle CPU 1: 0.0% user, 0.0% nice, 35.8% system, 1.1% interrupt, 63.2% idle Mem: 44M Active, 3100M Inact, 611M Wired, 60M Cache, 418M Buf, 128M Free Swap: 1024M Total, 632K Used, 1023M Free PID USERNAME PRI NICE SIZE RES STATE C TIME CPU COMMAND 10 root 171 ki31 0K 32K RUN 0 2498.8 64.89% {idle: cpu0} 10 root 171 ki31 0K 32K CPU1 1 2495.5 61.96% {idle: cpu1} 0 root -68 0 0K 128K - 1 1243.9 39.70% {em0 taskq} 0 root -68 0 0K 128K - 0 1210.7 33.89% {em1 taskq} 11 root -32 - 0K 256K WAIT 1 73.7H 0.68% {swi4: clock} 60982 root 44 0 27240K 5908K select 1 453:56 0.39% /usr/local/sbin/snmpd -p /var/run/net-snmpd.pid 0 root -68 0 0K 128K - 1 419.4H 0.10% {dummynet} Перевели одну из машин на Xeon с linux'овыми iptables, стало значительно лучше, и подозреваю, в первую очередь всё же из-за iptables'овского NAT'a, а не из-за процессора. Вставить ник Quote
t00r Posted December 19, 2011 Posted December 19, 2011 В опрос надо добавить пункт: NAT - зло. мужчина, вам плохо?))) Вставить ник Quote
roysbike Posted December 19, 2011 Author Posted December 19, 2011 (edited) Перешли на NG_NAT , живем по 60 днейА что, простите, происходит на 61 день?И покажите, как сконфигурировали ng_nat и ng_car? часто серверная перезжает) или что нить меняем) то кабель выкапают электрический) с ng_car все бонально. В базе хранятся radcheck и radreply. Где содер. атрибуты mpd-limit += "in#1=all rate-limit 528001 pass" -например ОТправляем через radlient nasу , где крутиться mpd5 и NG_NAT , если надо сменить скорость на ходу. Для ТП с разной скоростью в разное время. Если не в курсе , расспишу Вот конфиг NG_nat) #cat /etc/rc.firewall #!/bin/sh ext="217.152.x.x" #внешний IP int="em1" # Внешний интерфейс nat="172.16.0.0/16" # Какой сети дать инет (Это пул адресов для абонентов) IP сервера 172.18.0.1 ngctl shutdown nat: ngctl mkpeer ipfw: nat 60 out ngctl name ipfw:60 nat ngctl connect ipfw: nat: 61 in ngctl msg nat: setaliasaddr $ext fwcmd="/sbin/ipfw" ${fwcmd} -f flush ${fwcmd} add 10000 netgraph 61 all from any to any in via $int ${fwcmd} add 10001 netgraph 60 all from $nat to any out via $int # не забудьте разшираить буфера) sysctl.conf net.graph.maxdgram=8388608 net.graph.recvspace=8388608 kern.ipc.maxsockbuf=83886080 kern.ipc.nmbclusters=400000 net.inet.ip.intr_queue_maxlen=10240 net.inet.tcp.sendspace=128000 net.inet.tcp.recvspace=128000 loader.conf net.graph.maxdata=65536 net.graph.maxalloc=65536 Edited December 19, 2011 by roysbike Вставить ник Quote
Dyr Posted December 20, 2011 Posted December 20, 2011 roysbike, спасибо. С mpd5 и ng_car я как раз года четыре-пять назад развлекался. ;) Понравилось, но сейчас PPTP не использую, думал, у вас ng_car и ng_nat для всех сразу включены. А скорость на лету, очевидно, изменяете скриптом, с одной стороны вытягивающем нужные атрибуты из RADIUS, а другой отправляющей ngctl msg соответствующей ноде? Вставить ник Quote
roysbike Posted December 20, 2011 Author Posted December 20, 2011 (edited) roysbike, спасибо. С mpd5 и ng_car я как раз года четыре-пять назад развлекался. ;) Понравилось, но сейчас PPTP не использую, думал, у вас ng_car и ng_nat для всех сразу включены. А скорость на лету, очевидно, изменяете скриптом, с одной стороны вытягивающем нужные атрибуты из RADIUS, а другой отправляющей ngctl msg соответствующей ноде? Меняем через базу. База отправляет через perl, шеллу. Используем PGSQL. Например, чтобы попробывать создаем скрипт #cat radsend.sh #!/bin/sh /usr/local/bin/radclient -x -c1 -n1 -t0 -f pack.txt IP_nas-сервера:3799 coa masterkey создаем файл с атрибутами Режем 50 мбит #cat pack.txt User-Name = "100500" #Кому сменить скорость 100500-логин mpd-limit += "out#1=all rate-limit 51036000" mpd-limit += "in#1=all rate-limit 51036000 " заходим по веб 5006 и проверяем [] link L-152 [L-152] show auth Configuration: My authname : Max-Logins : 0 Acct Update : 0 Limit In : 0 Limit Out : 0 Auth timeout : 40 ExtAuth script : ExtAcct script : Auth options radius-auth enable radius-acct enable internal disable ext-auth disable ext-acct disable system-auth disable system-acct disable pam-auth disable pam-acct disable opie disable acct-mandatory enable Auth Data Peer authname : 100500 IP range : 172.16.2.x/32 IP pool : DNS : 0.0.0.0 0.0.0.0 NBNS : 0.0.0.0 0.0.0.0 MTU : 0 Session-Timeout : 0 Idle-Timeout : 0 Acct-Update : 0 Routes : IPFW rules : IPFW pipes : IPFW queues : IPFW tables : Traffic filters : Traffic limits : in#2 : 'all rate-limit 51036000' out#1 : 'all rate-limit 51036000' MS-Domain : (null) MPPE Types : Allowed MPPE Policy : 40 128 bit MPPE Keys : yes Edited December 20, 2011 by roysbike Вставить ник Quote
911 Posted December 20, 2011 Posted December 20, 2011 почему-то ipfw nat больше нагружает проц, чем pf Вставить ник Quote
roysbike Posted December 21, 2011 Author Posted December 21, 2011 почему-то ipfw nat больше нагружает проц, чем pf причем в 5 раз. Щас перешел на PF_NAT + NG_CAR. Я удивлен. раньше было при NGNAT + NG_CAR . 300 мбит Load aver 3.0 гдето. И постоянно один их ng_queue залетал под 80 процентов. Соотвессвенно пинг и скорости не было. Теперь же при 300 мбит load av 1.0 Где-то Вставить ник Quote
Dyr Posted December 21, 2011 Posted December 21, 2011 Я разнёс вообще NAT и шейперы. Шейпер dummynet в bridge-режиме, NAT на линуксовых iptables. Хочу попробовать вот ещё dummynet под линукс, ибо уже года два как Луиджи их портировал. Вставить ник Quote
YuryD Posted December 22, 2011 Posted December 22, 2011 Тут с natd вообще чудеса происходят. Стоял фуджицу-сименс r2 8-головый, сетевые bge, прожевывал 250М не напрягая 1 проц более чем на 30%. Решил заменить на ibm x3550, там процы побыстрее, но сетевые bce. Склонировал один-в-один, переключил кабели - natd 100% одного ядра сразу... FreeBSD7.4 обновленная... Вот сижу и думаю, поможет ли мне ipfw nat, или сразу ng_nat пробовать ? Вставить ник Quote
roysbike Posted December 22, 2011 Author Posted December 22, 2011 Тут с natd вообще чудеса происходят. Стоял фуджицу-сименс r2 8-головый, сетевые bge, прожевывал 250М не напрягая 1 проц более чем на 30%. Решил заменить на ibm x3550, там процы побыстрее, но сетевые bce. Склонировал один-в-один, переключил кабели - natd 100% одного ядра сразу... FreeBSD7.4 обновленная... Вот сижу и думаю, поможет ли мне ipfw nat, или сразу ng_nat пробовать ? Чем режешь скорость? Ставь Freebsd 8.2 Stable. Карточки igb. Шейпер ng-car , PF-NAT. И будет тебе счастье Вставить ник Quote
YuryD Posted December 22, 2011 Posted December 22, 2011 Чем режешь скорость? Ставь Freebsd 8.2 Stable. Карточки igb. Шейпер ng-car , PF-NAT. И будет тебе счастье Вся разница у меня - только в железе. Оба - серверы, не самосбор. ОС и конфиги идентичны, разница только в bge/bce И абсолютно непонятно, почему так... А от Pf-nat счастья не будет... Вставить ник Quote
roysbike Posted December 22, 2011 Author Posted December 22, 2011 Чем режешь скорость? Ставь Freebsd 8.2 Stable. Карточки igb. Шейпер ng-car , PF-NAT. И будет тебе счастье Вся разница у меня - только в железе. Оба - серверы, не самосбор. ОС и конфиги идентичны, разница только в bge/bce И абсолютно непонятно, почему так... А от Pf-nat счастья не будет... Не знаю как у вас. Использую Freebsd 8.2 PF_NAT(раньше был NG_NAT) Шейпер ng_car. Xeon 2.6 2 ядра 4 потока. карты bge1-lan bge0-wam em0-dmz. MPD5 800-online 400-500 mbit Load aver 3.0 где-то . Никаких задержек. Ну и тюнинг конечно Вставить ник Quote
caz Posted January 3, 2012 Posted January 3, 2012 когда был нат, использовал pf, результат nat_10G# pfctl -si No ALTQ support in kernel ALTQ related functions disabled Status: Enabled for 2 days 22:43:50 Debug: Urgent State Table Total Rate current entries 511399 searches 66242645155 260152.6/s inserts 1073620385 4216.4/s removals 1073108986 4214.4/s Counters match 4123564220 16194.3/s bad-offset 0 0.0/s fragment 20071 0.1/s short 3424288 13.4/s normalize 0 0.0/s memory 0 0.0/s bad-timestamp 0 0.0/s congestion 0 0.0/s ip-option 1 0.0/s proto-cksum 854072 3.4/s state-mismatch 2175192 8.5/s state-insert 0 0.0/s state-limit 0 0.0/s src-limit 0 0.0/s synproxy 0 0.0/s nat_10G# netstat -w1 input (Total) output packets errs idrops bytes packets errs bytes colls 507927 0 0 417395353 496043 0 417415206 0 504416 0 0 417048566 492349 0 416103187 0 512486 0 0 423252236 500738 0 422240643 0 509881 0 0 420324841 497159 0 418901467 0 509690 0 0 419741694 498244 0 418474526 0 504826 0 0 416572384 492656 0 415470689 0 503184 0 0 417901110 491040 0 416839754 0 513832 0 0 426541917 501968 0 425087011 0 511124 0 0 423056683 498789 0 421899454 0 494034 0 0 406351183 481640 0 406272692 0 493205 0 0 404245612 481932 0 402998981 0 495217 0 0 404396253 483272 0 403166908 0 508016 0 0 411733578 495702 0 410017315 0 nat_10G# ifstat -b ix0 ix1 em0 Kbps in Kbps out Kbps in Kbps out Kbps in Kbps out 1.04e+06 2.25e+06 2.26e+06 1.05e+06 0.00 0.00 1.01e+06 2.09e+06 2.09e+06 1.01e+06 0.00 0.00 992835.3 2.08e+06 2.09e+06 994844.6 0.00 0.00 985792.9 2.22e+06 2.23e+06 983862.9 0.00 0.00 1.03e+06 2.19e+06 2.20e+06 1.03e+06 0.00 0.00 1.07e+06 2.20e+06 2.21e+06 1.07e+06 0.00 0.33 1.02e+06 2.26e+06 2.27e+06 1.02e+06 0.00 0.00 Вставить ник Quote
zlolotus Posted January 7, 2012 Posted January 7, 2012 freebsd 8.2 ipfw nat + mpd4 vpn# netstat -h -w 1 input (Total) output packets errs idrops bytes packets errs bytes colls 27K 0 0 15M 30K 0 24M 0 25K 0 0 14M 29K 0 22M 0 25K 0 0 14M 29K 0 22M 0 27K 0 0 15M 30K 0 24M 0 28K 0 0 15M 31K 0 24M 0 last pid: 17318; load averages: 0.29, 0.35, 0.33 up 45+09:07:30 17:42:18 111 processes: 6 running, 82 sleeping, 23 waiting CPU 0: 1.7% user, 0.0% nice, 3.3% system, 12.5% interrupt, 82.5% idle CPU 1: 0.8% user, 0.0% nice, 12.5% system, 17.5% interrupt, 69.2% idle CPU 2: 5.0% user, 0.0% nice, 13.3% system, 0.0% interrupt, 81.7% idle CPU 3: 1.7% user, 0.0% nice, 8.3% system, 0.0% interrupt, 90.0% idle Mem: 46M Active, 76M Inact, 549M Wired, 180K Cache, 616M Buf, 5162M Free Swap: 4096M Total, 4096M Free В пиках доходит до 200 мб При этом load average не превышает 1,5 Кстати пробовал ng_nat он все-таки по моему мнению больше грузит систему примерно на 10%. Вставить ник Quote
Dyr Posted January 10, 2012 Posted January 10, 2012 Хочу внести существенные поправки по поводу своего предыдущего сообщения о недовольстве с PF. Узким местом всё же был не PF, а слабая сетевая и процессор. Стоило обновить сервер, как гигабит стал проходить просто прекрасно. Проблемы с GRE удалось решить блоком правил: pass in quick on $ext_if inet proto gre all no state pass out quick on $ext_if inet proto gre all no state "no state" ключевое и обязательное условие. Проблемы с FTP решил использованием ftpproxy: nat-anchor "ftp-proxy/*" rdr-anchor "ftp-proxy/*" rdr pass on $int_if proto tcp from <allow-nat> to any port 21 -> 127.0.0.1 port 8021 anchor "ftp-proxy/*" pass out proto tcp from any to any port 21 Вставить ник Quote
YuryD Posted January 11, 2012 Posted January 11, 2012 Проблемы с GRE удалось решить блоком правил: pass in quick on $ext_if inet proto gre all no state pass out quick on $ext_if inet proto gre all no state "no state" ключевое и обязательное условие. Проблему нескольких pptp из-под одного nat к одному и тому-же серверу решает ? Вставить ник Quote
lagman Posted January 11, 2012 Posted January 11, 2012 ipfw nat няшка. Сейчас, правда, обед, но цифры таковы: svm# uname -rm 8.2-STABLE amd64 svm# ipfw nat show nat 3: icmp=57, udp=16277, tcp=37264, sctp=0, pptp=0, proto=0, frag_id=5 frag_ptr=0 / tot=53603 nat 2: icmp=5696, udp=12686, tcp=24442, sctp=0, pptp=0, proto=1, frag_id=656 frag_ptr=0 / tot=43481 nat 1: icmp=22, udp=31119, tcp=60061, sctp=0, pptp=0, proto=0, frag_id=545 frag_ptr=0 / tot=91747 last pid: 96229; load averages: 1.70, 1.62, 1.51 up 23+07:02:59 12:08:02 485 processes: 25 running, 372 sleeping, 88 waiting CPU: 0.1% user, 0.0% nice, 0.1% system, 6.5% interrupt, 93.2% idle Mem: 48M Active, 4716K Inact, 5237M Wired, 232K Cache, 6580M Free Swap: 12G Total, 12G Free PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND 11 root 171 ki31 0K 384K CPU20 20 555.6H 100.00% {idle: cpu20} 11 root 171 ki31 0K 384K CPU21 21 555.4H 100.00% {idle: cpu21} 11 root 171 ki31 0K 384K CPU23 23 555.4H 100.00% {idle: cpu23} 11 root 171 ki31 0K 384K CPU19 19 554.6H 100.00% {idle: cpu19} 11 root 171 ki31 0K 384K CPU5 5 554.5H 100.00% {idle: cpu5} 11 root 171 ki31 0K 384K CPU18 18 554.5H 100.00% {idle: cpu18} 11 root 171 ki31 0K 384K CPU4 4 554.4H 100.00% {idle: cpu4} 11 root 171 ki31 0K 384K RUN 7 554.0H 100.00% {idle: cpu7} 11 root 171 ki31 0K 384K CPU6 6 553.6H 100.00% {idle: cpu6} 11 root 171 ki31 0K 384K CPU16 16 552.9H 100.00% {idle: cpu16} 11 root 171 ki31 0K 384K CPU17 17 552.8H 100.00% {idle: cpu17} 11 root 171 ki31 0K 384K CPU3 3 394.1H 100.00% {idle: cpu3} 11 root 171 ki31 0K 384K CPU2 2 394.1H 100.00% {idle: cpu2} 11 root 171 ki31 0K 384K CPU1 1 383.4H 100.00% {idle: cpu1} 11 root 171 ki31 0K 384K RUN 0 279.8H 100.00% {idle: cpu0} 11 root 171 ki31 0K 384K CPU22 22 555.7H 99.07% {idle: cpu22} 11 root 171 ki31 0K 384K CPU10 10 534.2H 91.26% {idle: cpu10} 11 root 171 ki31 0K 384K CPU12 12 530.8H 90.58% {idle: cpu12} 11 root 171 ki31 0K 384K CPU11 11 535.1H 88.33% {idle: cpu11} 11 root 171 ki31 0K 384K CPU13 13 531.0H 86.28% {idle: cpu13} 11 root 171 ki31 0K 384K CPU15 15 532.6H 86.23% {idle: cpu15} 11 root 171 ki31 0K 384K CPU8 8 534.5H 84.18% {idle: cpu8} 11 root 171 ki31 0K 384K CPU9 9 534.6H 81.93% {idle: cpu9} 11 root 171 ki31 0K 384K CPU14 14 533.1H 74.85% {idle: cpu14} 12 root -68 - 0K 1408K WAIT 14 75.8H 26.17% {irq293: igb7:que} 12 root -68 - 0K 1408K WAIT 9 127.0H 25.98% {irq282: igb5:que} 12 root -68 - 0K 1408K WAIT 8 112.2H 21.29% {irq281: igb5:que} 12 root -68 - 0K 1408K WAIT 13 82.0H 18.12% {irq292: igb7:que} 12 root -68 - 0K 1408K WAIT 12 69.3H 16.50% {irq291: igb7:que} 12 root -68 - 0K 1408K WAIT 15 76.3H 13.82% {irq294: igb7:que} 12 root -68 - 0K 1408K WAIT 10 122.3H 12.30% {irq283: igb5:que} 12 root -68 - 0K 1408K WAIT 11 120.5H 11.47% {irq284: igb5:que} 12 root -32 - 0K 1408K WAIT 7 492:12 1.12% {swi4: clock} 0 root -68 0 0K 4240K - 16 203:04 0.29% {igb7 que} 12 root -68 - 0K 1408K WAIT 1 98:04 0.20% {irq257: igb0:que} 12 root -68 - 0K 1408K WAIT 0 87:42 0.20% {irq256: igb0:que} 0 root -68 0 0K 4240K - 0 131.6H 0.10% {dummynet} 0 root -68 0 0K 4240K - 4 195:12 0.10% {igb5 que} 0 root -68 0 0K 4240K - 17 193:16 0.10% {igb5 que} 0 root -68 0 0K 4240K - 4 98:36 0.10% {igb5 que} svm# netstat -h 1 input (Total) output packets errs idrops bytes packets errs bytes colls 143K 0 0 117M 142K 0 116M 0 148K 0 0 124M 147K 0 124M 0 148K 0 0 123M 147K 0 123M 0 140K 0 0 118M 138K 0 117M 0 147K 0 0 123M 146K 0 123M 0 146K 0 0 121M 144K 0 120M 0 145K 0 0 119M 144K 0 119M 0 140K 0 0 114M 138K 0 114M 0 CPU: Intel(R) Xeon(R) CPU X5650 @ 2.67GHz (2677.45-MHz K8-class CPU) Origin = "GenuineIntel" Id = 0x206c2 Family = 6 Model = 2c Stepping = 2 Features=0xbfebfbff<FPU,VME,DE,PSE,TSC,MSR,PAE,MCE,CX8,APIC,SEP,MTRR,PGE,MCA,CMOV,PAT,PSE36,CLFLUSH,DTS,ACPI,MMX,FXSR,SSE,SSE2,SS,HTT,TM,PBE> Features2=0x9ee3fd<SSE3,DTES64,MON,DS_CPL,VMX,SMX,EST,TM2,SSSE3,CX16,xTPR,PDCM,PCID,DCA,SSE4.1,SSE4.2,POPCNT> AMD Features=0x2c100800<SYSCALL,NX,Page1GB,RDTSCP,LM> AMD Features2=0x1<LAHF> TSC: P-state invariant real memory = 12889096192 (12292 MB) avail memory = 12368695296 (11795 MB) машина - бордюр+нат+шейпер+нетфлоколлектор трафика гигабит-полтора, в пиках загрузка проца - 10-15% Вставить ник Quote
Dyr Posted January 11, 2012 Posted January 11, 2012 Проблему нескольких pptp из-под одного nat к одному и тому-же серверу решает ? Не помню, проверял ли это в тесте, но жаловаться на работу PPTP перестали. Вставить ник Quote
Dyr Posted January 11, 2012 Posted January 11, 2012 машина - бордюр+нат+шейпер+нетфлоколлектор трафика гигабит-полтора, в пиках загрузка проца - 10-15% Пфф, неудивительно, в общем-то, с таким процессором (или, похоже, процессорами?). Кстати, у вас похоже HyperThreading включен - судя по количеству ядер в top. У меня выполняющая аналогичные задачи машинка с pf под NAT, dummynet и ng_netflow загружена в час пик (порядка 600-800 Мбит трафика) на 10-20%, с процом куда поменьше: FreeBSD 8.2-RELEASE #0: Thu Apr 7 15:02:22 UTC 2011 root@:/tmp/usr/src/sys/ROUTER_HOME_NETS amd64 Timecounter "i8254" frequency 1193182 Hz quality 0 CPU: Intel(R) Xeon(R) CPU E31270 @ 3.40GHz (3392.31-MHz K8-class CPU) Origin = "GenuineIntel" Id = 0x206a7 Family = 6 Model = 2a Stepping = 7 Features=0xbfebfbff<FPU,VME,DE,PSE,TSC,MSR,PAE,MCE,CX8,APIC,SEP,MTRR,PGE,MCA,CMOV,PAT,PSE36,CLFLUSH,DTS,ACPI,MMX,FXSR,SSE,SSE2,SS,HTT,TM,PBE> Features2=0x17bae3ff<SSE3,PCLMULQDQ,DTES64,MON,DS_CPL,VMX,SMX,EST,TM2,SSSE3,CX16,xTPR,PDCM,PCID,SSE4.1,SSE4.2,x2APIC,POPCNT,<b24>,AESNI,XSAVE,<b28>> AMD Features=0x28100800<SYSCALL,NX,RDTSCP,LM> AMD Features2=0x1<LAHF> TSC: P-state invariant real memory = 8589934592 (8192 MB) avail memory = 8233857024 (7852 MB) ACPI APIC Table: <SUPERM SMCI--MB> FreeBSD/SMP: Multiprocessor System Detected: 4 CPUs FreeBSD/SMP: 1 package(s) x 4 core(s) cpu0 (BSP): APIC ID: 0 cpu1 (AP): APIC ID: 2 cpu2 (AP): APIC ID: 4 cpu3 (AP): APIC ID: 6 Вставить ник Quote
lagman Posted January 11, 2012 Posted January 11, 2012 Пфф, неудивительно, в общем-то, с таким процессором (или, похоже, процессорами?). Кстати, у вас похоже HyperThreading включен - судя по количеству ядер в top. Два процессора там: FreeBSD/SMP: 2 package(s) x 6 core(s) x 2 SMT threads Вставить ник Quote
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.