NAT под FreeBSD.   196 проголосовавших

  1. 1. Кто и какой использует NAT


Пожалуйста, войдите или зарегистрируйтесь для возможности голосования в этом опросе.

Хотелось бы пополнить свой кругозор) Использую NG_NAT и шейпер NG_CAR (rate-limit). Показалось , что самый быстрый. И надежный. Может просто на другие не хватило прямых рук). Раньше был ipfw NAT.Сервер жил 2суток. CPU сжирало. пакеты валились. Перешли на NG_NAT , живем по 60 дней

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Раньше был ipfw NAT.Сервер жил 2суток. CPU сжирало. пакеты валились. Перешли на NG_NAT , живем по 60 дней

 

pf nat:

[root@gate ~]# uptime
8:42PM  up 884 days, 17:20, 1 user, load averages: 1.08, 0.99, 0.79

[root@gate ~]# uname -a
FreeBSD gate.terabita.net 7.0-RELEASE FreeBSD 7.0-RELEASE #0: Sun Feb 24 19:59:52 UTC 2008     root@logan.cse.buffalo.edu:/usr/obj/usr/src/sys/GENERIC  i386

[root@gate ~]# pfctl -si
No ALTQ support in kernel
ALTQ related functions disabled
Status: Enabled for 30 days 10:58:51          Debug: Urgent

State Table                          Total             Rate
 current entries                    19684
 searches                     55958808519        21264.7/s
 inserts                        302262848          114.9/s
 removals                       302250801          114.9/s
Counters
 match                        35827156481        13614.6/s
...

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Три GW - все на PT-шках серверных. Ядро самосбор. Нат кернельный. Шейпер на tablearg с маской 0xffffffff. На ядре сети - DGS-3610 в стеке. В ядре тупоая балансировка на случайный нат на 0.0.0.0. Весь остальной внутренний роутинг через OSPF.

 

gw0# uptime
2:29PM  up 25 days, 15:37, 1 user, load averages: 1.30, 1.33, 1.27
gw0# uname -a
FreeBSD gw0 7.3-RELEASE FreeBSD 7.3-RELEASE #2: Tue Nov 15 21:40:36 MSK 2011     root@gw0:/usr/obj/usr/src/sys/GW0  i386

kernel space NAT, dummy

gw1# uptime
9:30AM  up 25 days, 15:35, 1 user, load averages: 1.49, 1.63, 1.60
gw1# uname -a
FreeBSD gw1 7.4-RELEASE FreeBSD 7.4-RELEASE #2: Tue Nov 15 15:43:44 MSK 2011     root@gw1:/usr/obj/usr/src/sys/GW1  amd64

kernel space NAT, dummy

gw2# uptime
10:29AM  up 25 days, 15:39, 2 users, load averages: 1.34, 1.43, 1.38
gw2# uname -a
FreeBSD gw2.mkc-net.ru 8.2-RELEASE FreeBSD 8.2-RELEASE #0: Wed Nov 16 11:10:37 MSK 2011     root@gw2.mkc-net.ru:/usr/obj/usr/src/sys/GW2  amd64

kernel space NAT, dummy

 

25 дней назад просто мосэнерго свет выключали - так там аптайм по пол-года ....

 

Max In: 901.19Mb; Average In: 399.20Mb; Current In: 514.90Mb;
Max Out: 546.97Mb; Average Out: 261.22Mb; Current Out: 222.55Mb; 

 

Max In: 865.16Mb; Average In: 400.57Mb; Current In: 418.10Mb;
Max Out: 700.20Mb; Average Out: 415.12Mb; Current Out: 202.08Mb; 

 

Max In: 841.23Mb; Average In: 398.59Mb; Current In: 310.46Mb;
Max Out: 679.88Mb; Average Out: 395.62Mb; Current Out: 154.55Mb; 

 

Все машины с разными ядрами для оценки производительности. Ядро сети стоит тупым load-balance-ингом - т.е. распределяет равнозначное количество маков на каждый GW.

Число абонентов ( живых ) в пиках до 4к ( не так конечно много, но я и не утверждаю, что схема хорошая ).

Если кто-то выдаст более оптимальное решение - буду благодарен. Делал сам по разным манам, но решение myself.

Изменено пользователем t00r

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Перешли на NG_NAT , живем по 60 дней

А что, простите, происходит на 61 день?

 

 

И покажите, как сконфигурировали ng_nat и ng_car?

 

 

 

 

У нас используется pf nat, недоволен. Раздражает проблемами с GRE, FTP и одноядерностью.

 

Сейчас так, например (Core2Duo, обслуживает процентов 10 от общего числа абонентов):

 


pfctl -si
No ALTQ support in kernel
ALTQ related functions disabled
Status: Enabled for 13 days 21:24:04          Debug: Urgent

State Table                          Total             Rate
 current entries                    83846
 searches                     42649445886        35534.0/s
 inserts                       1199144538          999.1/s
 removals                      1199098851          999.0/s
Counters
 match                         1227497469         1022.7/s
 bad-offset                             0            0.0/s
 fragment                           45953            0.0/s
 short                               1617            0.0/s
 normalize                          15910            0.0/s
 memory                                 0            0.0/s
 bad-timestamp                          0            0.0/s
 congestion                             0            0.0/s
 ip-option                         158204            0.1/s
 proto-cksum                       203496            0.2/s
 state-mismatch                   2330559            1.9/s
 state-insert                           0            0.0/s
 state-limit                          249            0.0/s
 src-limit                          76552            0.1/s
 synproxy                               0            0.0/s
root@Stella:/usr/home/dyr (259) uptime
16:14  up 167 days,  9:26, 1 user, load averages: 0,69 0,64 0,64

root@Stella:/usr/home/dyr (261) netstat -i -I vlan3050 -dh 1
           input     (vlan3050)           output
  packets  errs idrops      bytes    packets  errs      bytes colls drops
      12K     0     0       8.2M        12K     0        11M     0     0
      12K     0     0       7.8M        12K     0        10M     0     0
      12K     0     0       7.6M        12K     0        11M     0     0
      13K     0     0       9.7M        12K     0       9.9M     0     0
^C


root@Stella:/usr/home/dyr (261) top -aSCHIP 

last pid: 22989;  load averages:  0.73,  0.66,  0.65                                                                                                                up 167+09:27:29 16:16:07
111 processes: 3 running, 92 sleeping, 16 waiting
CPU 0:  0.0% user,  0.0% nice, 30.5% system,  1.1% interrupt, 68.4% idle
CPU 1:  0.0% user,  0.0% nice, 35.8% system,  1.1% interrupt, 63.2% idle
Mem: 44M Active, 3100M Inact, 611M Wired, 60M Cache, 418M Buf, 128M Free
Swap: 1024M Total, 632K Used, 1023M Free

 PID USERNAME      PRI NICE   SIZE    RES STATE   C   TIME    CPU COMMAND
  10 root          171 ki31     0K    32K RUN     0 2498.8 64.89% {idle: cpu0}
  10 root          171 ki31     0K    32K CPU1    1 2495.5 61.96% {idle: cpu1}
   0 root          -68    0     0K   128K -       1 1243.9 39.70% {em0 taskq}
   0 root          -68    0     0K   128K -       0 1210.7 33.89% {em1 taskq}
  11 root          -32    -     0K   256K WAIT    1  73.7H  0.68% {swi4: clock}
60982 root           44    0 27240K  5908K select  1 453:56  0.39% /usr/local/sbin/snmpd -p /var/run/net-snmpd.pid
   0 root          -68    0     0K   128K -       1 419.4H  0.10% {dummynet}



 

 

Перевели одну из машин на Xeon с linux'овыми iptables, стало значительно лучше, и подозреваю, в первую очередь всё же из-за iptables'овского NAT'a, а не из-за процессора.

 

 

 

 

 

 

 

 

 

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Перешли на NG_NAT , живем по 60 дней

А что, простите, происходит на 61 день?

И покажите, как сконфигурировали ng_nat и ng_car?

 

часто серверная перезжает) или что нить меняем) то кабель выкапают электрический)

с ng_car все бонально.

В базе хранятся radcheck и radreply. Где содер. атрибуты mpd-limit += "in#1=all rate-limit 528001 pass" -например

ОТправляем через radlient nasу , где крутиться mpd5 и NG_NAT , если надо сменить скорость на ходу. Для ТП с разной скоростью в разное время. Если не в курсе , расспишу

Вот конфиг NG_nat)

#cat /etc/rc.firewall

#!/bin/sh

ext="217.152.x.x" #внешний IP
int="em1" # Внешний интерфейс
nat="172.16.0.0/16" # Какой сети дать инет (Это пул адресов для абонентов) IP сервера 172.18.0.1
ngctl shutdown nat:
ngctl mkpeer ipfw: nat 60 out
ngctl name ipfw:60 nat
ngctl connect ipfw: nat: 61 in
ngctl msg nat: setaliasaddr $ext
fwcmd="/sbin/ipfw"

${fwcmd} -f flush
${fwcmd} add 10000 netgraph 61 all from any to any in via $int
${fwcmd} add 10001 netgraph 60 all from $nat to any out via $int

# не забудьте разшираить буфера)

sysctl.conf

net.graph.maxdgram=8388608

net.graph.recvspace=8388608

kern.ipc.maxsockbuf=83886080

kern.ipc.nmbclusters=400000

net.inet.ip.intr_queue_maxlen=10240

net.inet.tcp.sendspace=128000

net.inet.tcp.recvspace=128000

loader.conf

net.graph.maxdata=65536

net.graph.maxalloc=65536

Изменено пользователем roysbike

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

roysbike, спасибо. С mpd5 и ng_car я как раз года четыре-пять назад развлекался. ;) Понравилось, но сейчас PPTP не использую, думал, у вас ng_car и ng_nat для всех сразу включены.

 

А скорость на лету, очевидно, изменяете скриптом, с одной стороны вытягивающем нужные атрибуты из RADIUS, а другой отправляющей ngctl msg соответствующей ноде?

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

roysbike, спасибо. С mpd5 и ng_car я как раз года четыре-пять назад развлекался. ;) Понравилось, но сейчас PPTP не использую, думал, у вас ng_car и ng_nat для всех сразу включены.

 

А скорость на лету, очевидно, изменяете скриптом, с одной стороны вытягивающем нужные атрибуты из RADIUS, а другой отправляющей ngctl msg соответствующей ноде?

Меняем через базу. База отправляет через perl, шеллу. Используем PGSQL.

 

Например, чтобы попробывать

создаем скрипт

#cat radsend.sh
#!/bin/sh
/usr/local/bin/radclient -x -c1 -n1 -t0 -f pack.txt IP_nas-сервера:3799 coa masterkey

создаем файл с атрибутами Режем 50 мбит
#cat pack.txt
User-Name = "100500" #Кому сменить скорость 100500-логин
mpd-limit += "out#1=all rate-limit 51036000"
       mpd-limit += "in#1=all rate-limit 51036000 "         


заходим по веб 5006 и проверяем
[] link L-152
[L-152] show auth
Configuration:
My authname     : 
Max-Logins      : 0
Acct Update     : 0
   Limit In     : 0
   Limit Out    : 0
Auth timeout    : 40
ExtAuth script  : 
ExtAcct script  : 
Auth options
radius-auth	enable
radius-acct	enable
internal  	disable
ext-auth  	disable
ext-acct  	disable
system-auth	disable
system-acct	disable
pam-auth  	disable
pam-acct  	disable
opie      	disable
acct-mandatory	enable
Auth Data
Peer authname   : 100500
IP range        : 172.16.2.x/32
IP pool         : 
DNS             : 0.0.0.0 0.0.0.0
NBNS            : 0.0.0.0 0.0.0.0
MTU             : 0
Session-Timeout : 0
Idle-Timeout    : 0
Acct-Update     : 0
Routes          :
IPFW rules      :
IPFW pipes      :
IPFW queues     :
IPFW tables     :
Traffic filters :
Traffic limits  :
	in#2	: 'all rate-limit 51036000'
	out#1	: 'all rate-limit 51036000'
MS-Domain       : (null)
MPPE Types      : Allowed
MPPE Policy     : 40 128 bit
MPPE Keys       : yes

Изменено пользователем roysbike

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

почему-то ipfw nat больше нагружает проц, чем pf

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

почему-то ipfw nat больше нагружает проц, чем pf

причем в 5 раз. Щас перешел на PF_NAT + NG_CAR. Я удивлен. раньше было при NGNAT + NG_CAR . 300 мбит Load aver 3.0 гдето. И постоянно один их ng_queue залетал под 80 процентов. Соотвессвенно пинг и скорости не было. Теперь же при 300 мбит load av 1.0 Где-то

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Я разнёс вообще NAT и шейперы. Шейпер dummynet в bridge-режиме, NAT на линуксовых iptables. Хочу попробовать вот ещё dummynet под линукс, ибо уже года два как Луиджи их портировал.

 

 

 

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Тут с natd вообще чудеса происходят. Стоял фуджицу-сименс r2 8-головый, сетевые bge, прожевывал 250М не напрягая 1 проц

более чем на 30%. Решил заменить на ibm x3550, там процы побыстрее, но сетевые bce. Склонировал один-в-один, переключил кабели - natd 100% одного ядра сразу... FreeBSD7.4 обновленная... Вот сижу и думаю, поможет ли мне ipfw nat, или сразу ng_nat пробовать ?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Тут с natd вообще чудеса происходят. Стоял фуджицу-сименс r2 8-головый, сетевые bge, прожевывал 250М не напрягая 1 проц

более чем на 30%. Решил заменить на ibm x3550, там процы побыстрее, но сетевые bce. Склонировал один-в-один, переключил кабели - natd 100% одного ядра сразу... FreeBSD7.4 обновленная... Вот сижу и думаю, поможет ли мне ipfw nat, или сразу ng_nat пробовать ?

Чем режешь скорость? Ставь Freebsd 8.2 Stable. Карточки igb. Шейпер ng-car , PF-NAT. И будет тебе счастье

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Чем режешь скорость? Ставь Freebsd 8.2 Stable. Карточки igb. Шейпер ng-car , PF-NAT. И будет тебе счастье

 

Вся разница у меня - только в железе. Оба - серверы, не самосбор. ОС и конфиги идентичны, разница только в bge/bce

И абсолютно непонятно, почему так... А от Pf-nat счастья не будет...

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Чем режешь скорость? Ставь Freebsd 8.2 Stable. Карточки igb. Шейпер ng-car , PF-NAT. И будет тебе счастье

 

Вся разница у меня - только в железе. Оба - серверы, не самосбор. ОС и конфиги идентичны, разница только в bge/bce

И абсолютно непонятно, почему так... А от Pf-nat счастья не будет...

Не знаю как у вас. Использую Freebsd 8.2 PF_NAT(раньше был NG_NAT) Шейпер ng_car. Xeon 2.6 2 ядра 4 потока. карты bge1-lan bge0-wam em0-dmz. MPD5 800-online 400-500 mbit Load aver 3.0 где-то . Никаких задержек. Ну и тюнинг конечно

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

когда был нат, использовал pf, результат

 

nat_10G# pfctl -si
No ALTQ support in kernel
ALTQ related functions disabled
Status: Enabled for 2 days 22:43:50           Debug: Urgent

State Table                          Total             Rate
 current entries                   511399
 searches                     66242645155       260152.6/s
 inserts                       1073620385         4216.4/s
 removals                      1073108986         4214.4/s
Counters
 match                         4123564220        16194.3/s
 bad-offset                             0            0.0/s
 fragment                           20071            0.1/s
 short                            3424288           13.4/s
 normalize                              0            0.0/s
 memory                                 0            0.0/s
 bad-timestamp                          0            0.0/s
 congestion                             0            0.0/s
 ip-option                              1            0.0/s
 proto-cksum                       854072            3.4/s
 state-mismatch                   2175192            8.5/s
 state-insert                           0            0.0/s
 state-limit                            0            0.0/s
 src-limit                              0            0.0/s
 synproxy                               0            0.0/s

 

nat_10G# netstat -w1
           input        (Total)           output
  packets  errs idrops      bytes    packets  errs      bytes colls
   507927     0     0  417395353     496043     0  417415206     0
   504416     0     0  417048566     492349     0  416103187     0
   512486     0     0  423252236     500738     0  422240643     0
   509881     0     0  420324841     497159     0  418901467     0
   509690     0     0  419741694     498244     0  418474526     0
   504826     0     0  416572384     492656     0  415470689     0
   503184     0     0  417901110     491040     0  416839754     0
   513832     0     0  426541917     501968     0  425087011     0
   511124     0     0  423056683     498789     0  421899454     0
   494034     0     0  406351183     481640     0  406272692     0
   493205     0     0  404245612     481932     0  402998981     0
   495217     0     0  404396253     483272     0  403166908     0
   508016     0     0  411733578     495702     0  410017315     0

 

 

 

nat_10G# ifstat -b
      ix0                 ix1                 em0
Kbps in  Kbps out   Kbps in  Kbps out   Kbps in  Kbps out
1.04e+06  2.25e+06  2.26e+06  1.05e+06      0.00      0.00
1.01e+06  2.09e+06  2.09e+06  1.01e+06      0.00      0.00
992835.3  2.08e+06  2.09e+06  994844.6      0.00      0.00
985792.9  2.22e+06  2.23e+06  983862.9      0.00      0.00
1.03e+06  2.19e+06  2.20e+06  1.03e+06      0.00      0.00
1.07e+06  2.20e+06  2.21e+06  1.07e+06      0.00      0.33
1.02e+06  2.26e+06  2.27e+06  1.02e+06      0.00      0.00

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

freebsd 8.2 ipfw nat + mpd4

 

 

vpn# netstat -h -w 1

input (Total) output

packets errs idrops bytes packets errs bytes colls

27K 0 0 15M 30K 0 24M 0

25K 0 0 14M 29K 0 22M 0

25K 0 0 14M 29K 0 22M 0

27K 0 0 15M 30K 0 24M 0

28K 0 0 15M 31K 0 24M 0

 

last pid: 17318; load averages: 0.29, 0.35, 0.33 up 45+09:07:30 17:42:18

111 processes: 6 running, 82 sleeping, 23 waiting

CPU 0: 1.7% user, 0.0% nice, 3.3% system, 12.5% interrupt, 82.5% idle

CPU 1: 0.8% user, 0.0% nice, 12.5% system, 17.5% interrupt, 69.2% idle

CPU 2: 5.0% user, 0.0% nice, 13.3% system, 0.0% interrupt, 81.7% idle

CPU 3: 1.7% user, 0.0% nice, 8.3% system, 0.0% interrupt, 90.0% idle

Mem: 46M Active, 76M Inact, 549M Wired, 180K Cache, 616M Buf, 5162M Free

Swap: 4096M Total, 4096M Free

 

 

В пиках доходит до 200 мб

 

При этом load average не превышает 1,5

 

Кстати пробовал ng_nat он все-таки по моему мнению больше грузит систему примерно на 10%.

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Хочу внести существенные поправки по поводу своего предыдущего сообщения о недовольстве с PF.

 

Узким местом всё же был не PF, а слабая сетевая и процессор. Стоило обновить сервер, как гигабит стал проходить просто прекрасно. Проблемы с GRE удалось решить блоком правил:

 

pass in quick on $ext_if inet proto gre all no state
pass out quick on $ext_if inet proto gre all no state

 

"no state" ключевое и обязательное условие.

 

Проблемы с FTP решил использованием ftpproxy:

 

nat-anchor "ftp-proxy/*"
rdr-anchor "ftp-proxy/*"


rdr pass on $int_if proto tcp from <allow-nat> to any port 21 -> 127.0.0.1 port 8021

anchor "ftp-proxy/*"
pass out proto tcp from any to any port 21


 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

Проблемы с GRE удалось решить блоком правил:

 

pass in quick on $ext_if inet proto gre all no state
pass out quick on $ext_if inet proto gre all no state

 

"no state" ключевое и обязательное условие.

 

Проблему нескольких pptp из-под одного nat к одному и тому-же серверу решает ?

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты

ipfw nat няшка. Сейчас, правда, обед, но цифры таковы:

 

svm# uname -rm
8.2-STABLE amd64

 

svm# ipfw nat show
nat 3: icmp=57, udp=16277, tcp=37264, sctp=0, pptp=0, proto=0, frag_id=5 frag_ptr=0 / tot=53603
nat 2: icmp=5696, udp=12686, tcp=24442, sctp=0, pptp=0, proto=1, frag_id=656 frag_ptr=0 / tot=43481
nat 1: icmp=22, udp=31119, tcp=60061, sctp=0, pptp=0, proto=0, frag_id=545 frag_ptr=0 / tot=91747

 

last pid: 96229;  load averages:  1.70,  1.62,  1.51                                                                                                                                  up 23+07:02:59  12:08:02
485 processes: 25 running, 372 sleeping, 88 waiting
CPU:  0.1% user,  0.0% nice,  0.1% system,  6.5% interrupt, 93.2% idle
Mem: 48M Active, 4716K Inact, 5237M Wired, 232K Cache, 6580M Free
Swap: 12G Total, 12G Free

 PID USERNAME   PRI NICE   SIZE    RES STATE   C   TIME   WCPU COMMAND
  11 root       171 ki31     0K   384K CPU20  20 555.6H 100.00% {idle: cpu20}
  11 root       171 ki31     0K   384K CPU21  21 555.4H 100.00% {idle: cpu21}
  11 root       171 ki31     0K   384K CPU23  23 555.4H 100.00% {idle: cpu23}
  11 root       171 ki31     0K   384K CPU19  19 554.6H 100.00% {idle: cpu19}
  11 root       171 ki31     0K   384K CPU5    5 554.5H 100.00% {idle: cpu5}
  11 root       171 ki31     0K   384K CPU18  18 554.5H 100.00% {idle: cpu18}
  11 root       171 ki31     0K   384K CPU4    4 554.4H 100.00% {idle: cpu4}
  11 root       171 ki31     0K   384K RUN     7 554.0H 100.00% {idle: cpu7}
  11 root       171 ki31     0K   384K CPU6    6 553.6H 100.00% {idle: cpu6}
  11 root       171 ki31     0K   384K CPU16  16 552.9H 100.00% {idle: cpu16}
  11 root       171 ki31     0K   384K CPU17  17 552.8H 100.00% {idle: cpu17}
  11 root       171 ki31     0K   384K CPU3    3 394.1H 100.00% {idle: cpu3}
  11 root       171 ki31     0K   384K CPU2    2 394.1H 100.00% {idle: cpu2}
  11 root       171 ki31     0K   384K CPU1    1 383.4H 100.00% {idle: cpu1}
  11 root       171 ki31     0K   384K RUN     0 279.8H 100.00% {idle: cpu0}
  11 root       171 ki31     0K   384K CPU22  22 555.7H 99.07% {idle: cpu22}
  11 root       171 ki31     0K   384K CPU10  10 534.2H 91.26% {idle: cpu10}
  11 root       171 ki31     0K   384K CPU12  12 530.8H 90.58% {idle: cpu12}
  11 root       171 ki31     0K   384K CPU11  11 535.1H 88.33% {idle: cpu11}
  11 root       171 ki31     0K   384K CPU13  13 531.0H 86.28% {idle: cpu13}
  11 root       171 ki31     0K   384K CPU15  15 532.6H 86.23% {idle: cpu15}
  11 root       171 ki31     0K   384K CPU8    8 534.5H 84.18% {idle: cpu8}
  11 root       171 ki31     0K   384K CPU9    9 534.6H 81.93% {idle: cpu9}
  11 root       171 ki31     0K   384K CPU14  14 533.1H 74.85% {idle: cpu14}
  12 root       -68    -     0K  1408K WAIT   14  75.8H 26.17% {irq293: igb7:que}
  12 root       -68    -     0K  1408K WAIT    9 127.0H 25.98% {irq282: igb5:que}
  12 root       -68    -     0K  1408K WAIT    8 112.2H 21.29% {irq281: igb5:que}
  12 root       -68    -     0K  1408K WAIT   13  82.0H 18.12% {irq292: igb7:que}
  12 root       -68    -     0K  1408K WAIT   12  69.3H 16.50% {irq291: igb7:que}
  12 root       -68    -     0K  1408K WAIT   15  76.3H 13.82% {irq294: igb7:que}
  12 root       -68    -     0K  1408K WAIT   10 122.3H 12.30% {irq283: igb5:que}
  12 root       -68    -     0K  1408K WAIT   11 120.5H 11.47% {irq284: igb5:que}
  12 root       -32    -     0K  1408K WAIT    7 492:12  1.12% {swi4: clock}
   0 root       -68    0     0K  4240K -      16 203:04  0.29% {igb7 que}
  12 root       -68    -     0K  1408K WAIT    1  98:04  0.20% {irq257: igb0:que}
  12 root       -68    -     0K  1408K WAIT    0  87:42  0.20% {irq256: igb0:que}
   0 root       -68    0     0K  4240K -       0 131.6H  0.10% {dummynet}
   0 root       -68    0     0K  4240K -       4 195:12  0.10% {igb5 que}
   0 root       -68    0     0K  4240K -      17 193:16  0.10% {igb5 que}
   0 root       -68    0     0K  4240K -       4  98:36  0.10% {igb5 que}

 

svm# netstat -h 1
           input        (Total)           output
  packets  errs idrops      bytes    packets  errs      bytes colls
     143K     0     0       117M       142K     0       116M     0
     148K     0     0       124M       147K     0       124M     0
     148K     0     0       123M       147K     0       123M     0
     140K     0     0       118M       138K     0       117M     0
     147K     0     0       123M       146K     0       123M     0
     146K     0     0       121M       144K     0       120M     0
     145K     0     0       119M       144K     0       119M     0
     140K     0     0       114M       138K     0       114M     0

 

CPU: Intel(R) Xeon(R) CPU           X5650  @ 2.67GHz (2677.45-MHz K8-class CPU)
 Origin = "GenuineIntel"  Id = 0x206c2  Family = 6  Model = 2c  Stepping = 2
 Features=0xbfebfbff<FPU,VME,DE,PSE,TSC,MSR,PAE,MCE,CX8,APIC,SEP,MTRR,PGE,MCA,CMOV,PAT,PSE36,CLFLUSH,DTS,ACPI,MMX,FXSR,SSE,SSE2,SS,HTT,TM,PBE>
 Features2=0x9ee3fd<SSE3,DTES64,MON,DS_CPL,VMX,SMX,EST,TM2,SSSE3,CX16,xTPR,PDCM,PCID,DCA,SSE4.1,SSE4.2,POPCNT>
 AMD Features=0x2c100800<SYSCALL,NX,Page1GB,RDTSCP,LM>
 AMD Features2=0x1<LAHF>
 TSC: P-state invariant
real memory  = 12889096192 (12292 MB)
avail memory = 12368695296 (11795 MB)

 

машина - бордюр+нат+шейпер+нетфлоколлектор

трафика гигабит-полтора, в пиках загрузка проца - 10-15%

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Проблему нескольких pptp из-под одного nat к одному и тому-же серверу решает ?

 

Не помню, проверял ли это в тесте, но жаловаться на работу PPTP перестали.

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
машина - бордюр+нат+шейпер+нетфлоколлектор трафика гигабит-полтора, в пиках загрузка проца - 10-15%

 

Пфф, неудивительно, в общем-то, с таким процессором (или, похоже, процессорами?). Кстати, у вас похоже HyperThreading включен - судя по количеству ядер в top.

 

У меня выполняющая аналогичные задачи машинка с pf под NAT, dummynet и ng_netflow загружена в час пик (порядка 600-800 Мбит трафика) на 10-20%, с процом куда поменьше:

 

FreeBSD 8.2-RELEASE #0: Thu Apr  7 15:02:22 UTC 2011
   root@:/tmp/usr/src/sys/ROUTER_HOME_NETS amd64
Timecounter "i8254" frequency 1193182 Hz quality 0
CPU: Intel(R) Xeon(R) CPU E31270 @ 3.40GHz (3392.31-MHz K8-class CPU)
 Origin = "GenuineIntel"  Id = 0x206a7  Family = 6  Model = 2a  Stepping = 7
 Features=0xbfebfbff<FPU,VME,DE,PSE,TSC,MSR,PAE,MCE,CX8,APIC,SEP,MTRR,PGE,MCA,CMOV,PAT,PSE36,CLFLUSH,DTS,ACPI,MMX,FXSR,SSE,SSE2,SS,HTT,TM,PBE>
 Features2=0x17bae3ff<SSE3,PCLMULQDQ,DTES64,MON,DS_CPL,VMX,SMX,EST,TM2,SSSE3,CX16,xTPR,PDCM,PCID,SSE4.1,SSE4.2,x2APIC,POPCNT,<b24>,AESNI,XSAVE,<b28>>
 AMD Features=0x28100800<SYSCALL,NX,RDTSCP,LM>
 AMD Features2=0x1<LAHF>
 TSC: P-state invariant
real memory  = 8589934592 (8192 MB)
avail memory = 8233857024 (7852 MB)
ACPI APIC Table: <SUPERM SMCI--MB>
FreeBSD/SMP: Multiprocessor System Detected: 4 CPUs
FreeBSD/SMP: 1 package(s) x 4 core(s)
cpu0 (BSP): APIC ID:  0
cpu1 (AP): APIC ID:  2
cpu2 (AP): APIC ID:  4
cpu3 (AP): APIC ID:  6

 

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Пфф, неудивительно, в общем-то, с таким процессором (или, похоже, процессорами?). Кстати, у вас похоже HyperThreading включен - судя по количеству ядер в top.

Два процессора там: FreeBSD/SMP: 2 package(s) x 6 core(s) x 2 SMT threads

Поделиться сообщением


Ссылка на сообщение
Поделиться на другие сайты
Гость
Вы комментируете как гость. Если у вас есть аккаунт, пожалуйста, войдите
Ответить в этой теме...

×   Вы вставили контент с форматированием.   Удалить форматирование

×   Ваша ссылка была автоматически встроена.   Отображать как обычную ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

Подписчики 0