Перейти к содержимому
Калькуляторы

:-) либо меня снова пытаются научить таблице умножения, либо искусно пытаются получить информацию, для чего же мне всётаки нужен включенный модуль ppp_compat

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

либо меня снова пытаются научить таблице умножения, либо искусно пытаются получить информацию, для чего же мне всётаки нужен включенный модуль ppp_compat

может быть :-)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

xeb, можно ли настроить так, чтобы IPv6-адрес на РРР-соединение не выдавался, но при этом RA запускался в момент поднятия туннеля и DHCPv6 работал (и выдавал IA_PD) - без скриптов, запускаемых через pppd_compat?

Вообще, может есть какие-то недокументированные конфиги для IPv6? Чтобы можно было играть с флагами ICMPv6, например?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

можно ли настроить так, чтобы IPv6-адрес на РРР-соединение не выдавался, но при этом RA запускался в момент поднятия туннеля и DHCPv6 работал (и выдавал IA_PD) - без скриптов, запускаемых через pppd_compat?
о таком вариант использования я не думал, в текущей реализации не получится

а смысл выдавать IA_PD, если у клиента нет ип6 адреса ?

 

Вообще, может есть какие-то недокументированные конфиги для IPv6? Чтобы можно было играть с флагами ICMPv6, например?

[ipv6-nd]
MaxRtrAdvInterval=600
MinRtrAdvInterval=198
#AdvManagedFlag= по умолчанию 1 если используется ipv6_dhcp, иначе 0
#AdvOtherConfigFlag= по умолчанию 1 если используется ipv6_dhcp, иначе 0
AdvLinkMTU=0
AdvReachableTime=0
AdvRetransTimer=0
AdvCurHopLimit=0
AdvDefaultLifetime=0
AdvValidLifetime=2592000
AdvPreferredLifetime=604800
#AdvAutonomousFlag=по умолчанию 0 если используется ipv6_dhcp, иначе 1

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

а смысл выдавать IA_PD, если у клиента нет ип6 адреса ?

Вот тут, в частности, идёт бурное обсуждение, что выдавать юзеру с СРЕ. Учитывая, что, строго говоря, СРЕ не требуется IPv6 WAN адреса, чтобы пересылать пакетики с LAN PCs, можно ему адрес и не выдавать. Тогда IPV6 будут получать только компьютеры пользователя, а WAN СРЕ будет получать, например, "серый" IPv4. Сама идея экономить на IPv6 адресах, как я вижу, народ будоражит :) Вполне возможно, что будет и спрос на такую фичу.

С "костылями" (rp-pppoe + radvd + wide-dhcpv6) я это завести смог, работает.

 

[ipv6-nd]

Weee!!! :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Файл подкачки почти гиг отъело, после перезапуска accel-я график резко скакнул в своё рабочее положение. По графику файл подкачки (в смысле занятое пространство) начал постепенно расти с момента установки версии 8d5390ef0e836de11da82c6ca43110af524a724e 23-го января. Ранее такого никогда не наблюдал, просьба разобраться. Вывод debug.log к сожалению был отключен за ненадобностью.
ладно, посмотрим ...

Ну как там дела по этой проблеме. Своп растёт, но стоит остановить демона accel-ppp, тогда место в нём снова приходит в норму. В логах ничего подозрительного, кроме этого

[2012-02-03 09:21:47]: error: l2tp: recv: Connection refused
[2012-02-03 09:22:17]: error: l2tp: recv: Connection refused
[2012-02-03 09:23:52]: error: l2tp: recv: Connection refused
[2012-02-03 09:24:22]: error: l2tp: recv: Connection refused
[2012-02-03 09:24:52]: error: l2tp: recv: Connection refused
[2012-02-03 09:26:27]: error: l2tp: recv: Connection refused
[2012-02-03 09:26:57]: error: l2tp: recv: Connection refused
[2012-02-03 09:27:27]: error: l2tp: recv: Connection refused

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ну как там дела по этой проблеме. Своп растёт

То что своп есть странно чуть,а на более старой версии с большей нагрузкой нету его....

Хотя менялось много...

accel-ppp version 211f028919138cd2c6e3ddfb1fd8221a1273d894

подключений ~950:

top - 22:39:58 up 148 days,  6:28,  2 users,  load average: 0.12, 0.16, 0.16
Tasks:  91 total,   1 running,  90 sleeping,   0 stopped,   0 zombie
CPU0  :  0.0%us,  0.7%sy,  0.0%ni, 46.4%id,  0.0%wa,  0.0%hi, 53.0%si,  0.0%st
CPU1  :  0.3%us,  0.0%sy,  0.0%ni, 49.7%id,  0.0%wa,  0.0%hi, 50.0%si,  0.0%st
CPU2  :  0.0%us,  0.3%sy,  0.0%ni, 40.9%id,  0.0%wa,  0.0%hi, 58.8%si,  0.0%st
CPU3  :  0.3%us,  0.0%sy,  0.0%ni, 56.5%id,  0.0%wa,  0.0%hi, 43.2%si,  0.0%st
Mem:   4057940K total,  3173620K used,   884320K free,   147500K buffers
Swap:  8385892K total,   529440K used,  7856452K free,  2415096K cached

 PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  SWAP COMMAND
21892 root      20   0  299M  86M 1324 S  0.7  2.2   6:09.28 213M accel-pppd
21907 root      20   0  299M  86M 1324 S  0.0  2.2   0:04.39 213M accel-pppd
21913 root      20   0  299M  86M 1324 S  1.0  2.2   7:37.70 213M accel-pppd
21914 root      20   0  299M  86M 1324 S  0.3  2.2   3:50.31 213M accel-pppd
1283 root      20   0  299M  86M 1324 S  1.0  2.2   8:33.16 213M accel-pppd
12345 root      20   0  299M  86M 1324 S  0.0  2.2   0:00.00 213M accel-pppd
12546 root      20   0  299M  86M 1324 S  0.0  2.2   0:00.14 213M accel-pppd
13326 root      20   0  299M  86M 1324 S  0.0  2.2   0:00.29 213M accel-pppd
13328 root      20   0  299M  86M 1324 S  0.0  2.2   0:00.05 213M accel-pppd
13537 root      20   0  299M  86M 1324 S  1.7  2.2   0:00.11 213M accel-pppd
9853 admin     20   0 74772 1400 1176 S  0.0  0.0   0:10.72  71M sshd
9380 admin     20   0 74632 1936 1172 S  0.0  0.0   0:00.08  70M sshd
9846 root      20   0 74632 2304 2300 S  0.0  0.1   0:00.03  70M sshd
9311 root      20   0 74632 3108 2348 S  0.0  0.1   0:00.08  69M sshd

 

accel-ppp version c8bc8763ea6980ef3e3fa7e3dbe2a598a1169de5

подключений ~1100:

top - 22:44:03 up 86 days,  8:25,  5 users,  load average: 0.46, 0.30, 0.26
Tasks:  89 total,   1 running,  88 sleeping,   0 stopped,   0 zombie
CPU0  :  0.0%us,  0.0%sy,  0.0%ni, 64.2%id,  0.0%wa,  0.0%hi, 35.8%si,  0.0%st
CPU1  :  0.0%us,  0.0%sy,  0.0%ni, 57.4%id,  0.0%wa,  0.0%hi, 42.6%si,  0.0%st
CPU2  :  0.7%us,  0.0%sy,  0.0%ni, 50.2%id,  0.0%wa,  0.0%hi, 49.2%si,  0.0%st
CPU3  :  0.0%us,  0.3%sy,  0.0%ni, 56.0%id,  0.0%wa,  0.0%hi, 43.7%si,  0.0%st
Mem:   4057880K total,  2398108K used,  1659772K free,   233180K buffers
Swap:  8388604K total,        0K used,  8388604K free,  1623532K cached

 PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  SWAP COMMAND
10979 root      20   0  509M 103M 1316 S  1.0  2.6 248:56.59 405M accel-pppd
10988 root      20   0  509M 103M 1316 S  0.0  2.6   2:36.61 405M accel-pppd
10993 root      20   0  509M 103M 1316 S  2.0  2.6 332:12.99 405M accel-pppd
10994 root      20   0  509M 103M 1316 S  1.0  2.6 160:20.12 405M accel-pppd
32367 root      20   0  509M 103M 1316 S  2.0  2.6 379:18.46 405M accel-pppd
4894 root      20   0  509M 103M 1316 S  2.7  2.6   0:00.59 405M accel-pppd
4967 root      20   0  509M 103M 1316 S  0.0  2.6   0:00.00 405M accel-pppd
5031 root      20   0  509M 103M 1316 S  0.0  2.6   0:00.01 405M accel-pppd
5104 root      20   0  509M 103M 1316 S  0.7  2.6   0:00.02 405M accel-pppd
16380 admin     20   0 74772 1992 1188 S  0.0  0.0   0:01.35  71M sshd
16373 root      20   0 74632 3076 2344 S  0.0  0.1   0:00.02  69M sshd
4262 root      20   0 74632 3212 2440 S  0.0  0.1   0:00.14  69M sshd

 

статистика с гит версии:

accel-ppp# show stat
uptime: 1.03:49:10
cpu: 4%
memory:
 rss/virt: 88584/306848 kB
 arena: 48356 kB
 mmaped: 516 kB
 uordblks: 29166 kB
 fordblks: 19189 kB
core:
 mempool_allocated: 24469505
 mempool_available: 1269481
 thread_count: 4
 thread_active: 1
 context_count: 959
 context_sleeping: 0
 context_pending: 0
 md_handler_count: 3608
 md_handler_pending: 0
 timer_count: 1821
 timer_pending: 0
ppp:
 starting: 2
 active: 881
 finishing: 1
pptp:
 starting: 0
 active: 827
l2tp:
 starting: 0
 active: 57
radius(1, 10.10.1.2):
 request count: 0
 queue length: 0
 auth sent: 9259
 auth lost(total/5m/1m): 223/0/0
 auth avg query time(5m/1m): 446/380 ms
 acct sent: 14183
 acct lost(total/5m/1m): 1543/16/7
 acct avg query time(5m/1m): 30/22 ms
 interim sent: 20944
 interim lost(total/5m/1m): 2118/39/2
 interim avg query time(5m/1m): 58/66 ms
accel-ppp#

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

мда, по статистике не видно чтобы accel-ppp отъедал много памяти, я думал может он где потёк .... значит что-то другое, там ещё каких висячих процессов не наблюдается ?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

мда, по статистике не видно чтобы accel-ppp отъедал много памяти, я думал может он где потёк .... значит что-то другое, там ещё каких висячих процессов не наблюдается ?

Ничего явно странного не видно:

 PID TTY      STAT   TIME COMMAND
   1 ?        Ss    11:52 init [3]
   2 ?        S      0:00 [kthreadd]
   3 ?        S    4167:29 [ksoftirqd/0]
   6 ?        S      0:00 [migration/0]
   7 ?        S      0:00 [migration/1]
   9 ?        S    3051:20 [ksoftirqd/1]
  11 ?        S      0:00 [migration/2]
  13 ?        S    2600:24 [ksoftirqd/2]
  14 ?        S      0:00 [migration/3]
  16 ?        S    2103:50 [ksoftirqd/3]
  17 ?        S<     0:00 [cpuset]
  18 ?        S<     0:00 [khelper]
  19 ?        S      0:00 [kdevtmpfs]
  23 ?        S<     0:00 [netns]
 103 ?        S      1:29 [sync_supers]
 105 ?        S      0:02 [bdi-default]
 106 ?        S<     0:00 [kintegrityd]
 108 ?        S<     0:05 [kblockd]
 243 ?        S<     0:00 [md]
 374 ?        S      0:05 [khungtaskd]
 380 ?        S      0:30 [kswapd0]
 381 ?        SN     0:00 [ksmd]
 382 ?        SN     1:07 [khugepaged]
 383 ?        S      0:00 [fsnotify_mark]
 384 ?        S<     0:00 [crypto]
 709 ?        S      0:01 [kworker/u:0]
1207 ?        S      0:00 [cciss_scan]
1985 ?        S      0:10 [jbd2/cciss!c0d0]
1986 ?        S<     0:00 [ext4-dio-unwrit]
2120 ?        Ss    65:43 /sbin/udevd --daemon
2271 ?        S<     0:00 [kpsmoused]
2273 ?        S<     0:00 [edac-poller]
2279 ?        S      0:00 [khubd]
2288 ?        S<     0:00 [ata_sff]
2368 ?        S      0:00 [kauditd]
2412 ?        S<     0:00 [kmpathd]
2413 ?        S<     0:00 [kmpath_handlerd]
2447 ?        S     22:17 [jbd2/cciss!c0d0]
2448 ?        S<     0:00 [ext4-dio-unwrit]
2767 ?        Ss     0:00 /usr/sbin/acpid -n
3294 ?        S     10:33 [flush-104:0]
3998 ?        S      0:12 [kworker/1:1]
4132 ?        S     19:37 [kworker/2:2]
4246 ?        Ss     0:05 /sbin/klogd -c 1 -x -u klogd -j /var/lib/klogd
4363 ?        S      0:00 [kworker/u:1]
4391 ?        SNs    0:33 /usr/sbin/crond -l 4.5
4491 ?        Ss     3:00 /usr/sbin/sshd
4544 ?        Ss   3335:35 /usr/sbin/zebra --daemon -s 1024000 -A 127.0.0.1 -f /etc/quagga/zebra.
4841 ?        S      4:42 [kworker/3:0]
4897 ?        Ss     1:19 /usr/libexec/postfix/master
4907 ?        S      0:14 qmgr -l -t fifo -u -c
4912 ?        S<L   25:14 /usr/bin/atop -a -w /var/log/atop/atop_20110914 600
5022 tty2     Ss+    0:00 /sbin/mingetty tty2
5023 tty3     Ss+    0:00 /sbin/mingetty tty3
5024 tty4     Ss+    0:00 /sbin/mingetty tty4
5025 tty5     Ss+    0:00 /sbin/mingetty tty5
5026 tty6     Ss+    0:00 /sbin/mingetty tty6
5143 ?        S      0:15 ntpd: ntp engine
5144 ?        Ss     1:15 ntpd: [priv]
9169 ?        Ss   203:19 /usr/sbin/ospfd --daemon -A 127.0.0.1 -f /etc/quagga/ospfd.conf
9846 ?        Ss     0:00 sshd: admin [priv]
9853 ?        S      0:10 sshd: admin@pts/0
9854 pts/0    Ss     0:00 -bash
9889 pts/0    S      0:00 su -
9893 pts/0    S+     0:00 -bash
11503 ?        S      0:00 pickup -l -t fifo -u -c
12934 ?        S      0:33 [kworker/0:1]
14548 ?        S      0:13 /sbin/udevd --daemon
15000 ?        SNs    0:00 /sbin/syslogd -u syslogd -j /var/resolv
15046 ?        S      1:05 [kworker/3:1]
17689 ?        Ss     0:00 sshd: admin [priv]
17696 ?        S      0:00 sshd: admin@pts/1
17697 pts/1    Ss     0:00 -bash
17733 pts/1    S      0:00 su -
17737 pts/1    S      0:00 -bash
18578 pts/1    R+     0:00 ps xa
21892 ?        Ssl   71:02 /usr/local/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-
25138 ?        S      0:35 /sbin/udevd --daemon
27212 ?        S     14:58 [kworker/2:1]
28311 ?        S      0:33 [kworker/1:2]
29720 tty1     Ss+    0:00 /sbin/mingetty --noclear tty1
30003 ?        S      1:00 [kworker/0:0]

 

статистика:

accel-ppp version 211f028919138cd2c6e3ddfb1fd8221a1273d894
accel-ppp# show stat
uptime: 1.15:57:39
cpu: 2%
memory:
 rss/virt: 88824/306848 kB
 arena: 48356 kB
 mmaped: 516 kB
 uordblks: 21554 kB
 fordblks: 26801 kB
core:
 mempool_allocated: 17524049
 mempool_available: 311957
 thread_count: 4
 thread_active: 1
 context_count: 761
 context_sleeping: 0
 context_pending: 0
 md_handler_count: 2718
 md_handler_pending: 0
 timer_count: 1353
 timer_pending: 0
ppp:
 starting: 2
 active: 651
 finishing: 0
pptp:
 starting: 0
 active: 603
l2tp:
 starting: 0
 active: 50
radius(1, 10.10.1.2):
 request count: 0
 queue length: 0
 auth sent: 11515
 auth lost(total/5m/1m): 249/0/0
 auth avg query time(5m/1m): 825/1232 ms
 acct sent: 18076
 acct lost(total/5m/1m): 1799/4/0
 acct avg query time(5m/1m): 11/15 ms
 interim sent: 27384
 interim lost(total/5m/1m): 2534/0/0
 interim avg query time(5m/1m): 60/48 ms
accel-ppp#

 

Своп как и вчера есть(понятно что не исчезнет просто так, и он не изменился со вчера):

top - 11:12:29 up 148 days, 19:00,  2 users,  load average: 0.07, 0.06, 0.05
Tasks:  90 total,   1 running,  89 sleeping,   0 stopped,   0 zombie
CPU0  :  0.3%us,  0.0%sy,  0.0%ni, 67.5%id,  0.7%wa,  0.0%hi, 31.5%si,  0.0%st
CPU1  :  0.3%us,  0.0%sy,  0.0%ni, 57.1%id,  0.0%wa,  0.0%hi, 42.5%si,  0.0%st
CPU2  :  0.0%us,  0.3%sy,  0.0%ni, 55.5%id,  0.0%wa,  0.0%hi, 44.2%si,  0.0%st
CPU3  :  0.0%us,  0.3%sy,  0.0%ni, 64.8%id,  0.0%wa,  0.0%hi, 34.9%si,  0.0%st
Mem:   4057940K total,  2849684K used,  1208256K free,   151008K buffers
Swap:  8385892K total,   529440K used,  7856452K free,  2121368K cached

 PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+   PPID SWAP nDRT COMMAND
21892 root      20   0  299M  86M 1332 S  0.3  2.2   7:29.75     1 212M    0 accel-pppd
21907 root      20   0  299M  86M 1332 S  0.0  2.2   0:05.50     1 212M    0 accel-pppd
21913 root      20   0  299M  86M 1332 S  0.7  2.2   9:30.50     1 212M    0 accel-pppd
21914 root      20   0  299M  86M 1332 S  0.3  2.2   4:40.06     1 212M    0 accel-pppd
13449 root      20   0  299M  86M 1332 S  0.7  2.2   0:25.68     1 212M    0 accel-pppd
18517 root      20   0  299M  86M 1332 S  0.0  2.2   0:00.00     1 212M    0 accel-pppd
21684 root      20   0  299M  86M 1332 S  1.0  2.2   0:00.11     1 212M    0 accel-pppd
21687 root      20   0  299M  86M 1332 S  0.0  2.2   0:00.00     1 212M    0 accel-pppd
21746 root      20   0  299M  86M 1332 S  0.0  2.2   0:00.00     1 212M    0 accel-pppd
9853 admin     20   0 74772 1400 1176 S  0.0  0.0   0:10.72  9846  71M    0 sshd
17696 admin     20   0 74632 1920 1172 S  0.0  0.0   0:00.09 17689  71M    0 sshd
9846 root      20   0 74632 2304 2300 S  0.0  0.1   0:00.03  4491  70M    0 sshd
17689 root      20   0 74632 3092 2348 S  0.0  0.1   0:00.05  4491  69M    0 sshd
4491 root      20   0 47068  692  592 S  0.0  0.0   3:00.25     1  45M    0 sshd
9889 root      20   0 35484 1000  996 S  0.0  0.0   0:00.00  9854  33M    0 su
17733 root      20   0 35484 1364 1048 S  0.0  0.0   0:00.01 17697  33M    0 su
4907 postfix   20   0 24752 1300 1232 S  0.0  0.0   0:14.89  4897  22M    0 qmgr
11503 postfix   20   0 24984 1668 1104 S  0.0  0.0   0:00.01  4897  22M    0 pickup
9169 quagga    20   0 32612  11M  860 S  0.7  0.3 203:20.81     1  20M    0 ospfd
4544 quagga    20   0 24660 5880  708 S  0.0  0.1   3335:40     1  18M    0 zebra
4391 root      30  10 16624  680  612 S  0.0  0.0   0:33.95     1  15M    0 crond
5144 root      20   0 16132  468  388 S  0.0  0.0   1:15.94     1  15M    0 ntpd
5143 ntpd      20   0 16132  708  556 S  0.0  0.0   0:15.59     1  15M    0 ntpd
14548 root      20   0 14976  464  300 S  0.0  0.0   0:13.46  2120  14M    0 udevd
25138 root      20   0 14976  588  392 S  0.0  0.0   0:36.00  2120  14M    0 udevd
2120 root      20   0 14980  820  700 S  0.0  0.0  65:43.88     1  13M    0 udevd
4897 root      20   0 14864 1088 1000 S  0.0  0.0   1:19.22     1  13M    0 master
9854 admin     20   0 14756 1416 1412 S  0.0  0.0   0:00.04  9853  13M    0 bash
9893 root      20   0 15072 1984 1552 S  0.0  0.0   0:00.30  9889  12M    0 bash
17697 admin     20   0 14784 1956 1524 S  0.0  0.0   0:00.06 17696  12M    0 bash
17737 root      20   0 14888 2096 1548 S  0.0  0.1   0:00.06 17733  12M    0 bash
4912 root      10 -10 39056  26M 2564 S  0.0  0.7  25:14.97     1  11M    0 atop
20351 root      20   0 10628 1104  824 R  0.0  0.0   0:00.21 17737 9524    0 top

 

По сравнению с более ранней версией, в конфиге было изменено:

server=10.10.1.2,passw,auth-port=1812,acct-port=1813,req-limit=20

lcp-echo-interval=30
lcp-echo-failure=10

В l2tp

dir300_quirk=1
host-name=l2tp-vpn

И подправлен словарь л2тп для коннекта роутеров.

-ATTRIBUTE     Firmware-Revision           6     int16     M=0
-ATTRIBUTE     Host-Name                   7     string    M=1
-ATTRIBUTE     Vendor-Name                 8     string    M=0
+ATTRIBUTE     Firmware-Revision           6     int16
+ATTRIBUTE     Host-Name                   7     string
+ATTRIBUTE     Vendor-Name                 8     string

 

Еще работает ежедневная ротация логов, а после нее:

kill -HUP `cat $PIDFILE`

Изменено пользователем cpulink

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А вот у меня растёт потребление свопа accel-ем

ee2422173259340.jpg

С 23 янв, после установки accel-ppp version 8d5390ef0e836de11da82c6ca43110af524a724e, 31 янв перезапустил только accel-ppp.

top - 12:18:37 up 37 days, 22:43,  1 user,  load average: 0.25, 0.39, 0.35
Tasks: 164 total,   1 running, 163 sleeping,   0 stopped,   0 zombie
Cpu(s):  1.5%us,  1.7%sy,  0.2%ni, 61.1%id,  2.7%wa,  2.3%hi, 30.6%si,  0.0%st
Mem:   2071368k total,  2015844k used,    55524k free,    74520k buffers
Swap:  1949688k total,   974908k used,   974780k free,   300332k cached

 PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  SWAP COMMAND
2107 mysql     20   0 1348m 728m 3824 S    1 36.0 690:30.52 619m mysqld
13833 root      20   0  832m 386m  972 S    0 19.1  19:41.15 445m accel-pppd
1901 bind      20   0  113m  42m 1624 S    2  2.1 357:13.38  70m named
18491 www-data  20   0 49504  19m 4232 S    0  1.0   0:07.70  28m apache2
24384 www-data  20   0 49248  19m 4120 S    0  1.0   0:01.54  28m apache2
21142 www-data  20   0 48296  18m 4224 S    0  0.9   0:03.38  28m apache2
25004 www-data  20   0 48496  18m 3968 S    0  0.9   0:00.89  28m apache2
18143 www-data  20   0 48288  18m 4144 S    0  0.9   0:07.43  28m apache2
23427 www-data  20   0 48240  18m 4168 S    1  0.9   0:02.10  28m apache2
24062 www-data  20   0 48240  18m 4004 S    0  0.9   0:02.49  28m apache2
28640 www-data  20   0 46716  17m 4160 S    0  0.8   0:27.74  28m apache2
22765 www-data  20   0 46464  16m 4008 S    0  0.8   0:04.14  28m apache2
24675 www-data  20   0 46460  16m 4004 S    0  0.8   0:01.63  28m apache2

На mysql думаю не стоит обращать внимания, у него периодически скачет потребление свопа от 300 и выше мбайт (хотя тоже не нормально...).

 

accel-ppp version 8d5390ef0e836de11da82c6ca43110af524a724e
accel-ppp# show stat
uptime: 5.01:06:45
cpu: 0%
mem(rss/virt): 394492/853568 kB
core:
 mempool_allocated: 6383790
 mempool_available: 396986
 thread_count: 4
 thread_active: 1
 context_count: 274
 context_sleeping: 0
 context_pending: 0
 md_handler_count: 1035
 md_handler_pending: 0
 timer_count: 1007
 timer_pending: 0
ppp:
 starting: 0
 active: 254
 finishing: 0
pptp:
 starting: 0
 active: 93
l2tp:
 starting: 0
 active: 161
radius(1, 127.0.0.1):
 request count: 0
 queue length: 0
 auth sent: 25462
 auth lost(total/5m/1m): 0/0/0
 auth avg query time(5m/1m): 0/0 ms
 acct sent: 12232
 acct lost(total/5m/1m): 0/0/0
 acct avg query time(5m/1m): 0/0 ms
 interim sent: 1194442
 interim lost(total/5m/1m): 1/0/0
 interim avg query time(5m/1m): 0/0 ms

Изменено пользователем lan-viper

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

400Мб при 250 коннектов явно много, значит всё-таки где-то потекло ...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Текет-текет.

 

Ради интереса запустил accel-pppd из-под valgrid. на один поднятый уроненный коннект имеем:

 

==30336== LEAK SUMMARY:

==30336== definitely lost: 35 bytes in 3 blocks

==30336== indirectly lost: 0 bytes in 0 blocks

==30336== possibly lost: 5,160 bytes in 26 blocks

==30336== still reachable: 1,298,955 bytes in 15,259 blocks

==30336== suppressed: 0 bytes in 0 blocks

 

Там еще была 3 мегабайтная портянка на вопли про "Use of uninitialised value", но может это просто я неправильно иструмент применил.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

valgrind'ом не совсем корректно утечку смотреть, т.к. в accel-ppp используются мемпулы, которые при завершении не освобождаются

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

lan-viper, без твоей помощи не обойтись, у себя не могу ничего найти

1. надо собрать с -DMEMDEBUG=TRUE

2. запустить accel-pppd в screen без демонизации, т.е. без -d: accel-pppd -c /etc/accel-ppp.conf > /var/log/accel-ppp/memdebug.log

3. в удобное время суток сбросить все коннекты и желательно не допускать новых

4. в момент когда все коннекты будут сброшены (ну или их будет минимальное количество) выполнить: killall -35 accel-pppd; killall -36 accel-pppd; killall accel-pppd

5. запустить в нормальном режиме

Изменено пользователем xeb

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

ОК, завтра что-нибудь придумаю.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Итак, cmake запустил со следующими аргументами:

cmake -DBUILD_DRIVER=TRUE -DCMAKE_INSTALL_PREFIX=/usr -DSHAPER=TRUE -DNETSNMP=TRUE -DMEMDEBUG=TRUE ..

accel-ppp стартанул из командой:

screen accel-pppd -c /etc/accel-ppp.conf > /var/log/accel-ppp/memdebug.log

Вроде работает, но memdebug.log пустой, надеюсь так и должно быть. Самое главное, xeb, сколько accel-ю нужно работать в таком состоянии?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Вроде работает, но memdebug.log пустой, надеюсь так и должно быть.
в лог данные запишутся как только выполнишь killall -35 accel-pppd; killall -36 accel-pppd

 

Самое главное, xeb, сколько accel-ю нужно работать в таком состоянии?
много работать не обязательно, главное чтобы на момент подачи вышеуказанной команды было как можно меньше сессий, иначе в логе будет трудно разобраться

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Сервера работают на новой версии из гита с новым шейпером, пережовывают по 650 коннектов и по 300Мбит/с трафика по L2TP, по поводу шейпера при нагрузке на больших тарифах входящая скорость бывает превышает на 2Мбит/с, а на маленьких тарифах исходящая вообще не хочет резаться, пробывал разные примеры настройки, кстати при использовании tbf при 200Мбит/с трафика вообще не хочет нормально работать. Необходимо решить проблему с шейпироваем исходящей скорости, и входящей на тарифах до 25Мбит/с. Сейчас настроено так

 

[shaper]

vendor=Cisco

attr=Cisco-AVPair

time-range=1,09:00-23:29

time-range=2,00:00-08:59

#attr=Filter-Id

#down-burst-factor=0.1

#up-burst-factor=1.0

#latency=50

#mpu=0

up-limiter=police

down-limiter=htb

ifb=ifb0

r2q=10

quantum=1500

verbose=1

Изменено пользователем alexaaa

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

alexaaa, а радиус атрибуты где? Тут нет телепатов...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

alexaaa, а радиус атрибуты где? Тут нет телепатов...

lcp:interface-config#1=rate-limit input access-group 1 4096000 768000 1536000 conform-action transmit exceed-action drop

lcp:interface-config#1=rate-limit output access-group 1 4096000 768000 1536000 conform-action transmit exceed-action drop

lcp:interface-config#1=rate-limit input access-group 2 35840000 6720000 13440000 conform-action transmit exceed-action drop

lcp:interface-config#1=rate-limit output access-group 2 35840000 6720000 13440000 conform-action transmit exceed-action drop

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

lcp:interface-config#1=rate-limit input access-group 1 4096000 768000 1536000 conform-action transmit exceed-action drop

 

Сделайте его (ext-burst) такимже, как burst, т.е. 768000, тогда скорость не будет задираться.

 

И если уж перешли на хтб, тогда up-limiter=police замените на up-limiter=htb.

Изменено пользователем lan-viper

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

lcp:interface-config#1=rate-limit input access-group 1 4096000 768000 1536000 conform-action transmit exceed-action drop

 

Сделайте его такимже, как burst, т.е. 768000, тогда скорость не будет задираться.

а как насчёт исходящей скорости, входящая 4Мбит/с а исходащая 9Мбит/с, и разницы нет tbf, htb, police.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Моё замечание имеет место для всех атрибутов, с соотв. пересчётом значений.

 

PS

И кстати это всё в теории, нужно у xeb-а уточнить, используется-ли цисковский "расширенный барст" и если да, то он по всей видимости влияет на параметр cburst в контексте htb.

Изменено пользователем lan-viper

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

используется-ли цисковский "расширенный барст"
нет, не используется, в cburst его писать не смысла

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.