lan-viper Опубликовано 31 января, 2012 · Жалоба :-) либо меня снова пытаются научить таблице умножения, либо искусно пытаются получить информацию, для чего же мне всётаки нужен включенный модуль ppp_compat Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
alexaaa Опубликовано 31 января, 2012 · Жалоба либо меня снова пытаются научить таблице умножения, либо искусно пытаются получить информацию, для чего же мне всётаки нужен включенный модуль ppp_compat может быть :-) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
-Ars- Опубликовано 1 февраля, 2012 · Жалоба xeb, можно ли настроить так, чтобы IPv6-адрес на РРР-соединение не выдавался, но при этом RA запускался в момент поднятия туннеля и DHCPv6 работал (и выдавал IA_PD) - без скриптов, запускаемых через pppd_compat? Вообще, может есть какие-то недокументированные конфиги для IPv6? Чтобы можно было играть с флагами ICMPv6, например? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 1 февраля, 2012 · Жалоба можно ли настроить так, чтобы IPv6-адрес на РРР-соединение не выдавался, но при этом RA запускался в момент поднятия туннеля и DHCPv6 работал (и выдавал IA_PD) - без скриптов, запускаемых через pppd_compat? о таком вариант использования я не думал, в текущей реализации не получитсяа смысл выдавать IA_PD, если у клиента нет ип6 адреса ? Вообще, может есть какие-то недокументированные конфиги для IPv6? Чтобы можно было играть с флагами ICMPv6, например? [ipv6-nd] MaxRtrAdvInterval=600 MinRtrAdvInterval=198 #AdvManagedFlag= по умолчанию 1 если используется ipv6_dhcp, иначе 0 #AdvOtherConfigFlag= по умолчанию 1 если используется ipv6_dhcp, иначе 0 AdvLinkMTU=0 AdvReachableTime=0 AdvRetransTimer=0 AdvCurHopLimit=0 AdvDefaultLifetime=0 AdvValidLifetime=2592000 AdvPreferredLifetime=604800 #AdvAutonomousFlag=по умолчанию 0 если используется ipv6_dhcp, иначе 1 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
-Ars- Опубликовано 1 февраля, 2012 · Жалоба а смысл выдавать IA_PD, если у клиента нет ип6 адреса ? Вот тут, в частности, идёт бурное обсуждение, что выдавать юзеру с СРЕ. Учитывая, что, строго говоря, СРЕ не требуется IPv6 WAN адреса, чтобы пересылать пакетики с LAN PCs, можно ему адрес и не выдавать. Тогда IPV6 будут получать только компьютеры пользователя, а WAN СРЕ будет получать, например, "серый" IPv4. Сама идея экономить на IPv6 адресах, как я вижу, народ будоражит :) Вполне возможно, что будет и спрос на такую фичу. С "костылями" (rp-pppoe + radvd + wide-dhcpv6) я это завести смог, работает. [ipv6-nd] Weee!!! :) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 1 февраля, 2012 · Жалоба в принципе доработать не сложно Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
lan-viper Опубликовано 3 февраля, 2012 · Жалоба Файл подкачки почти гиг отъело, после перезапуска accel-я график резко скакнул в своё рабочее положение. По графику файл подкачки (в смысле занятое пространство) начал постепенно расти с момента установки версии 8d5390ef0e836de11da82c6ca43110af524a724e 23-го января. Ранее такого никогда не наблюдал, просьба разобраться. Вывод debug.log к сожалению был отключен за ненадобностью. ладно, посмотрим ... Ну как там дела по этой проблеме. Своп растёт, но стоит остановить демона accel-ppp, тогда место в нём снова приходит в норму. В логах ничего подозрительного, кроме этого [2012-02-03 09:21:47]: error: l2tp: recv: Connection refused [2012-02-03 09:22:17]: error: l2tp: recv: Connection refused [2012-02-03 09:23:52]: error: l2tp: recv: Connection refused [2012-02-03 09:24:22]: error: l2tp: recv: Connection refused [2012-02-03 09:24:52]: error: l2tp: recv: Connection refused [2012-02-03 09:26:27]: error: l2tp: recv: Connection refused [2012-02-03 09:26:57]: error: l2tp: recv: Connection refused [2012-02-03 09:27:27]: error: l2tp: recv: Connection refused Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
cpulink Опубликовано 4 февраля, 2012 · Жалоба Ну как там дела по этой проблеме. Своп растёт То что своп есть странно чуть,а на более старой версии с большей нагрузкой нету его.... Хотя менялось много... accel-ppp version 211f028919138cd2c6e3ddfb1fd8221a1273d894 подключений ~950: top - 22:39:58 up 148 days, 6:28, 2 users, load average: 0.12, 0.16, 0.16 Tasks: 91 total, 1 running, 90 sleeping, 0 stopped, 0 zombie CPU0 : 0.0%us, 0.7%sy, 0.0%ni, 46.4%id, 0.0%wa, 0.0%hi, 53.0%si, 0.0%st CPU1 : 0.3%us, 0.0%sy, 0.0%ni, 49.7%id, 0.0%wa, 0.0%hi, 50.0%si, 0.0%st CPU2 : 0.0%us, 0.3%sy, 0.0%ni, 40.9%id, 0.0%wa, 0.0%hi, 58.8%si, 0.0%st CPU3 : 0.3%us, 0.0%sy, 0.0%ni, 56.5%id, 0.0%wa, 0.0%hi, 43.2%si, 0.0%st Mem: 4057940K total, 3173620K used, 884320K free, 147500K buffers Swap: 8385892K total, 529440K used, 7856452K free, 2415096K cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ SWAP COMMAND 21892 root 20 0 299M 86M 1324 S 0.7 2.2 6:09.28 213M accel-pppd 21907 root 20 0 299M 86M 1324 S 0.0 2.2 0:04.39 213M accel-pppd 21913 root 20 0 299M 86M 1324 S 1.0 2.2 7:37.70 213M accel-pppd 21914 root 20 0 299M 86M 1324 S 0.3 2.2 3:50.31 213M accel-pppd 1283 root 20 0 299M 86M 1324 S 1.0 2.2 8:33.16 213M accel-pppd 12345 root 20 0 299M 86M 1324 S 0.0 2.2 0:00.00 213M accel-pppd 12546 root 20 0 299M 86M 1324 S 0.0 2.2 0:00.14 213M accel-pppd 13326 root 20 0 299M 86M 1324 S 0.0 2.2 0:00.29 213M accel-pppd 13328 root 20 0 299M 86M 1324 S 0.0 2.2 0:00.05 213M accel-pppd 13537 root 20 0 299M 86M 1324 S 1.7 2.2 0:00.11 213M accel-pppd 9853 admin 20 0 74772 1400 1176 S 0.0 0.0 0:10.72 71M sshd 9380 admin 20 0 74632 1936 1172 S 0.0 0.0 0:00.08 70M sshd 9846 root 20 0 74632 2304 2300 S 0.0 0.1 0:00.03 70M sshd 9311 root 20 0 74632 3108 2348 S 0.0 0.1 0:00.08 69M sshd accel-ppp version c8bc8763ea6980ef3e3fa7e3dbe2a598a1169de5 подключений ~1100: top - 22:44:03 up 86 days, 8:25, 5 users, load average: 0.46, 0.30, 0.26 Tasks: 89 total, 1 running, 88 sleeping, 0 stopped, 0 zombie CPU0 : 0.0%us, 0.0%sy, 0.0%ni, 64.2%id, 0.0%wa, 0.0%hi, 35.8%si, 0.0%st CPU1 : 0.0%us, 0.0%sy, 0.0%ni, 57.4%id, 0.0%wa, 0.0%hi, 42.6%si, 0.0%st CPU2 : 0.7%us, 0.0%sy, 0.0%ni, 50.2%id, 0.0%wa, 0.0%hi, 49.2%si, 0.0%st CPU3 : 0.0%us, 0.3%sy, 0.0%ni, 56.0%id, 0.0%wa, 0.0%hi, 43.7%si, 0.0%st Mem: 4057880K total, 2398108K used, 1659772K free, 233180K buffers Swap: 8388604K total, 0K used, 8388604K free, 1623532K cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ SWAP COMMAND 10979 root 20 0 509M 103M 1316 S 1.0 2.6 248:56.59 405M accel-pppd 10988 root 20 0 509M 103M 1316 S 0.0 2.6 2:36.61 405M accel-pppd 10993 root 20 0 509M 103M 1316 S 2.0 2.6 332:12.99 405M accel-pppd 10994 root 20 0 509M 103M 1316 S 1.0 2.6 160:20.12 405M accel-pppd 32367 root 20 0 509M 103M 1316 S 2.0 2.6 379:18.46 405M accel-pppd 4894 root 20 0 509M 103M 1316 S 2.7 2.6 0:00.59 405M accel-pppd 4967 root 20 0 509M 103M 1316 S 0.0 2.6 0:00.00 405M accel-pppd 5031 root 20 0 509M 103M 1316 S 0.0 2.6 0:00.01 405M accel-pppd 5104 root 20 0 509M 103M 1316 S 0.7 2.6 0:00.02 405M accel-pppd 16380 admin 20 0 74772 1992 1188 S 0.0 0.0 0:01.35 71M sshd 16373 root 20 0 74632 3076 2344 S 0.0 0.1 0:00.02 69M sshd 4262 root 20 0 74632 3212 2440 S 0.0 0.1 0:00.14 69M sshd статистика с гит версии: accel-ppp# show stat uptime: 1.03:49:10 cpu: 4% memory: rss/virt: 88584/306848 kB arena: 48356 kB mmaped: 516 kB uordblks: 29166 kB fordblks: 19189 kB core: mempool_allocated: 24469505 mempool_available: 1269481 thread_count: 4 thread_active: 1 context_count: 959 context_sleeping: 0 context_pending: 0 md_handler_count: 3608 md_handler_pending: 0 timer_count: 1821 timer_pending: 0 ppp: starting: 2 active: 881 finishing: 1 pptp: starting: 0 active: 827 l2tp: starting: 0 active: 57 radius(1, 10.10.1.2): request count: 0 queue length: 0 auth sent: 9259 auth lost(total/5m/1m): 223/0/0 auth avg query time(5m/1m): 446/380 ms acct sent: 14183 acct lost(total/5m/1m): 1543/16/7 acct avg query time(5m/1m): 30/22 ms interim sent: 20944 interim lost(total/5m/1m): 2118/39/2 interim avg query time(5m/1m): 58/66 ms accel-ppp# Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 5 февраля, 2012 · Жалоба мда, по статистике не видно чтобы accel-ppp отъедал много памяти, я думал может он где потёк .... значит что-то другое, там ещё каких висячих процессов не наблюдается ? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
cpulink Опубликовано 5 февраля, 2012 (изменено) · Жалоба мда, по статистике не видно чтобы accel-ppp отъедал много памяти, я думал может он где потёк .... значит что-то другое, там ещё каких висячих процессов не наблюдается ? Ничего явно странного не видно: PID TTY STAT TIME COMMAND 1 ? Ss 11:52 init [3] 2 ? S 0:00 [kthreadd] 3 ? S 4167:29 [ksoftirqd/0] 6 ? S 0:00 [migration/0] 7 ? S 0:00 [migration/1] 9 ? S 3051:20 [ksoftirqd/1] 11 ? S 0:00 [migration/2] 13 ? S 2600:24 [ksoftirqd/2] 14 ? S 0:00 [migration/3] 16 ? S 2103:50 [ksoftirqd/3] 17 ? S< 0:00 [cpuset] 18 ? S< 0:00 [khelper] 19 ? S 0:00 [kdevtmpfs] 23 ? S< 0:00 [netns] 103 ? S 1:29 [sync_supers] 105 ? S 0:02 [bdi-default] 106 ? S< 0:00 [kintegrityd] 108 ? S< 0:05 [kblockd] 243 ? S< 0:00 [md] 374 ? S 0:05 [khungtaskd] 380 ? S 0:30 [kswapd0] 381 ? SN 0:00 [ksmd] 382 ? SN 1:07 [khugepaged] 383 ? S 0:00 [fsnotify_mark] 384 ? S< 0:00 [crypto] 709 ? S 0:01 [kworker/u:0] 1207 ? S 0:00 [cciss_scan] 1985 ? S 0:10 [jbd2/cciss!c0d0] 1986 ? S< 0:00 [ext4-dio-unwrit] 2120 ? Ss 65:43 /sbin/udevd --daemon 2271 ? S< 0:00 [kpsmoused] 2273 ? S< 0:00 [edac-poller] 2279 ? S 0:00 [khubd] 2288 ? S< 0:00 [ata_sff] 2368 ? S 0:00 [kauditd] 2412 ? S< 0:00 [kmpathd] 2413 ? S< 0:00 [kmpath_handlerd] 2447 ? S 22:17 [jbd2/cciss!c0d0] 2448 ? S< 0:00 [ext4-dio-unwrit] 2767 ? Ss 0:00 /usr/sbin/acpid -n 3294 ? S 10:33 [flush-104:0] 3998 ? S 0:12 [kworker/1:1] 4132 ? S 19:37 [kworker/2:2] 4246 ? Ss 0:05 /sbin/klogd -c 1 -x -u klogd -j /var/lib/klogd 4363 ? S 0:00 [kworker/u:1] 4391 ? SNs 0:33 /usr/sbin/crond -l 4.5 4491 ? Ss 3:00 /usr/sbin/sshd 4544 ? Ss 3335:35 /usr/sbin/zebra --daemon -s 1024000 -A 127.0.0.1 -f /etc/quagga/zebra. 4841 ? S 4:42 [kworker/3:0] 4897 ? Ss 1:19 /usr/libexec/postfix/master 4907 ? S 0:14 qmgr -l -t fifo -u -c 4912 ? S<L 25:14 /usr/bin/atop -a -w /var/log/atop/atop_20110914 600 5022 tty2 Ss+ 0:00 /sbin/mingetty tty2 5023 tty3 Ss+ 0:00 /sbin/mingetty tty3 5024 tty4 Ss+ 0:00 /sbin/mingetty tty4 5025 tty5 Ss+ 0:00 /sbin/mingetty tty5 5026 tty6 Ss+ 0:00 /sbin/mingetty tty6 5143 ? S 0:15 ntpd: ntp engine 5144 ? Ss 1:15 ntpd: [priv] 9169 ? Ss 203:19 /usr/sbin/ospfd --daemon -A 127.0.0.1 -f /etc/quagga/ospfd.conf 9846 ? Ss 0:00 sshd: admin [priv] 9853 ? S 0:10 sshd: admin@pts/0 9854 pts/0 Ss 0:00 -bash 9889 pts/0 S 0:00 su - 9893 pts/0 S+ 0:00 -bash 11503 ? S 0:00 pickup -l -t fifo -u -c 12934 ? S 0:33 [kworker/0:1] 14548 ? S 0:13 /sbin/udevd --daemon 15000 ? SNs 0:00 /sbin/syslogd -u syslogd -j /var/resolv 15046 ? S 1:05 [kworker/3:1] 17689 ? Ss 0:00 sshd: admin [priv] 17696 ? S 0:00 sshd: admin@pts/1 17697 pts/1 Ss 0:00 -bash 17733 pts/1 S 0:00 su - 17737 pts/1 S 0:00 -bash 18578 pts/1 R+ 0:00 ps xa 21892 ? Ssl 71:02 /usr/local/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel- 25138 ? S 0:35 /sbin/udevd --daemon 27212 ? S 14:58 [kworker/2:1] 28311 ? S 0:33 [kworker/1:2] 29720 tty1 Ss+ 0:00 /sbin/mingetty --noclear tty1 30003 ? S 1:00 [kworker/0:0] статистика: accel-ppp version 211f028919138cd2c6e3ddfb1fd8221a1273d894 accel-ppp# show stat uptime: 1.15:57:39 cpu: 2% memory: rss/virt: 88824/306848 kB arena: 48356 kB mmaped: 516 kB uordblks: 21554 kB fordblks: 26801 kB core: mempool_allocated: 17524049 mempool_available: 311957 thread_count: 4 thread_active: 1 context_count: 761 context_sleeping: 0 context_pending: 0 md_handler_count: 2718 md_handler_pending: 0 timer_count: 1353 timer_pending: 0 ppp: starting: 2 active: 651 finishing: 0 pptp: starting: 0 active: 603 l2tp: starting: 0 active: 50 radius(1, 10.10.1.2): request count: 0 queue length: 0 auth sent: 11515 auth lost(total/5m/1m): 249/0/0 auth avg query time(5m/1m): 825/1232 ms acct sent: 18076 acct lost(total/5m/1m): 1799/4/0 acct avg query time(5m/1m): 11/15 ms interim sent: 27384 interim lost(total/5m/1m): 2534/0/0 interim avg query time(5m/1m): 60/48 ms accel-ppp# Своп как и вчера есть(понятно что не исчезнет просто так, и он не изменился со вчера): top - 11:12:29 up 148 days, 19:00, 2 users, load average: 0.07, 0.06, 0.05 Tasks: 90 total, 1 running, 89 sleeping, 0 stopped, 0 zombie CPU0 : 0.3%us, 0.0%sy, 0.0%ni, 67.5%id, 0.7%wa, 0.0%hi, 31.5%si, 0.0%st CPU1 : 0.3%us, 0.0%sy, 0.0%ni, 57.1%id, 0.0%wa, 0.0%hi, 42.5%si, 0.0%st CPU2 : 0.0%us, 0.3%sy, 0.0%ni, 55.5%id, 0.0%wa, 0.0%hi, 44.2%si, 0.0%st CPU3 : 0.0%us, 0.3%sy, 0.0%ni, 64.8%id, 0.0%wa, 0.0%hi, 34.9%si, 0.0%st Mem: 4057940K total, 2849684K used, 1208256K free, 151008K buffers Swap: 8385892K total, 529440K used, 7856452K free, 2121368K cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ PPID SWAP nDRT COMMAND 21892 root 20 0 299M 86M 1332 S 0.3 2.2 7:29.75 1 212M 0 accel-pppd 21907 root 20 0 299M 86M 1332 S 0.0 2.2 0:05.50 1 212M 0 accel-pppd 21913 root 20 0 299M 86M 1332 S 0.7 2.2 9:30.50 1 212M 0 accel-pppd 21914 root 20 0 299M 86M 1332 S 0.3 2.2 4:40.06 1 212M 0 accel-pppd 13449 root 20 0 299M 86M 1332 S 0.7 2.2 0:25.68 1 212M 0 accel-pppd 18517 root 20 0 299M 86M 1332 S 0.0 2.2 0:00.00 1 212M 0 accel-pppd 21684 root 20 0 299M 86M 1332 S 1.0 2.2 0:00.11 1 212M 0 accel-pppd 21687 root 20 0 299M 86M 1332 S 0.0 2.2 0:00.00 1 212M 0 accel-pppd 21746 root 20 0 299M 86M 1332 S 0.0 2.2 0:00.00 1 212M 0 accel-pppd 9853 admin 20 0 74772 1400 1176 S 0.0 0.0 0:10.72 9846 71M 0 sshd 17696 admin 20 0 74632 1920 1172 S 0.0 0.0 0:00.09 17689 71M 0 sshd 9846 root 20 0 74632 2304 2300 S 0.0 0.1 0:00.03 4491 70M 0 sshd 17689 root 20 0 74632 3092 2348 S 0.0 0.1 0:00.05 4491 69M 0 sshd 4491 root 20 0 47068 692 592 S 0.0 0.0 3:00.25 1 45M 0 sshd 9889 root 20 0 35484 1000 996 S 0.0 0.0 0:00.00 9854 33M 0 su 17733 root 20 0 35484 1364 1048 S 0.0 0.0 0:00.01 17697 33M 0 su 4907 postfix 20 0 24752 1300 1232 S 0.0 0.0 0:14.89 4897 22M 0 qmgr 11503 postfix 20 0 24984 1668 1104 S 0.0 0.0 0:00.01 4897 22M 0 pickup 9169 quagga 20 0 32612 11M 860 S 0.7 0.3 203:20.81 1 20M 0 ospfd 4544 quagga 20 0 24660 5880 708 S 0.0 0.1 3335:40 1 18M 0 zebra 4391 root 30 10 16624 680 612 S 0.0 0.0 0:33.95 1 15M 0 crond 5144 root 20 0 16132 468 388 S 0.0 0.0 1:15.94 1 15M 0 ntpd 5143 ntpd 20 0 16132 708 556 S 0.0 0.0 0:15.59 1 15M 0 ntpd 14548 root 20 0 14976 464 300 S 0.0 0.0 0:13.46 2120 14M 0 udevd 25138 root 20 0 14976 588 392 S 0.0 0.0 0:36.00 2120 14M 0 udevd 2120 root 20 0 14980 820 700 S 0.0 0.0 65:43.88 1 13M 0 udevd 4897 root 20 0 14864 1088 1000 S 0.0 0.0 1:19.22 1 13M 0 master 9854 admin 20 0 14756 1416 1412 S 0.0 0.0 0:00.04 9853 13M 0 bash 9893 root 20 0 15072 1984 1552 S 0.0 0.0 0:00.30 9889 12M 0 bash 17697 admin 20 0 14784 1956 1524 S 0.0 0.0 0:00.06 17696 12M 0 bash 17737 root 20 0 14888 2096 1548 S 0.0 0.1 0:00.06 17733 12M 0 bash 4912 root 10 -10 39056 26M 2564 S 0.0 0.7 25:14.97 1 11M 0 atop 20351 root 20 0 10628 1104 824 R 0.0 0.0 0:00.21 17737 9524 0 top По сравнению с более ранней версией, в конфиге было изменено: server=10.10.1.2,passw,auth-port=1812,acct-port=1813,req-limit=20 lcp-echo-interval=30 lcp-echo-failure=10 В l2tp dir300_quirk=1 host-name=l2tp-vpn И подправлен словарь л2тп для коннекта роутеров. -ATTRIBUTE Firmware-Revision 6 int16 M=0 -ATTRIBUTE Host-Name 7 string M=1 -ATTRIBUTE Vendor-Name 8 string M=0 +ATTRIBUTE Firmware-Revision 6 int16 +ATTRIBUTE Host-Name 7 string +ATTRIBUTE Vendor-Name 8 string Еще работает ежедневная ротация логов, а после нее: kill -HUP `cat $PIDFILE` Изменено 5 февраля, 2012 пользователем cpulink Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
lan-viper Опубликовано 5 февраля, 2012 (изменено) · Жалоба А вот у меня растёт потребление свопа accel-ем С 23 янв, после установки accel-ppp version 8d5390ef0e836de11da82c6ca43110af524a724e, 31 янв перезапустил только accel-ppp. top - 12:18:37 up 37 days, 22:43, 1 user, load average: 0.25, 0.39, 0.35 Tasks: 164 total, 1 running, 163 sleeping, 0 stopped, 0 zombie Cpu(s): 1.5%us, 1.7%sy, 0.2%ni, 61.1%id, 2.7%wa, 2.3%hi, 30.6%si, 0.0%st Mem: 2071368k total, 2015844k used, 55524k free, 74520k buffers Swap: 1949688k total, 974908k used, 974780k free, 300332k cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ SWAP COMMAND 2107 mysql 20 0 1348m 728m 3824 S 1 36.0 690:30.52 619m mysqld 13833 root 20 0 832m 386m 972 S 0 19.1 19:41.15 445m accel-pppd 1901 bind 20 0 113m 42m 1624 S 2 2.1 357:13.38 70m named 18491 www-data 20 0 49504 19m 4232 S 0 1.0 0:07.70 28m apache2 24384 www-data 20 0 49248 19m 4120 S 0 1.0 0:01.54 28m apache2 21142 www-data 20 0 48296 18m 4224 S 0 0.9 0:03.38 28m apache2 25004 www-data 20 0 48496 18m 3968 S 0 0.9 0:00.89 28m apache2 18143 www-data 20 0 48288 18m 4144 S 0 0.9 0:07.43 28m apache2 23427 www-data 20 0 48240 18m 4168 S 1 0.9 0:02.10 28m apache2 24062 www-data 20 0 48240 18m 4004 S 0 0.9 0:02.49 28m apache2 28640 www-data 20 0 46716 17m 4160 S 0 0.8 0:27.74 28m apache2 22765 www-data 20 0 46464 16m 4008 S 0 0.8 0:04.14 28m apache2 24675 www-data 20 0 46460 16m 4004 S 0 0.8 0:01.63 28m apache2 На mysql думаю не стоит обращать внимания, у него периодически скачет потребление свопа от 300 и выше мбайт (хотя тоже не нормально...). accel-ppp version 8d5390ef0e836de11da82c6ca43110af524a724e accel-ppp# show stat uptime: 5.01:06:45 cpu: 0% mem(rss/virt): 394492/853568 kB core: mempool_allocated: 6383790 mempool_available: 396986 thread_count: 4 thread_active: 1 context_count: 274 context_sleeping: 0 context_pending: 0 md_handler_count: 1035 md_handler_pending: 0 timer_count: 1007 timer_pending: 0 ppp: starting: 0 active: 254 finishing: 0 pptp: starting: 0 active: 93 l2tp: starting: 0 active: 161 radius(1, 127.0.0.1): request count: 0 queue length: 0 auth sent: 25462 auth lost(total/5m/1m): 0/0/0 auth avg query time(5m/1m): 0/0 ms acct sent: 12232 acct lost(total/5m/1m): 0/0/0 acct avg query time(5m/1m): 0/0 ms interim sent: 1194442 interim lost(total/5m/1m): 1/0/0 interim avg query time(5m/1m): 0/0 ms Изменено 5 февраля, 2012 пользователем lan-viper Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 5 февраля, 2012 · Жалоба 400Мб при 250 коннектов явно много, значит всё-таки где-то потекло ... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
taf_321 Опубликовано 5 февраля, 2012 · Жалоба Текет-текет. Ради интереса запустил accel-pppd из-под valgrid. на один поднятый уроненный коннект имеем: ==30336== LEAK SUMMARY: ==30336== definitely lost: 35 bytes in 3 blocks ==30336== indirectly lost: 0 bytes in 0 blocks ==30336== possibly lost: 5,160 bytes in 26 blocks ==30336== still reachable: 1,298,955 bytes in 15,259 blocks ==30336== suppressed: 0 bytes in 0 blocks Там еще была 3 мегабайтная портянка на вопли про "Use of uninitialised value", но может это просто я неправильно иструмент применил. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 5 февраля, 2012 · Жалоба valgrind'ом не совсем корректно утечку смотреть, т.к. в accel-ppp используются мемпулы, которые при завершении не освобождаются Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 5 февраля, 2012 (изменено) · Жалоба lan-viper, без твоей помощи не обойтись, у себя не могу ничего найти 1. надо собрать с -DMEMDEBUG=TRUE 2. запустить accel-pppd в screen без демонизации, т.е. без -d: accel-pppd -c /etc/accel-ppp.conf > /var/log/accel-ppp/memdebug.log 3. в удобное время суток сбросить все коннекты и желательно не допускать новых 4. в момент когда все коннекты будут сброшены (ну или их будет минимальное количество) выполнить: killall -35 accel-pppd; killall -36 accel-pppd; killall accel-pppd 5. запустить в нормальном режиме Изменено 5 февраля, 2012 пользователем xeb Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
lan-viper Опубликовано 5 февраля, 2012 · Жалоба ОК, завтра что-нибудь придумаю. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
lan-viper Опубликовано 6 февраля, 2012 · Жалоба Итак, cmake запустил со следующими аргументами: cmake -DBUILD_DRIVER=TRUE -DCMAKE_INSTALL_PREFIX=/usr -DSHAPER=TRUE -DNETSNMP=TRUE -DMEMDEBUG=TRUE .. accel-ppp стартанул из командой: screen accel-pppd -c /etc/accel-ppp.conf > /var/log/accel-ppp/memdebug.log Вроде работает, но memdebug.log пустой, надеюсь так и должно быть. Самое главное, xeb, сколько accel-ю нужно работать в таком состоянии? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 6 февраля, 2012 · Жалоба Вроде работает, но memdebug.log пустой, надеюсь так и должно быть.в лог данные запишутся как только выполнишь killall -35 accel-pppd; killall -36 accel-pppd Самое главное, xeb, сколько accel-ю нужно работать в таком состоянии? много работать не обязательно, главное чтобы на момент подачи вышеуказанной команды было как можно меньше сессий, иначе в логе будет трудно разобраться Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
alexaaa Опубликовано 6 февраля, 2012 (изменено) · Жалоба Сервера работают на новой версии из гита с новым шейпером, пережовывают по 650 коннектов и по 300Мбит/с трафика по L2TP, по поводу шейпера при нагрузке на больших тарифах входящая скорость бывает превышает на 2Мбит/с, а на маленьких тарифах исходящая вообще не хочет резаться, пробывал разные примеры настройки, кстати при использовании tbf при 200Мбит/с трафика вообще не хочет нормально работать. Необходимо решить проблему с шейпироваем исходящей скорости, и входящей на тарифах до 25Мбит/с. Сейчас настроено так [shaper] vendor=Cisco attr=Cisco-AVPair time-range=1,09:00-23:29 time-range=2,00:00-08:59 #attr=Filter-Id #down-burst-factor=0.1 #up-burst-factor=1.0 #latency=50 #mpu=0 up-limiter=police down-limiter=htb ifb=ifb0 r2q=10 quantum=1500 verbose=1 Изменено 6 февраля, 2012 пользователем alexaaa Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
lan-viper Опубликовано 6 февраля, 2012 · Жалоба alexaaa, а радиус атрибуты где? Тут нет телепатов... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
alexaaa Опубликовано 6 февраля, 2012 · Жалоба alexaaa, а радиус атрибуты где? Тут нет телепатов... lcp:interface-config#1=rate-limit input access-group 1 4096000 768000 1536000 conform-action transmit exceed-action drop lcp:interface-config#1=rate-limit output access-group 1 4096000 768000 1536000 conform-action transmit exceed-action drop lcp:interface-config#1=rate-limit input access-group 2 35840000 6720000 13440000 conform-action transmit exceed-action drop lcp:interface-config#1=rate-limit output access-group 2 35840000 6720000 13440000 conform-action transmit exceed-action drop Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
lan-viper Опубликовано 6 февраля, 2012 (изменено) · Жалоба lcp:interface-config#1=rate-limit input access-group 1 4096000 768000 1536000 conform-action transmit exceed-action drop Сделайте его (ext-burst) такимже, как burst, т.е. 768000, тогда скорость не будет задираться. И если уж перешли на хтб, тогда up-limiter=police замените на up-limiter=htb. Изменено 6 февраля, 2012 пользователем lan-viper Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
alexaaa Опубликовано 6 февраля, 2012 · Жалоба lcp:interface-config#1=rate-limit input access-group 1 4096000 768000 1536000 conform-action transmit exceed-action drop Сделайте его такимже, как burst, т.е. 768000, тогда скорость не будет задираться. а как насчёт исходящей скорости, входящая 4Мбит/с а исходащая 9Мбит/с, и разницы нет tbf, htb, police. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
lan-viper Опубликовано 6 февраля, 2012 (изменено) · Жалоба Моё замечание имеет место для всех атрибутов, с соотв. пересчётом значений. PS И кстати это всё в теории, нужно у xeb-а уточнить, используется-ли цисковский "расширенный барст" и если да, то он по всей видимости влияет на параметр cburst в контексте htb. Изменено 6 февраля, 2012 пользователем lan-viper Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 6 февраля, 2012 · Жалоба используется-ли цисковский "расширенный барст" нет, не используется, в cburst его писать не смысла Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...