Перейти к содержимому
Калькуляторы

cpulink

Пользователи
  • Публикации

    33
  • Зарегистрирован

  • Посещение

О cpulink

  • Звание
    Абитуриент
    Абитуриент

Посетители профиля

Блок посетителей профиля отключен и не будет отображаться другим пользователям

  1. Всем спасибо! Было 2 проблемы - и старый сертификат и проблема в модуле ssl perl. Исправил, пошло. Много дебага...
  2. А можно архив скриптов загрузки, если есть? а то не могу найти загружалку не на перле... erdi.tar.gz - не качает... ошибка 500
  3. Как починили, если не секрет? Борюсь, но так не хочет грузить. И какой софт выгружает?
  4. Взял с гита версию, похожая ошибка. Есть кто грузит целиком, а не дельты и т.п.? вот лог
  5. Как сломалось с введением https так и не получается в авторежиме. Может, кто сталкивался? 2024-04-17 18:09:04 | INFO | main | Retrying... 2024-04-17 18:09:04 | ERROR | main | Error while getLastDumpDate: Service description 'https://vigruzki.rkn.gov.ru/services/OperatorRequest/?wsdl' can't be loaded: 500 Can't connect to vigruzki.rkn.gov.ru:443 2024-04-17 18:09:04 | FATAL | main | 3 attempts failed, giving up
  6. У всех работает выгрузка? у меня и curl ругается, понять бы что не так > GET /services/OperatorRequest/?wsdl HTTP/1.1 > User-Agent: curl/7.31.0-DEV > Host: vigruzki.rkn.gov.ru > Accept: */* > < HTTP/1.1 502 Bad Gateway < Content-Type: text/html < Content-Length: 150 < Connection: keep-alive * Server nginx is not blacklisted < Server: nginx < Date: Wed, 17 Apr 2024 14:20:53 GMT < <html> <head><title>502 Bad Gateway</title></head> <body> <center><h1>502 Bad Gateway</h1></center> <hr><center>nginx</center> </body> </html> > GET /services/OperatorRequest/?wsdl HTTP/1.1 > User-Agent: curl/7.31.0-DEV > Host: vigruzki.rkn.gov.ru > Accept: */* > < HTTP/1.1 502 Bad Gateway < Content-Type: text/html < Content-Length: 150 < Connection: keep-alive * Server nginx is not blacklisted < Server: nginx < Date: Wed, 17 Apr 2024 14:20:53 GMT < <html> <head><title>502 Bad Gateway</title></head> <body> <center><h1>502 Bad Gateway</h1></center> <hr><center>nginx</center> </body> </html> [Click and drag to move]
  7. Попробуйте отключить оффлоады на сетевой карте. Вдруг поможет. Это точно ошибки физики? Это не CRC это checksum, вроде. Может фрагменты пакетов? Видим подобную картину именно на спидтесте, но если использовать приложение - работает.
  8. Не знаю почему, но примерно похожая конфигурация и с оспф, проц не ложит. 7 Accel-ppp ~11к маршрутов. Комп: 8 ядер 3GHz, nat, часть в NOTRACK, 5 Gbit.
  9. С openl2tp уткнулись в свое время в ограничение дизайна на 1024 открытых дескриптора файлов, что давало не более 500 коннектов на сервак. проблему возможно решить тока перекомпиляцией почти всего дистрибутива, увеличив константы - забили. Разработчики дизайн менять не стали, хотя проблему подтвердили. Сейчас используется accel-ppp, без таких ограничений....
  10. Очень интересно попробовать этот патч! Выложите, если есть время и возможность.
  11. Совсем недавно поставили Intel X520-DA2 2 sfp+ порта, и 1 сфп+ 10G, тестим. 8 дней. Трафик гоняется где-то 2,5 Гига туда-сюда. Драйвер пришлой собирать самим, т.к. с сфп+ (не от интел) не хотел работать. Ядро 3.3.8, на 3.4 драйвер вроде уже с нужными опциями и патчами.
  12. С L2TP есть другая проблема-особенность, которая сейчас мешает его массово использовать. Кто использует L2TP отпишитесь как у вас оно работает? У нас есть такая фишка - перестаёт подключать по L2TP по прошествии определённого времени, при этом PPTP работает. Замечено следующее: в процессах появляется еще один демон(при этом я его не запускал, в кроне в 4 утра стоит только ротация логов kill -HUP $accelpid). Выглядит так: ps xa|grep acc 4229 ? S 0:00 /usr/local/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf 13722 pts/0 S+ 0:00 grep --color=auto acc 25725 ? Ssl 991:40 /usr/local/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf Видно что он один работает,а второй - не ясно чем занят. Netstat показывает, что именно проблемный слушает соединения: netstat -ntaup |grep 0.0.0.0 tcp 0 0 0.0.0.0:2000 0.0.0.0:* LISTEN 4229/accel-pppd tcp 0 0 0.0.0.0:2001 0.0.0.0:* LISTEN 4229/accel-pppd tcp 0 0 0.0.0.0:1723 0.0.0.0:* LISTEN 4229/accel-pppd udp 0 0 0.0.0.0:1701 0.0.0.0:* 4229/accel-pppd При этом на машине с 1 копией демона в процессах: ip li |grep ppp|grep -c DOWN 2 На проблемной машине: ip li |grep ppp|grep -c DOWN 828 По открытым файлам на нормальной машине: ls /proc/19528/fd/ |grep -c . 4502 По файлам на проблемной машине: рабочий процесс ls /proc/25725/fd/ |grep -c . 4030 проблемный процесс ls /proc/4229/fd/ |grep -c . 7754 Если процесс не трогать - в логи ничего про проблемы с L2TP не попадает и подключение не проходит по причине - не отвечат, а если сделать процессу kill -HUP 4229,то в лог начинает кое-что падать и соединение вылетает с ошибкой сразу: [2012-04-11 08:14:13]: info: : recv [L2TP tid=0 sid=0 Ns=0 Nr=0 <Message-Type Start-Ctrl-Conn-Request> <Protocol-Version 256> <Framing-Capabilities 1> <Bearer-Capabilities 0> <Firmware-Revision 1280> <Host-Name samlab> <Vendor-Name Microsoft> <Assigned-Tunnel-ID 7> <Recv-Window-Size 8>] [2012-04-11 08:14:13]: info: : send [L2TP tid=7 sid=0 Ns=0 Nr=1 <Message-Type Start-Ctrl-Conn-Reply> <Protocol-Version 256> <Host-Name l2tp-vpn> <Framing-Capabilities 1> <Assigned-Tunnel-ID 1> <Vendor-Name accel-ppp>] [2012-04-11 08:14:13]: info: : recv [L2TP tid=1 sid=0 Ns=1 Nr=1 <Message-Type Start-Ctrl-Conn-Connected>] [2012-04-11 08:14:13]: info: : recv [L2TP tid=1 sid=0 Ns=2 Nr=1 <Message-Type Incoming-Call-Request> <Assigned-Session-ID 1> <Call-Serial-Number 0> <Bearer-Type 2>] [2012-04-11 08:14:13]: info: : send [L2TP tid=7 sid=1 Ns=1 Nr=3 <Message-Type Incoming-Call-Reply> <Assigned-Session-ID 1>] [2012-04-11 08:14:13]: info: : recv [L2TP tid=1 sid=1 Ns=3 Nr=2 <Message-Type Incoming-Call-Connected> <TX-Speed 100000000> <Framing-Type 1> <Proxy-Authen-Type 4>] [2012-04-11 08:14:13]: error: : l2tp: connect(tunnel): File exists [2012-04-11 08:14:13]: debug: : l2tp: terminate (2, 0) [2012-04-11 08:14:13]: info: : send [L2TP tid=7 sid=0 Ns=2 Nr=4 <Message-Type Stop-Ctrl-Conn-Notify> <Assigned-Tunnel-ID 1> <Result-Code>] [2012-04-11 08:14:13]: info: : disconnected Статистика по проблемной и нормальной машинах: accel-ppp# show stat uptime: 19.14:59:20 cpu: 0% memory: rss/virt: 105536/473332 kB arena: 41016 kB mmaped: 516 kB uordblks: 13774 kB fordblks: 27241 kB core: mempool_allocated: 11978453 mempool_available: 591613 thread_count: 5 thread_active: 1 context_count: 1431 context_sleeping: 1 context_pending: 0 md_handler_count: 2531 md_handler_pending: 1 timer_count: 736 timer_pending: 0 ppp: starting: 0 active: 366 finishing: 0 pptp: starting: 0 active: 366 l2tp: starting: 11493 active: 1 accel-ppp# show stat uptime: 19.19:40:11 cpu: 0% memory: rss/virt: 83472/478292 kB arena: 45976 kB mmaped: 516 kB uordblks: 14555 kB fordblks: 31420 kB core: mempool_allocated: 12983374 mempool_available: 472745 thread_count: 4 thread_active: 1 context_count: 1429 context_sleeping: 0 context_pending: 0 md_handler_count: 2704 md_handler_pending: 0 timer_count: 872 timer_pending: 0 ppp: starting: 2 active: 423 finishing: 0 pptp: starting: 0 active: 398 l2tp: starting: 0 active: 27 Кусок конфига: [modules] log_file pptp l2tp auth_mschap_v2 radius sigchld pppd_compat [core] log-error=/var/log/accel-ppp/core.log thread-count=4 Вот что выводит ps -eLf: UID PID PPID LWP C NLWP STIME TTY TIME CMD ---skip--- root 4229 25725 4229 0 1 Apr03 ? 00:00:00 /usr/local/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf klogd 4260 1 4260 0 1 Mar18 ? 00:00:00 /sbin/klogd -c 1 -x -u klogd -j /var/lib/klogd ---skip--- root 25725 1 25725 0 10 Mar22 ? 01:41:18 /usr/local/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf root 25725 1 25740 0 10 Mar22 ? 00:01:07 /usr/local/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf root 25725 1 25745 0 10 Mar22 ? 02:14:11 /usr/local/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf root 25725 1 25746 0 10 Mar22 ? 01:00:48 /usr/local/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf root 25725 1 9398 0 10 Mar22 ? 02:34:44 /usr/local/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf root 25725 1 4087 0 10 Apr03 ? 00:00:00 /usr/local/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf root 25725 1 3636 0 10 06:02 ? 00:00:00 /usr/local/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf root 25725 1 7612 0 10 07:31 ? 00:00:00 /usr/local/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf root 25725 1 11253 0 10 07:39 ? 00:00:00 /usr/local/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf root 25725 1 11400 0 10 07:39 ? 00:00:00 /usr/local/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf ---skip--- А вот что ps axms UID PID PENDING BLOCKED IGNORED CAUGHT STAT TTY TIME COMMAND ---skip--- 0 2850 0000000000000000 - - - - pts/1 0:00 -bash 0 - 0000000000000000 0000000000000000 0000000000384004 000000004b813efb Ss+ - 0:00 - 0 4229 0000000000000001 - - - - ? 0:00 /usr/local/sbin/accel-pppd -d -p /var/r 0 - 0000000000000000 fffffffe7ffbfaff 0000000000000000 0000001d90000201 S - 0:00 - 106 4260 0000000000000000 - - - - ? 0:00 /sbin/klogd -c 1 -x -u klogd -j /var/li 106 - 0000000000000000 0000000000000000 fffffffe7ff1b4fc 00000000000a4a03 Ss - 0:00 - ---skip--- 0 25114 0000000000000000 - - - - ? 2:20 [kworker/2:1] 0 - 0000000000000000 0000000000000000 ffffffffffffffff 0000000000000000 S - 2:20 - 0 25725 0000000000010000 - - - - ? 991:14 /usr/local/sbin/accel-pppd -d -p /var/r 0 - 0000000000000000 fffffff26ffbb834 0000000000000000 0000001d90000201 Ssl - 101:18 - 0 - 0000000000000000 fffffffe7ffbfeff 0000000000000000 0000001d90000201 Ssl - 1:07 - 0 - 0000000000000000 fffffffe7ffbfeff 0000000000000000 0000001d90000201 Ssl - 134:12 - 0 - 0000000000000000 fffffffe7ffbfeff 0000000000000000 0000001d90000201 Ssl - 60:48 - 0 - 0000000000000000 fffffffe7ffbfeff 0000000000000000 0000001d90000201 Ssl - 154:44 - 0 - 0000000000000000 fffffffe7ffbfaff 0000000000000000 0000001d90000201 Ssl - 0:00 - 0 - 0000000000000000 fffffffe7ffbf8fb 0000000000000000 0000001d90000201 Ssl - 0:00 - 0 - 0000000000000000 fffffffe7ffbf8fb 0000000000000000 0000001d90000201 Ssl - 0:00 - 0 - 0000000000000000 fffffffe7ffbf8fb 0000000000000000 0000001d90000201 Ssl - 0:00 - 0 - 0000000000000000 fffffffe7ffbf8fb 0000000000000000 0000001d90000201 Ssl - 0:00 - 105 27756 0000000000000000 - - - - ? 0:09 /sbin/syslogd -u syslogd -j /var/resolv ---skip--- Kill на проблемный процесс не особо действует, только kill -9. При этом после kill -9: ip li|grep ppp|grep -c DOWN 0 И l2tp начинает работать снова.
  13. 0.8.5 вроде не умел l2tp... или я что путаю...
  14. Ничего явно странного не видно: PID TTY STAT TIME COMMAND 1 ? Ss 11:52 init [3] 2 ? S 0:00 [kthreadd] 3 ? S 4167:29 [ksoftirqd/0] 6 ? S 0:00 [migration/0] 7 ? S 0:00 [migration/1] 9 ? S 3051:20 [ksoftirqd/1] 11 ? S 0:00 [migration/2] 13 ? S 2600:24 [ksoftirqd/2] 14 ? S 0:00 [migration/3] 16 ? S 2103:50 [ksoftirqd/3] 17 ? S< 0:00 [cpuset] 18 ? S< 0:00 [khelper] 19 ? S 0:00 [kdevtmpfs] 23 ? S< 0:00 [netns] 103 ? S 1:29 [sync_supers] 105 ? S 0:02 [bdi-default] 106 ? S< 0:00 [kintegrityd] 108 ? S< 0:05 [kblockd] 243 ? S< 0:00 [md] 374 ? S 0:05 [khungtaskd] 380 ? S 0:30 [kswapd0] 381 ? SN 0:00 [ksmd] 382 ? SN 1:07 [khugepaged] 383 ? S 0:00 [fsnotify_mark] 384 ? S< 0:00 [crypto] 709 ? S 0:01 [kworker/u:0] 1207 ? S 0:00 [cciss_scan] 1985 ? S 0:10 [jbd2/cciss!c0d0] 1986 ? S< 0:00 [ext4-dio-unwrit] 2120 ? Ss 65:43 /sbin/udevd --daemon 2271 ? S< 0:00 [kpsmoused] 2273 ? S< 0:00 [edac-poller] 2279 ? S 0:00 [khubd] 2288 ? S< 0:00 [ata_sff] 2368 ? S 0:00 [kauditd] 2412 ? S< 0:00 [kmpathd] 2413 ? S< 0:00 [kmpath_handlerd] 2447 ? S 22:17 [jbd2/cciss!c0d0] 2448 ? S< 0:00 [ext4-dio-unwrit] 2767 ? Ss 0:00 /usr/sbin/acpid -n 3294 ? S 10:33 [flush-104:0] 3998 ? S 0:12 [kworker/1:1] 4132 ? S 19:37 [kworker/2:2] 4246 ? Ss 0:05 /sbin/klogd -c 1 -x -u klogd -j /var/lib/klogd 4363 ? S 0:00 [kworker/u:1] 4391 ? SNs 0:33 /usr/sbin/crond -l 4.5 4491 ? Ss 3:00 /usr/sbin/sshd 4544 ? Ss 3335:35 /usr/sbin/zebra --daemon -s 1024000 -A 127.0.0.1 -f /etc/quagga/zebra. 4841 ? S 4:42 [kworker/3:0] 4897 ? Ss 1:19 /usr/libexec/postfix/master 4907 ? S 0:14 qmgr -l -t fifo -u -c 4912 ? S<L 25:14 /usr/bin/atop -a -w /var/log/atop/atop_20110914 600 5022 tty2 Ss+ 0:00 /sbin/mingetty tty2 5023 tty3 Ss+ 0:00 /sbin/mingetty tty3 5024 tty4 Ss+ 0:00 /sbin/mingetty tty4 5025 tty5 Ss+ 0:00 /sbin/mingetty tty5 5026 tty6 Ss+ 0:00 /sbin/mingetty tty6 5143 ? S 0:15 ntpd: ntp engine 5144 ? Ss 1:15 ntpd: [priv] 9169 ? Ss 203:19 /usr/sbin/ospfd --daemon -A 127.0.0.1 -f /etc/quagga/ospfd.conf 9846 ? Ss 0:00 sshd: admin [priv] 9853 ? S 0:10 sshd: admin@pts/0 9854 pts/0 Ss 0:00 -bash 9889 pts/0 S 0:00 su - 9893 pts/0 S+ 0:00 -bash 11503 ? S 0:00 pickup -l -t fifo -u -c 12934 ? S 0:33 [kworker/0:1] 14548 ? S 0:13 /sbin/udevd --daemon 15000 ? SNs 0:00 /sbin/syslogd -u syslogd -j /var/resolv 15046 ? S 1:05 [kworker/3:1] 17689 ? Ss 0:00 sshd: admin [priv] 17696 ? S 0:00 sshd: admin@pts/1 17697 pts/1 Ss 0:00 -bash 17733 pts/1 S 0:00 su - 17737 pts/1 S 0:00 -bash 18578 pts/1 R+ 0:00 ps xa 21892 ? Ssl 71:02 /usr/local/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel- 25138 ? S 0:35 /sbin/udevd --daemon 27212 ? S 14:58 [kworker/2:1] 28311 ? S 0:33 [kworker/1:2] 29720 tty1 Ss+ 0:00 /sbin/mingetty --noclear tty1 30003 ? S 1:00 [kworker/0:0] статистика: accel-ppp version 211f028919138cd2c6e3ddfb1fd8221a1273d894 accel-ppp# show stat uptime: 1.15:57:39 cpu: 2% memory: rss/virt: 88824/306848 kB arena: 48356 kB mmaped: 516 kB uordblks: 21554 kB fordblks: 26801 kB core: mempool_allocated: 17524049 mempool_available: 311957 thread_count: 4 thread_active: 1 context_count: 761 context_sleeping: 0 context_pending: 0 md_handler_count: 2718 md_handler_pending: 0 timer_count: 1353 timer_pending: 0 ppp: starting: 2 active: 651 finishing: 0 pptp: starting: 0 active: 603 l2tp: starting: 0 active: 50 radius(1, 10.10.1.2): request count: 0 queue length: 0 auth sent: 11515 auth lost(total/5m/1m): 249/0/0 auth avg query time(5m/1m): 825/1232 ms acct sent: 18076 acct lost(total/5m/1m): 1799/4/0 acct avg query time(5m/1m): 11/15 ms interim sent: 27384 interim lost(total/5m/1m): 2534/0/0 interim avg query time(5m/1m): 60/48 ms accel-ppp# Своп как и вчера есть(понятно что не исчезнет просто так, и он не изменился со вчера): top - 11:12:29 up 148 days, 19:00, 2 users, load average: 0.07, 0.06, 0.05 Tasks: 90 total, 1 running, 89 sleeping, 0 stopped, 0 zombie CPU0 : 0.3%us, 0.0%sy, 0.0%ni, 67.5%id, 0.7%wa, 0.0%hi, 31.5%si, 0.0%st CPU1 : 0.3%us, 0.0%sy, 0.0%ni, 57.1%id, 0.0%wa, 0.0%hi, 42.5%si, 0.0%st CPU2 : 0.0%us, 0.3%sy, 0.0%ni, 55.5%id, 0.0%wa, 0.0%hi, 44.2%si, 0.0%st CPU3 : 0.0%us, 0.3%sy, 0.0%ni, 64.8%id, 0.0%wa, 0.0%hi, 34.9%si, 0.0%st Mem: 4057940K total, 2849684K used, 1208256K free, 151008K buffers Swap: 8385892K total, 529440K used, 7856452K free, 2121368K cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ PPID SWAP nDRT COMMAND 21892 root 20 0 299M 86M 1332 S 0.3 2.2 7:29.75 1 212M 0 accel-pppd 21907 root 20 0 299M 86M 1332 S 0.0 2.2 0:05.50 1 212M 0 accel-pppd 21913 root 20 0 299M 86M 1332 S 0.7 2.2 9:30.50 1 212M 0 accel-pppd 21914 root 20 0 299M 86M 1332 S 0.3 2.2 4:40.06 1 212M 0 accel-pppd 13449 root 20 0 299M 86M 1332 S 0.7 2.2 0:25.68 1 212M 0 accel-pppd 18517 root 20 0 299M 86M 1332 S 0.0 2.2 0:00.00 1 212M 0 accel-pppd 21684 root 20 0 299M 86M 1332 S 1.0 2.2 0:00.11 1 212M 0 accel-pppd 21687 root 20 0 299M 86M 1332 S 0.0 2.2 0:00.00 1 212M 0 accel-pppd 21746 root 20 0 299M 86M 1332 S 0.0 2.2 0:00.00 1 212M 0 accel-pppd 9853 admin 20 0 74772 1400 1176 S 0.0 0.0 0:10.72 9846 71M 0 sshd 17696 admin 20 0 74632 1920 1172 S 0.0 0.0 0:00.09 17689 71M 0 sshd 9846 root 20 0 74632 2304 2300 S 0.0 0.1 0:00.03 4491 70M 0 sshd 17689 root 20 0 74632 3092 2348 S 0.0 0.1 0:00.05 4491 69M 0 sshd 4491 root 20 0 47068 692 592 S 0.0 0.0 3:00.25 1 45M 0 sshd 9889 root 20 0 35484 1000 996 S 0.0 0.0 0:00.00 9854 33M 0 su 17733 root 20 0 35484 1364 1048 S 0.0 0.0 0:00.01 17697 33M 0 su 4907 postfix 20 0 24752 1300 1232 S 0.0 0.0 0:14.89 4897 22M 0 qmgr 11503 postfix 20 0 24984 1668 1104 S 0.0 0.0 0:00.01 4897 22M 0 pickup 9169 quagga 20 0 32612 11M 860 S 0.7 0.3 203:20.81 1 20M 0 ospfd 4544 quagga 20 0 24660 5880 708 S 0.0 0.1 3335:40 1 18M 0 zebra 4391 root 30 10 16624 680 612 S 0.0 0.0 0:33.95 1 15M 0 crond 5144 root 20 0 16132 468 388 S 0.0 0.0 1:15.94 1 15M 0 ntpd 5143 ntpd 20 0 16132 708 556 S 0.0 0.0 0:15.59 1 15M 0 ntpd 14548 root 20 0 14976 464 300 S 0.0 0.0 0:13.46 2120 14M 0 udevd 25138 root 20 0 14976 588 392 S 0.0 0.0 0:36.00 2120 14M 0 udevd 2120 root 20 0 14980 820 700 S 0.0 0.0 65:43.88 1 13M 0 udevd 4897 root 20 0 14864 1088 1000 S 0.0 0.0 1:19.22 1 13M 0 master 9854 admin 20 0 14756 1416 1412 S 0.0 0.0 0:00.04 9853 13M 0 bash 9893 root 20 0 15072 1984 1552 S 0.0 0.0 0:00.30 9889 12M 0 bash 17697 admin 20 0 14784 1956 1524 S 0.0 0.0 0:00.06 17696 12M 0 bash 17737 root 20 0 14888 2096 1548 S 0.0 0.1 0:00.06 17733 12M 0 bash 4912 root 10 -10 39056 26M 2564 S 0.0 0.7 25:14.97 1 11M 0 atop 20351 root 20 0 10628 1104 824 R 0.0 0.0 0:00.21 17737 9524 0 top По сравнению с более ранней версией, в конфиге было изменено: server=10.10.1.2,passw,auth-port=1812,acct-port=1813,req-limit=20 lcp-echo-interval=30 lcp-echo-failure=10 В l2tp dir300_quirk=1 host-name=l2tp-vpn И подправлен словарь л2тп для коннекта роутеров. -ATTRIBUTE Firmware-Revision 6 int16 M=0 -ATTRIBUTE Host-Name 7 string M=1 -ATTRIBUTE Vendor-Name 8 string M=0 +ATTRIBUTE Firmware-Revision 6 int16 +ATTRIBUTE Host-Name 7 string +ATTRIBUTE Vendor-Name 8 string Еще работает ежедневная ротация логов, а после нее: kill -HUP `cat $PIDFILE`
  15. То что своп есть странно чуть,а на более старой версии с большей нагрузкой нету его.... Хотя менялось много... accel-ppp version 211f028919138cd2c6e3ddfb1fd8221a1273d894 подключений ~950: top - 22:39:58 up 148 days, 6:28, 2 users, load average: 0.12, 0.16, 0.16 Tasks: 91 total, 1 running, 90 sleeping, 0 stopped, 0 zombie CPU0 : 0.0%us, 0.7%sy, 0.0%ni, 46.4%id, 0.0%wa, 0.0%hi, 53.0%si, 0.0%st CPU1 : 0.3%us, 0.0%sy, 0.0%ni, 49.7%id, 0.0%wa, 0.0%hi, 50.0%si, 0.0%st CPU2 : 0.0%us, 0.3%sy, 0.0%ni, 40.9%id, 0.0%wa, 0.0%hi, 58.8%si, 0.0%st CPU3 : 0.3%us, 0.0%sy, 0.0%ni, 56.5%id, 0.0%wa, 0.0%hi, 43.2%si, 0.0%st Mem: 4057940K total, 3173620K used, 884320K free, 147500K buffers Swap: 8385892K total, 529440K used, 7856452K free, 2415096K cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ SWAP COMMAND 21892 root 20 0 299M 86M 1324 S 0.7 2.2 6:09.28 213M accel-pppd 21907 root 20 0 299M 86M 1324 S 0.0 2.2 0:04.39 213M accel-pppd 21913 root 20 0 299M 86M 1324 S 1.0 2.2 7:37.70 213M accel-pppd 21914 root 20 0 299M 86M 1324 S 0.3 2.2 3:50.31 213M accel-pppd 1283 root 20 0 299M 86M 1324 S 1.0 2.2 8:33.16 213M accel-pppd 12345 root 20 0 299M 86M 1324 S 0.0 2.2 0:00.00 213M accel-pppd 12546 root 20 0 299M 86M 1324 S 0.0 2.2 0:00.14 213M accel-pppd 13326 root 20 0 299M 86M 1324 S 0.0 2.2 0:00.29 213M accel-pppd 13328 root 20 0 299M 86M 1324 S 0.0 2.2 0:00.05 213M accel-pppd 13537 root 20 0 299M 86M 1324 S 1.7 2.2 0:00.11 213M accel-pppd 9853 admin 20 0 74772 1400 1176 S 0.0 0.0 0:10.72 71M sshd 9380 admin 20 0 74632 1936 1172 S 0.0 0.0 0:00.08 70M sshd 9846 root 20 0 74632 2304 2300 S 0.0 0.1 0:00.03 70M sshd 9311 root 20 0 74632 3108 2348 S 0.0 0.1 0:00.08 69M sshd accel-ppp version c8bc8763ea6980ef3e3fa7e3dbe2a598a1169de5 подключений ~1100: top - 22:44:03 up 86 days, 8:25, 5 users, load average: 0.46, 0.30, 0.26 Tasks: 89 total, 1 running, 88 sleeping, 0 stopped, 0 zombie CPU0 : 0.0%us, 0.0%sy, 0.0%ni, 64.2%id, 0.0%wa, 0.0%hi, 35.8%si, 0.0%st CPU1 : 0.0%us, 0.0%sy, 0.0%ni, 57.4%id, 0.0%wa, 0.0%hi, 42.6%si, 0.0%st CPU2 : 0.7%us, 0.0%sy, 0.0%ni, 50.2%id, 0.0%wa, 0.0%hi, 49.2%si, 0.0%st CPU3 : 0.0%us, 0.3%sy, 0.0%ni, 56.0%id, 0.0%wa, 0.0%hi, 43.7%si, 0.0%st Mem: 4057880K total, 2398108K used, 1659772K free, 233180K buffers Swap: 8388604K total, 0K used, 8388604K free, 1623532K cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ SWAP COMMAND 10979 root 20 0 509M 103M 1316 S 1.0 2.6 248:56.59 405M accel-pppd 10988 root 20 0 509M 103M 1316 S 0.0 2.6 2:36.61 405M accel-pppd 10993 root 20 0 509M 103M 1316 S 2.0 2.6 332:12.99 405M accel-pppd 10994 root 20 0 509M 103M 1316 S 1.0 2.6 160:20.12 405M accel-pppd 32367 root 20 0 509M 103M 1316 S 2.0 2.6 379:18.46 405M accel-pppd 4894 root 20 0 509M 103M 1316 S 2.7 2.6 0:00.59 405M accel-pppd 4967 root 20 0 509M 103M 1316 S 0.0 2.6 0:00.00 405M accel-pppd 5031 root 20 0 509M 103M 1316 S 0.0 2.6 0:00.01 405M accel-pppd 5104 root 20 0 509M 103M 1316 S 0.7 2.6 0:00.02 405M accel-pppd 16380 admin 20 0 74772 1992 1188 S 0.0 0.0 0:01.35 71M sshd 16373 root 20 0 74632 3076 2344 S 0.0 0.1 0:00.02 69M sshd 4262 root 20 0 74632 3212 2440 S 0.0 0.1 0:00.14 69M sshd статистика с гит версии: accel-ppp# show stat uptime: 1.03:49:10 cpu: 4% memory: rss/virt: 88584/306848 kB arena: 48356 kB mmaped: 516 kB uordblks: 29166 kB fordblks: 19189 kB core: mempool_allocated: 24469505 mempool_available: 1269481 thread_count: 4 thread_active: 1 context_count: 959 context_sleeping: 0 context_pending: 0 md_handler_count: 3608 md_handler_pending: 0 timer_count: 1821 timer_pending: 0 ppp: starting: 2 active: 881 finishing: 1 pptp: starting: 0 active: 827 l2tp: starting: 0 active: 57 radius(1, 10.10.1.2): request count: 0 queue length: 0 auth sent: 9259 auth lost(total/5m/1m): 223/0/0 auth avg query time(5m/1m): 446/380 ms acct sent: 14183 acct lost(total/5m/1m): 1543/16/7 acct avg query time(5m/1m): 30/22 ms interim sent: 20944 interim lost(total/5m/1m): 2118/39/2 interim avg query time(5m/1m): 58/66 ms accel-ppp#