SyJet Опубликовано 29 сентября, 2015 · Жалоба Ребят, скоро нужно будет внедрять accel в режиме l3 с авторизацией по неизвестному пакету. Но постоянно читаю тему и страшно становится - у всех проблемы, у всех все крашится. У кого-нибудь есть аптайм хотя бы 6 месяцев в подобном режиме? Откликнитесь - нужны бест практикс :) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dmitry P. Опубликовано 30 сентября, 2015 · Жалоба Вот для CentOS, возможно заработает и на других системах: http://pastebin.com/EKkgNMC3 Поправьте только путь к приложению, и если в Debian вместо network-online.target и multi-user.target используется что-то другое - то укажите соответственно нужные названия таргетов. У меня первоначально запуск accel выполнялся вручную по следующему алгоритму: killall accel-pppd (ждем пока упадет (ps aux | grep accel) ) /usr/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf При выключенном accel-е через killall попытка запуска через systemctl выдала ошибку существования /var/run/accel-ppp директории. Я ее удалил, запустил accel через root@bras:~# systemctl restart accel-ppp root@bras:~# systemctl status accel-ppp.service ● accel-ppp.service - (null) Loaded: loaded (/etc/init.d/accel-ppp; enabled) Active: active (running) since Wed 2015-09-30 05:02:30 MSK; 1s ago Process: 11991 ExecStart=/etc/init.d/accel-ppp start (code=exited, status=0/SUCCESS) CGroup: /system.slice/accel-ppp.service └─11996 /usr/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf Sep 30 05:02:30 bras accel-ppp[11991]: Starting PPtP/L2TP/PPPoE server: accel-pppd. Sep 30 05:02:30 bras accel-pppd[11996]: accel-ppp version 30cff41b56be0d4c3e407e8aa4de5b289eef2ab0 STOP также отработал. Однако далее через systemctl accel уже не запустился. При этом команды запуска start,restart ошибок не выдали. В процессах accel не появился. root@bras:/etc/systemd/system/multi-user.target.wants# systemctl status accel-ppp.service -l ● accel-ppp.service - Accel-PPP Loaded: loaded (/lib/systemd/system/accel-ppp.service; enabled) Active: failed (Result: start-limit) since Wed 2015-09-30 05:08:42 MSK; 28s ago Process: 13811 ExecStart=/usr/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf (code=exited, status=0/SUCCESS) Main PID: 13811 (code=exited, status=0/SUCCESS) Sep 30 05:08:42 bras systemd[1]: accel-ppp.service start request repeated too quickly, refusing to start. Sep 30 05:08:42 bras systemd[1]: Failed to start Accel-PPP. Sep 30 05:08:42 bras systemd[1]: Unit accel-ppp.service entered failed state. Конфигурация root@bras:/etc/systemd/system/multi-user.target.wants# cat accel-ppp.service [unit] Description=Accel-PPP Requires=network.target After=network.target [service] Restart=always ExecStart=/usr/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf StandardOutput=null [install] WantedBy=multi-user.target Alias=accel-ppp.service С чем может быть связана данная проблема? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 30 сентября, 2015 · Жалоба В логе все написано - accel-ppp.service start request repeated too quickly, refusing to start. Слишком часто дергаете сервис, система против :) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dimka88 Опубликовано 30 сентября, 2015 (изменено) · Жалоба Думаю нужно добавить в секцию Service параметр RemainAfterExit=yes так как accel-pppd порождает дочерние процессы и основной процесс умирать не должен, а при Type=forking как это определил мой systemd выходт следующее Type=forking: systemd предполагает, что служба запускается однократно и процесс разветвляется с завершением родительского процесса. Используйте данный тип для запуска классических демонов за исключением тех случаев, когда, как вам известно, в таком поведении процесса нет необходимости. Вам следует также определить PIDFile=, чтобы systemd могла отслеживать основной процесс В лог accel-ppp попадает [2015-09-30 10:09:11]: info: terminate, sig = 15 После добавления RemainAfterExit=yes все взлетает, рестартует. [service] Restart=always ExecStart=/usr/sbin/accel-pppd -d -p /var/run/accel-pppd.pid -c /etc/accel-ppp.conf StandardOutput=null RemainAfterExit=yes Но когда демон accel-ppp помрёт, он не перезапустится. Требуется доработка кода accel-ppp для systemd. Изменено 30 сентября, 2015 пользователем Dimka88 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dmitry P. Опубликовано 30 сентября, 2015 · Жалоба В логе все написано - accel-ppp.service start request repeated too quickly, refusing to start. Слишком часто дергаете сервис, система против :) Хм...то есть после стопа должно пройти продолжительное время? Тогда как будет впринципе работать restart сервиса? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dmitry P. Опубликовано 30 сентября, 2015 · Жалоба Думаю нужно добавить в секцию Service параметр RemainAfterExit=yes так как accel-pppd порождает дочерние процессы и основной процесс умирать не должен, а при Type=forking как это определил мой systemd выходт следующее Но когда демон accel-ppp помрёт, он не перезапустится. Требуется доработка кода accel-ppp для systemd. Это сообщение к моему посту (RemainAfterExit=yes)? А про смерть демона - можно настроить monit. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dimka88 Опубликовано 30 сентября, 2015 · Жалоба Это сообщение к моему посту (RemainAfterExit=yes)? Вроде как да. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Wingman Опубликовано 30 сентября, 2015 · Жалоба Ребят, скоро нужно будет внедрять accel в режиме l3 с авторизацией по неизвестному пакету. Но постоянно читаю тему и страшно становится - у всех проблемы, у всех все крашится. У кого-нибудь есть аптайм хотя бы 6 месяцев в подобном режиме? Откликнитесь - нужны бест практикс :) Вот тоже интересует :) Много лет сидим на lISG, который работает идеально и безпроблемно, но хочется qinq и ipv6... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Lynx10 Опубликовано 30 сентября, 2015 · Жалоба Ребят, скоро нужно будет внедрять accel в режиме l3 с авторизацией по неизвестному пакету. Но постоянно читаю тему и страшно становится - у всех проблемы, у всех все крашится. У кого-нибудь есть аптайм хотя бы 6 месяцев в подобном режиме? Откликнитесь - нужны бест практикс :) вроде все плотно юзают л2 режим стабильнее работает схема влан на юзера Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dmitry P. Опубликовано 2 октября, 2015 · Жалоба Коллеги, имеется ли для Debian 8 x64 unit-файл accel-ppp.service для systemd? Вопрос закрыт. http://accel-ppp.org/forum/viewtopic.php?f=21&t=532&p=1777#p1777 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
johnnys Опубликовано 2 октября, 2015 · Жалоба Переезжаем с mpd5 (PPPoE). Столкнулись с проблемой что появились клиенты у которых сессии по 5 - 15 мин. (причем это одни и теже клиенты). Выглядит это так: [2015-10-02 11:50:01]: info: : recv [RADIUS(1) Access-Accept id=1 <Acct-Interim-Interval 1250> ...] [2015-10-02 11:50:01]: info: ppp69: connect: ppp69 <--> pppoe(c0:4a:00:4c:9b:XX) [2015-10-02 11:50:01]: debug: ppp69: ppp connected [2015-10-02 11:50:01]: info: ppp69: send [PAP AuthAck id=1 "Authentication succeeded"] [2015-10-02 11:50:01]: debug: ppp69: auth_layer_started [2015-10-02 11:50:01]: debug: ppp69: ccp_layer_start [2015-10-02 11:50:01]: debug: ppp69: ipcp_layer_start [2015-10-02 11:50:01]: info: ppp69: send [iPCP ConfReq id=1 <addr 10.1.XXX.XXX>] [2015-10-02 11:50:01]: debug: ppp69: ipv6cp_layer_start [2015-10-02 11:50:01]: info: ppp69: u17490: authentication succeeded [2015-10-02 11:50:01]: info: ppp69: recv [iPCP ConfReq id=1 <addr 0.0.0.0> <dns1 0.0.0.0> <dns2 0.0.0.0>] [2015-10-02 11:50:01]: info: ppp69: send [iPCP ConfNak id=1 <addr 10.0.XXX.XXX> <dns1 8.8.8.8> <dns2 8.8.4.4>] [2015-10-02 11:50:01]: info: ppp69: recv [iPCP ConfAck id=1 <addr 10.1.XXX.XXX>] [2015-10-02 11:50:01]: info: ppp69: recv [iPCP ConfReq id=2 <addr 10.0.XXX.XXX> <dns1 8.8.8.8> <dns2 8.8.4.4>] [2015-10-02 11:50:01]: info: ppp69: send [iPCP ConfAck id=2] [2015-10-02 11:50:01]: debug: ppp69: ipcp_layer_started [2015-10-02 11:50:01]: info: ppp69: send [RADIUS(1) Accounting-Request id=1 ...] [2015-10-02 11:50:01]: info: ppp69: recv [RADIUS(1) Accounting-Response id=1] [2015-10-02 11:50:01]: debug: ppp69: pppoe: ppp started [2015-10-02 11:51:00]: debug: ppp69: send [LCP EchoReq id=2 <magic 24f5d018>] [2015-10-02 11:51:11]: info: ppp69: recv [RADIUS Disconnect-Request id=f1 <User-Name "XXXXX"> <Framed-IP-Address 10.0.XXX.XXX> <Acct-Session-Id "00000000000031a8">] [2015-10-02 11:51:11]: info: ppp69: send [RADIUS Disconnect-ACK id=f1] [2015-10-02 11:51:11]: debug: ppp69: terminate [2015-10-02 11:51:11]: info: ppp69: send [RADIUS(1) Accounting-Request id=1 <User-Name "XXXXX"> ...] [2015-10-02 11:51:11]: debug: ppp69: lcp_layer_finish [2015-10-02 11:51:11]: info: ppp69: send [LCP TermReq id=4] [2015-10-02 11:51:11]: debug: ppp69: auth_layer_finish [2015-10-02 11:51:11]: debug: ppp69: auth_layer_finished [2015-10-02 11:51:11]: debug: ppp69: ccp_layer_finish [2015-10-02 11:51:11]: debug: ppp69: ccp_layer_finished [2015-10-02 11:51:11]: debug: ppp69: ipcp_layer_finish [2015-10-02 11:51:11]: debug: ppp69: ipcp_layer_finished [2015-10-02 11:51:11]: debug: ppp69: ipv6cp_layer_finish [2015-10-02 11:51:11]: debug: ppp69: ipv6cp_layer_finished [2015-10-02 11:51:11]: info: ppp69: recv [RADIUS(1) Accounting-Response id=1] [2015-10-02 11:51:14]: debug: ppp69: fsm timeout 2 [2015-10-02 11:51:14]: info: ppp69: send [LCP TermReq id=5] [2015-10-02 11:51:17]: debug: ppp69: fsm timeout 1 [2015-10-02 11:51:17]: info: ppp69: send [LCP TermReq id=6] [2015-10-02 11:51:20]: debug: ppp69: fsm timeout 0 [2015-10-02 11:51:20]: debug: ppp69: lcp_layer_finished [2015-10-02 11:51:20]: debug: ppp69: ppp destablished [2015-10-02 11:51:20]: debug: ppp69: lcp_layer_free [2015-10-02 11:51:20]: debug: ppp69: auth_layer_free [2015-10-02 11:51:20]: debug: ppp69: ccp_layer_free [2015-10-02 11:51:20]: debug: ppp69: ipcp_layer_free [2015-10-02 11:51:20]: debug: ppp69: ipv6cp_layer_free [2015-10-02 11:51:20]: debug: ppp69: pppoe: ppp finished RADIUS Disconnect-Request - присылает биллинг так как клиент уже установил новое соединение на другом PPPoE-концентраторе. Конфиг accel-ppp: (accel-ppp из git'а) [modules] pppoe log_file auth_pap radius shaper sigchld [core] log-error=/opt/accel-ppp.log/accel-ppp.log thread-count=8 [ppp] verbose=1 min-mtu=1280 mtu=1492 mru=1492 ccp=0 accomp=deny pcomp=deny mppe=deny ipv4=require ipv6=deny lcp-echo-interval=60 lcp-echo-failure=5 lcp-echo-timeout=300 [dns] dns1=8.8.8.8 dns2=8.8.4.4 [radius] sid_in_auth=1 dictionary=/opt/accel-ppp/share/accel-ppp/radius/dictionary nas-identifier=PPPoE nas-ip-address=10.0.XXX.XXX gw-ip-address=10.0.XXX.XXX server=10.1.XXX.XXX,test dae-server=10.0.XXX.XXX:1812,test acct-interim-interval=600 acct-timeout=0 interim-verbose=0 verbose=1 timeout=15 max-try=3 [log] log-file=/opt/accel-ppp.log/accel-ppp.log log-emerg=/opt/accel-ppp.log/accel-ppp.emerg.log log-fail-file=/opt/accel-ppp.log/accel-ppp.fail.log per-session-dir=/opt/accel-ppp.log per-session=1 copy=1 level=5 [cli] telnet=127.0.0.1:2000 [shaper] down-burst-factor=0.1 up-burst-factor=1.0 r2q=12 quantum=1500 cburst=306800 ifb=ifb0 up-limiter=htb down-limiter=htb leaf-qdisc=sfq perturb 10 verbose=1 [pppoe] verbose=1 ifname-in-sid=called-sid interface=eth1.1000 Я так понимаю есть небольшая разница в поведении между accel-ppp и mpd5, а именно (из документации mpd5): set link keep-alive seconds max - включает отправку LCP echo пакетов. Первый пакет отправляется через seconds секунд простоя (т.e., нет принятых пакетов от удаленной машины по связе). После более чем seconds,отправляется другой эхо пакет. Если после max секунд ответ не будет получен связь будет разорвана. Если seconds =0, эхо пакеты отключены. По умолчанию seconds =5, max=40. Полезно для модемов у которых поиск несущей нестабилен. Однако , линии шумные и модем тратит много времени на перенастройку, max значение нужно увеличить. Что можно подкрутить? root@PPPoE:~# cat /etc/modprobe.d/ixgbe.conf options ixgbe IntMode=2,2 RSS=4,4 InterruptThrottleRate=1,1 DCA=2,2 LRO=0,0 root@PPPoE:~# uname -a Linux PPPoE 3.16.0-4-amd64 #1 SMP Debian 3.16.7-ckt11-1+deb8u4 (2015-09-19) x86_64 GNU/Linux root@PPPoE:~# modinfo ixgbe | grep version version: 4.1.2 srcversion: 11CE41D9B741B44F4507285 vermagic: 3.16.0-4-amd64 SMP mod_unload modversions root@PPPoE:~# На биллинг приходит: 02 11:51:12 Packet type: Accounting-Request Identifier: 1 Authenticator: {33 D9 58 B9 EE F7 61 2B B6 11 87 C3 9A 4E 03 65} Attributes: User-Name=XXXXX NAS-Identifier=PPPoE NAS-IP-Address=10.1.XXX.XXX NAS-Port=411593003 Service-Type=2 Framed-Protocol=1 Framed-IP-Address=10.0.XXX.XXX Acct-Input-Octets=8085 Acct-Output-Octets=77940 Acct-Status-Type=2 Acct-Session-Time=74 Acct-Input-Packets=90 Acct-Session-Id=00000000000031a8 Acct-Authentic=1 Acct-Terminate-Cause=2 NAS-Port-Id=ppp69 Acct-Output-Packets=121 Acct-Output-Gigawords=0 Acct-Input-Gigawords=0 NAS-Port-Type=5 Calling-Station-Id=c0:4a:00:4c:9b:9f Called-Station-Id=eth1.1000:6c:b3:11:XX:XX:XX Acct-Terminate-Cause=2 - Lost Carrier (На порту был сброшен сигнал DCD (детектирование несущей)). Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 2 октября, 2015 · Жалоба Что можно подкрутить? Очевидно же: lcp-echo-interval=60 lcp-echo-failure=5 lcp-echo-timeout=300 Нафига 5 минут таймаут? Это что, для оооочень мееееедленных роутеров, которые на lcp отвечают через 5 минут? Поставьте интервал 5-10 секунд, кол-во failures - 3-5 максимум, таймаут - 2-3 сек. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
johnnys Опубликовано 2 октября, 2015 · Жалоба Что можно подкрутить? Очевидно же: lcp-echo-interval=60 lcp-echo-failure=5 lcp-echo-timeout=300 Нафига 5 минут таймаут? Это что, для оооочень мееееедленных роутеров, которые на lcp отвечают через 5 минут? Поставьте интервал 5-10 секунд, кол-во failures - 3-5 максимум, таймаут - 2-3 сек. Так они такие большие и стоят потому что я переживаю что эти клиенты не успевают отвечать на LCP. + я так понимаю опции 'lcp-echo-timeout' и 'lcp-echo-failure' взаимо исключающие. man accel-ppp.conf: lcp-echo-timeout=sec - Specifies timeout in seconds to wait for any peer activity. If this option specified it turns on adaptive lcp echo functionality and "lcp-echo-failure" is not used. Что такое "adaptive lcp echo functionality"? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 2 октября, 2015 · Жалоба Так они такие большие и стоят потому что я переживаю что эти клиенты не успевают отвечать на LCP. Клиент уже успел ребутнуть роутер и приконнектиться к другому брасу, а вы все еще ждете пока он ответит на посланный вникуда LCP... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
johnnys Опубликовано 2 октября, 2015 · Жалоба Так они такие большие и стоят потому что я переживаю что эти клиенты не успевают отвечать на LCP. Клиент уже успел ребутнуть роутер и приконнектиться к другому брасу, а вы все еще ждете пока он ответит на посланный вникуда LCP... В том-то и дело что с роутером никто ничего не делает. Т. е. висит сессия accel-ppp отправляет 'LCP EchoReq' и всё, клиент (роутер) уже устанавливает новую сессию. И сессии у такого клиента по 5 - 15 - 40 минут. Тот же клиент с mpd5 так себя не ведёт. Или это не проблема accel-ppp? Какой еще дебаг можно включить? Еще есть клиент который не может установить сессию (хотя с тем же mpd5 всё работает): 394 2010-02-10 00:58:04 <5> : WAN1:PPPoE start connecting automatically. 395 2010-02-10 00:58:04 <5> : WAN1:PPPoE discover phase over, AC-MAC:00-1B-21-BB-1A-F4, Session-ID:0x1ec1. 396 2010-02-10 00:58:04 <5> : WAN1:PPPoE peer close, AC-MAC:00-1B-21-BB-1A-F4, Session-ID:0x1ec1. 397 2010-02-10 00:58:06 <5> : WAN1:LCP send TERMINAL-REQUEST timeout. И интересует вопрос что такое 'incorrect AC-Cookie' и почему их там много: (UPDATE: т. е. с чем они связаны? некорректный клиент?) root@PPPoE:/opt/accel-ppp.log# cat accel-ppp.log | grep 'incorrect AC-Cookie' | wc -l 144 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 2 октября, 2015 · Жалоба В том-то и дело что с роутером никто ничего не делает. Т. е. висит сессия accel-ppp отправляет 'LCP EchoReq' и всё, клиент (роутер) уже устанавливает новую сессию. Ну обрыв связи или еще что. Или клиент ждет LCP чаще. Говорю же - уменьшите значение до вменяемых величин. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
johnnys Опубликовано 3 октября, 2015 · Жалоба Oct 3 11:54:05 PPPoE kernel: [91307.363651] ------------[ cut here ]------------ Oct 3 11:54:05 PPPoE kernel: [91307.363666] WARNING: CPU: 2 PID: 0 at /build/linux-T4t6fp/linux-3.16.7-ckt11/kernel/rcu/tree.c:2363 rcu_process_callbacks+0x4fc/0x560() Oct 3 11:54:05 PPPoE kernel: [91307.363666] Modules linked in: act_mirred act_skbedit cls_u32 sch_ingress sch_sfq cls_flow sch_htb ifb pppoe pppox ppp_generic slhc xt_TCPMSS xt_tcpudp iptable_mangle ip_tables x_tables nfsd auth_rpcgss oid_registry nfs_acl nfs lockd fscache sunrpc 8021q garp stp mrp llc x86_pkg_temp_thermal intel_powerclamp intel_rapl coretemp kvm_intel kvm snd_hda_codec_hdmi crc32_pclmul ghash_clmulni_intel i915 snd_hda_intel snd_hda_controller snd_hda_codec aesni_intel drm_kms_helper drm snd_hwdep snd_pcm snd_timer aes_x86_64 lrw snd tpm_infineon i2c_algo_bit mei_me ppdev gf128mul pcspkr mxm_wmi parport_pc parport shpchp tpm_tis glue_helper ablk_helper cryptd evdev soundcore serio_raw i2c_core mei tpm intel_smartconnect battery video acpi_pad button processor wmi autofs4 ext4 crc16 mbcache jbd2 sg sd_mod crc_t10dif crct10dif_generic crct10dif_pclmul crct10dif_common crc32c_intel ahci libahci libata scsi_mod xhci_hcd ehci_pci r8169 ehci_hcd mii ixgbe(O) usbcore usb_common dca vxlan ptp pps_core thermal fan thermal_sys Oct 3 11:54:05 PPPoE kernel: [91307.363708] CPU: 2 PID: 0 Comm: swapper/2 Tainted: G O 3.16.0-4-amd64 #1 Debian 3.16.7-ckt11-1+deb8u4 Oct 3 11:54:05 PPPoE kernel: [91307.363709] Hardware name: MSI MS-7850/Z97 PC Mate(MS-7850), BIOS V4.9 05/28/2015 Oct 3 11:54:05 PPPoE kernel: [91307.363710] 0000000000000009 ffffffff8150b465 0000000000000000 ffffffff81067767 Oct 3 11:54:05 PPPoE kernel: [91307.363711] ffffffff81853680 0000000000000246 0000000000000000 0000000000000000 Oct 3 11:54:05 PPPoE kernel: [91307.363712] ffff88011fb0d660 ffffffff810c4cdc ffff88011fb0d688 ffff88011afe7fd8 Oct 3 11:54:05 PPPoE kernel: [91307.363713] Call Trace: Oct 3 11:54:05 PPPoE kernel: [91307.363714] <IRQ> [<ffffffff8150b465>] ? dump_stack+0x41/0x51 Oct 3 11:54:05 PPPoE kernel: [91307.363720] [<ffffffff81067767>] ? warn_slowpath_common+0x77/0x90 Oct 3 11:54:05 PPPoE kernel: [91307.363721] [<ffffffff810c4cdc>] ? rcu_process_callbacks+0x4fc/0x560 Oct 3 11:54:05 PPPoE kernel: [91307.363723] [<ffffffff8106c611>] ? __do_softirq+0xf1/0x290 Oct 3 11:54:05 PPPoE kernel: [91307.363724] [<ffffffff8106c9e5>] ? irq_exit+0x95/0xa0 Oct 3 11:54:05 PPPoE kernel: [91307.363725] [<ffffffff81514462>] ? do_IRQ+0x52/0xe0 Oct 3 11:54:05 PPPoE kernel: [91307.363727] [<ffffffff815122ad>] ? common_interrupt+0x6d/0x6d Oct 3 11:54:05 PPPoE kernel: [91307.363727] <EOI> [<ffffffff8108ad0d>] ? __hrtimer_start_range_ns+0x1cd/0x390 Oct 3 11:54:05 PPPoE kernel: [91307.363731] [<ffffffff813ddfa2>] ? cpuidle_enter_state+0x52/0xc0 Oct 3 11:54:05 PPPoE kernel: [91307.363732] [<ffffffff813ddf98>] ? cpuidle_enter_state+0x48/0xc0 Oct 3 11:54:05 PPPoE kernel: [91307.363734] [<ffffffff810a7f78>] ? cpu_startup_entry+0x2f8/0x400 Oct 3 11:54:05 PPPoE kernel: [91307.363735] [<ffffffff81042daf>] ? start_secondary+0x20f/0x2d0 Oct 3 11:54:05 PPPoE kernel: [91307.363736] ---[ end trace 37ca372e196ea1c8 ]--- Oct 3 11:58:22 PPPoE kernel: [91563.756447] PGD 0 Oct 3 11:58:22 PPPoE kernel: [91563.756453] Oops: 0000 [#1] SMP Oct 3 11:58:22 PPPoE kernel: [91563.756461] Modules linked in: act_mirred act_skbedit cls_u32 sch_ingress sch_sfq cls_flow sch_htb ifb pppoe pppox ppp_generic slhc xt_TCPMSS xt_tcpudp iptable_mangle ip_tables x_tables nfsd auth_rpcgss oid_registry nfs_acl nfs lockd fscache sunrpc 8021q garp stp mrp llc x86_pkg_temp_thermal intel_powerclamp intel_rapl coretemp kvm_intel kvm snd_hda_codec_hdmi crc32_pclmul ghash_clmulni_intel i915 snd_hda_intel snd_hda_controller snd_hda_codec aesni_intel drm_kms_helper drm snd_hwdep snd_pcm snd_timer aes_x86_64 lrw snd tpm_infineon i2c_algo_bit mei_me ppdev gf128mul pcspkr mxm_wmi parport_pc parport shpchp tpm_tis glue_helper ablk_helper cryptd evdev soundcore serio_raw i2c_core mei tpm intel_smartconnect battery video acpi_pad button processor wmi autofs4 ext4 crc16 mbcache jbd2 sg sd_mod crc_t10dif crct10dif_generic crct10dif_pclmul crct10dif_common crc32c_intel ahci libahci libata scsi_mod xhci_hcd ehci_pci r8169 ehci_hcd mii ixgbe(O) usbcore usb_common dca vxlan ptp pps_core thermal fan thermal_sys Oct 3 11:58:22 PPPoE kernel: [91563.756693] CPU: 1 PID: 31478 Comm: sh Tainted: G W O 3.16.0-4-amd64 #1 Debian 3.16.7-ckt11-1+deb8u4 Oct 3 11:58:22 PPPoE kernel: [91563.756711] Hardware name: MSI MS-7850/Z97 PC Mate(MS-7850), BIOS V4.9 05/28/2015 Oct 3 11:58:22 PPPoE kernel: [91563.756724] task: ffff8800d271b570 ti: ffff8800ab478000 task.ti: ffff8800ab478000 Oct 3 11:58:22 PPPoE kernel: [91563.756737] RIP: 0010:[<ffffffff8118e23a>] [<ffffffff8118e23a>] kfree+0x9a/0x220 Oct 3 11:58:22 PPPoE kernel: [91563.756752] RSP: 0018:ffff8800ab47bd80 EFLAGS: 00010046 Oct 3 11:58:22 PPPoE kernel: [91563.756762] RAX: 0000000000000001 RBX: ffff880035c49f40 RCX: ffff88012f37f800 Oct 3 11:58:22 PPPoE kernel: [91563.756774] RDX: ffffea00026543c8 RSI: ffff8800d4a29ab9 RDI: ffff8800af37f800 Oct 3 11:58:22 PPPoE kernel: [91563.756786] RBP: ffff8800af37f800 R08: ffff8800d4a29ab8 R09: ffff8800d314be58 Oct 3 11:58:22 PPPoE kernel: [91563.756799] R10: 0000000000000001 R11: ffff8800d4a29a98 R12: 0000000000000286 Oct 3 11:58:22 PPPoE kernel: [91563.756811] R13: ffff8800ab47c000 R14: 0000000000000000 R15: ffff8800af36a600 Oct 3 11:58:22 PPPoE kernel: [91563.756823] FS: 0000000000000000(0000) GS:ffff88011fa80000(0000) knlGS:0000000000000000 Oct 3 11:58:22 PPPoE kernel: [91563.756837] CS: 0010 DS: 0000 ES: 0000 CR0: 0000000080050033 Oct 3 11:58:22 PPPoE kernel: [91563.756847] CR2: 0000000000000088 CR3: 00000000b23b4000 CR4: 00000000001407e0 Oct 3 11:58:22 PPPoE kernel: [91563.756859] Stack: Oct 3 11:58:22 PPPoE kernel: [91563.756863] ffffffff8116f64c ffff880035c49f40 ffff8800b6506900 0000000000000000 Oct 3 11:58:22 PPPoE kernel: [91563.756878] ffff8800ab47c000 00007fed693d1000 ffffffff811f84c8 ffff8801155bba40 Oct 3 11:58:22 PPPoE kernel: [91563.756893] ffff8800ac7fe100 ffff8800b6506900 00007fed695f2fe4 ffff8800af37f800 Oct 3 11:58:22 PPPoE kernel: [91563.756908] Call Trace: Oct 3 11:58:22 PPPoE kernel: [91563.756915] [<ffffffff8116f64c>] ? vm_brk+0x4c/0x80 Oct 3 11:58:22 PPPoE kernel: [91563.756927] [<ffffffff811f84c8>] ? load_elf_binary+0xfe8/0x1770 Oct 3 11:58:22 PPPoE kernel: [91563.756939] [<ffffffff811ae061>] ? search_binary_handler+0x91/0x1a0 Oct 3 11:58:22 PPPoE kernel: [91563.756951] [<ffffffff811af3b7>] ? do_execve_common.isra.24+0x4d7/0x630 Oct 3 11:58:22 PPPoE kernel: [91563.756965] [<ffffffff812d1800>] ? dql_completed+0x110/0x180 Oct 3 11:58:22 PPPoE kernel: [91563.756976] [<ffffffff811af744>] ? SyS_execve+0x24/0x30 Oct 3 11:58:22 PPPoE kernel: [91563.756987] [<ffffffff81511c09>] ? stub_execve+0x69/0xa0 Oct 3 11:58:22 PPPoE kernel: [91563.756997] Code: 00 ea ff ff 48 01 c2 48 8b 02 f6 c4 80 0f 85 fb 00 00 00 48 89 d0 4c 8b 70 30 65 8b 04 25 e4 a0 00 00 83 3d 10 6a 75 00 01 48 98 <49> 8b 9c c6 80 00 00 00 7e 52 48 39 cd 48 b8 00 00 00 80 ff 77 Oct 3 11:58:22 PPPoE kernel: [91563.757075] RSP <ffff8800ab47bd80> Oct 3 11:58:22 PPPoE kernel: [91563.757082] CR2: 0000000000000088 Oct 3 11:58:22 PPPoE kernel: [91563.759514] ---[ end trace 37ca372e196ea1c9 ]--- Oct 3 11:58:46 PPPoE kernel: [91587.904231] PGD cc314067 PUD 0 Oct 3 11:58:46 PPPoE kernel: [91587.904769] Oops: 0000 [#2] SMP Oct 3 11:58:46 PPPoE kernel: [91587.905300] Modules linked in: act_mirred act_skbedit cls_u32 sch_ingress sch_sfq cls_flow sch_htb ifb pppoe pppox ppp_generic slhc xt_TCPMSS xt_tcpudp iptable_mangle ip_tables x_tables nfsd auth_rpcgss oid_registry nfs_acl nfs lockd fscache sunrpc 8021q garp stp mrp llc x86_pkg_temp_thermal intel_powerclamp intel_rapl coretemp kvm_intel kvm snd_hda_codec_hdmi crc32_pclmul ghash_clmulni_intel i915 snd_hda_intel snd_hda_controller snd_hda_codec aesni_intel drm_kms_helper drm snd_hwdep snd_pcm snd_timer aes_x86_64 lrw snd tpm_infineon i2c_algo_bit mei_me ppdev gf128mul pcspkr mxm_wmi parport_pc parport shpchp tpm_tis glue_helper ablk_helper cryptd evdev soundcore serio_raw i2c_core mei tpm intel_smartconnect battery video acpi_pad button processor wmi autofs4 ext4 crc16 mbcache jbd2 sg sd_mod crc_t10dif crct10dif_generic crct10dif_pclmul crct10dif_common crc32c_intel ahci libahci libata scsi_mod xhci_hcd ehci_pci r8169 ehci_hcd mii ixgbe(O) usbcore usb_common dca vxlan ptp pps_core thermal fan thermal_sys Oct 3 11:58:46 PPPoE kernel: [91587.909553] CPU: 1 PID: 29478 Comm: accel-pppd Tainted: G D W O 3.16.0-4-amd64 #1 Debian 3.16.7-ckt11-1+deb8u4 Oct 3 11:58:46 PPPoE kernel: [91587.910159] Hardware name: MSI MS-7850/Z97 PC Mate(MS-7850), BIOS V4.9 05/28/2015 Oct 3 11:58:46 PPPoE kernel: [91587.910751] task: ffff8800d33acd20 ti: ffff8800cc0ec000 task.ti: ffff8800cc0ec000 Oct 3 11:58:46 PPPoE kernel: [91587.911328] RIP: 0010:[<ffffffff812b1660>] [<ffffffff812b1660>] strlen+0x0/0x20 Oct 3 11:58:46 PPPoE kernel: [91587.911896] RSP: 0018:ffff8800cc0ef7e0 EFLAGS: 00010202 Oct 3 11:58:46 PPPoE kernel: [91587.912443] RAX: ffff8800af36aa00 RBX: 00000001015bea73 RCX: 0000000000000000 Oct 3 11:58:46 PPPoE kernel: [91587.912989] RDX: 00000001015bea73 RSI: 0000000000000006 RDI: 00000001015bea73 Oct 3 11:58:46 PPPoE kernel: [91587.913527] RBP: ffff8800d2209d00 R08: 0000000000000654 R09: ffff8800b6458071 Oct 3 11:58:46 PPPoE kernel: [91587.914063] R10: 0000000000000008 R11: 0000000000000293 R12: 0000000000000006 Oct 3 11:58:46 PPPoE kernel: [91587.914595] R13: 000000005615d0f0 R14: ffff8800b6458000 R15: 0000000000000000 Oct 3 11:58:46 PPPoE kernel: [91587.915122] FS: 00007f8d3c2b4700(0000) GS:ffff88011fa80000(0000) knlGS:0000000000000000 Oct 3 11:58:46 PPPoE kernel: [91587.915653] CS: 0010 DS: 0000 ES: 0000 CR0: 0000000080050033 Oct 3 11:58:46 PPPoE kernel: [91587.916183] CR2: 00000001015bea73 CR3: 00000000ca104000 CR4: 00000000001407e0 Oct 3 11:58:46 PPPoE kernel: [91587.916721] Stack: Oct 3 11:58:46 PPPoE kernel: [91587.917254] ffffffff8142b495 ffff8800d2209d00 ffff8800acd56000 000000000000731a Oct 3 11:58:46 PPPoE kernel: [91587.917800] ffffffff8142cc4e 0000000000000000 010000ff812af0de 000005c800000003 Oct 3 11:58:46 PPPoE kernel: [91587.918344] 0000000000000000 0000000100000001 ffff8800d38f70c8 ffffffff00000000 Oct 3 11:58:46 PPPoE kernel: [91587.918884] Call Trace: Oct 3 11:58:46 PPPoE kernel: [91587.919416] [<ffffffff8142b495>] ? nla_put_string+0x15/0x30 Oct 3 11:58:46 PPPoE kernel: [91587.919950] [<ffffffff8142cc4e>] ? rtnl_fill_ifinfo+0x31e/0xd10 Oct 3 11:58:46 PPPoE kernel: [91587.920481] [<ffffffff812af0de>] ? radix_tree_lookup_slot+0xe/0x30 Oct 3 11:58:46 PPPoE kernel: [91587.921009] [<ffffffff8113cca9>] ? find_get_entry+0x19/0x90 Oct 3 11:58:46 PPPoE kernel: [91587.921535] [<ffffffff8140cbc8>] ? __alloc_skb+0x48/0x2a0 Oct 3 11:58:46 PPPoE kernel: [91587.922055] [<ffffffff8140c2de>] ? __kmalloc_reserve.isra.27+0x2e/0x80 Oct 3 11:58:46 PPPoE kernel: [91587.922577] [<ffffffff8140cc07>] ? __alloc_skb+0x87/0x2a0 Oct 3 11:58:46 PPPoE kernel: [91587.923118] [<ffffffff8142df2b>] ? rtnl_getlink+0x10b/0x1e0 Oct 3 11:58:46 PPPoE kernel: [91587.923626] [<ffffffff8142b9bf>] ? rtnetlink_rcv_msg+0x8f/0x250 Oct 3 11:58:46 PPPoE kernel: [91587.924134] [<ffffffff8140cbc8>] ? __alloc_skb+0x48/0x2a0 Oct 3 11:58:46 PPPoE kernel: [91587.924639] [<ffffffff8142b930>] ? rtnetlink_rcv+0x30/0x30 Oct 3 11:58:46 PPPoE kernel: [91587.925145] [<ffffffff8144b429>] ? netlink_rcv_skb+0xa9/0xc0 Oct 3 11:58:46 PPPoE kernel: [91587.925651] [<ffffffff8142b924>] ? rtnetlink_rcv+0x24/0x30 Oct 3 11:58:46 PPPoE kernel: [91587.926141] [<ffffffff8144ab00>] ? netlink_unicast+0xf0/0x1f0 Oct 3 11:58:46 PPPoE kernel: [91587.926614] [<ffffffff8144af27>] ? netlink_sendmsg+0x327/0x670 Oct 3 11:58:46 PPPoE kernel: [91587.927103] [<ffffffff814043bb>] ? sock_sendmsg+0x8b/0xc0 Oct 3 11:58:46 PPPoE kernel: [91587.927571] [<ffffffff8101ba9d>] ? native_sched_clock+0x2d/0x80 Oct 3 11:58:46 PPPoE kernel: [91587.928041] [<ffffffff8101baf5>] ? sched_clock+0x5/0x10 Oct 3 11:58:46 PPPoE kernel: [91587.928511] [<ffffffff810a2803>] ? pick_next_task_fair+0x3e3/0x820 Oct 3 11:58:46 PPPoE kernel: [91587.928977] [<ffffffff810115dc>] ? __switch_to+0x15c/0x570 Oct 3 11:58:46 PPPoE kernel: [91587.929437] [<ffffffff814040e9>] ? move_addr_to_kernel.part.17+0x19/0x60 Oct 3 11:58:46 PPPoE kernel: [91587.929901] [<ffffffff81404b89>] ? ___sys_sendmsg+0x389/0x3a0 Oct 3 11:58:46 PPPoE kernel: [91587.930367] [<ffffffff8150d2b9>] ? schedule_timeout+0x229/0x2a0 Oct 3 11:58:46 PPPoE kernel: [91587.930817] [<ffffffff8141e98f>] ? dev_hard_start_xmit+0x2df/0x560 Oct 3 11:58:46 PPPoE kernel: [91587.931269] [<ffffffff812b1e58>] ? timerqueue_add+0x58/0xa0 Oct 3 11:58:46 PPPoE kernel: [91587.931685] [<ffffffff8108a7f1>] ? enqueue_hrtimer+0x21/0x80 Oct 3 11:58:46 PPPoE kernel: [91587.932083] [<ffffffff8108ad0d>] ? __hrtimer_start_range_ns+0x1cd/0x390 Oct 3 11:58:46 PPPoE kernel: [91587.932467] [<ffffffff8140522e>] ? __sys_sendmsg+0x3e/0x80 Oct 3 11:58:46 PPPoE kernel: [91587.932832] [<ffffffff8151164d>] ? system_call_fast_compare_end+0x10/0x15 Oct 3 11:58:46 PPPoE kernel: [91587.933183] Code: f8 f6 82 00 c8 64 81 20 74 11 90 48 83 c0 01 0f b6 10 f6 82 00 c8 64 81 20 75 f0 f3 c3 66 66 66 66 66 2e 0f 1f 84 00 00 00 00 00 <80> 3f 00 74 18 48 89 f8 0f 1f 84 00 00 00 00 00 48 83 c0 01 80 Oct 3 11:58:46 PPPoE kernel: [91587.934325] RSP <ffff8800cc0ef7e0> Oct 3 11:58:46 PPPoE kernel: [91587.934677] CR2: 00000001015bea73 Oct 3 11:58:46 PPPoE kernel: [91587.935377] ---[ end trace 37ca372e196ea1ca ]--- Дождался. Это старое ядро? (Linux PPPoE 3.16.0-4-amd64 #1 SMP Debian 3.16.7-ckt11-1+deb8u4 (2015-09-19) x86_64 GNU/Linux) В том-то и дело что с роутером никто ничего не делает. Т. е. висит сессия accel-ppp отправляет 'LCP EchoReq' и всё, клиент (роутер) уже устанавливает новую сессию. Ну обрыв связи или еще что. Или клиент ждет LCP чаще. Говорю же - уменьшите значение до вменяемых величин. Спасибо. Уменьшил, наблюдаю. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 3 октября, 2015 · Жалоба Дождался. Это старое ядро? Где-то советовали попробовать 4.1.9 свежее (вроде как именно в этом релизе много багов сетевой подсистемы пофиксили) Из проверенного - 3.2.х ветка, хоть и медленнаее несколько свежих, но аптайм был как-то пару лет (ребуты - по питанию или плановый апгрейд). Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
johnnys Опубликовано 5 октября, 2015 · Жалоба [ 7920.105356] INFO: task accel-pppd:10522 blocked for more than 120 seconds. [ 7920.105368] Not tainted 4.2.0-1-amd64 #1 [ 7920.105375] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message. [ 7920.105389] accel-pppd D ffffffff8109a190 0 10522 1 0x00000000 [ 7920.105390] ffff8800d52e8100 0000000000000082 ffff8800d52e8100 ffffffff81a14540 [ 7920.105391] ffff8800d52e8100 ffff8800ce954000 ffffffffa0846064 ffff8800d52e8100 [ 7920.105392] 00000000ffffffff ffffffffa0846068 00007f03541144bc ffffffff8154a55f [ 7920.105393] Call Trace: [ 7920.105394] [<ffffffff8154a55f>] ? schedule+0x2f/0x70 [ 7920.105395] [<ffffffff8154a80e>] ? schedule_preempt_disabled+0xe/0x20 [ 7920.105396] [<ffffffff8154c075>] ? __mutex_lock_slowpath+0x85/0x100 [ 7920.105397] [<ffffffff8154c10b>] ? mutex_lock+0x1b/0x30 [ 7920.105398] [<ffffffffa0841d0a>] ? ppp_ioctl+0x65a/0xd90 [ppp_generic] [ 7920.105399] [<ffffffff811ca5a3>] ? do_vfs_ioctl+0x2c3/0x4a0 [ 7920.105401] [<ffffffff811d43d5>] ? set_close_on_exec+0x35/0x70 [ 7920.105402] [<ffffffff811ca7f6>] ? SyS_ioctl+0x76/0x90 [ 7920.105404] [<ffffffff8154de72>] ? system_call_fast_compare_end+0xc/0x6b [ 7920.105405] INFO: task accel-pppd:10523 blocked for more than 120 seconds. [ 7920.105416] Not tainted 4.2.0-1-amd64 #1 [ 7920.105424] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message. [ 7920.105437] accel-pppd D ffffffff8109a190 0 10523 1 0x00000000 [ 7920.105438] ffff880036ccf180 0000000000000082 0000000000000018 ffff88011a738ec0 [ 7920.105439] ffff8800d4b98000 ffff8800d4b98000 ffff880119ee036c ffff880036ccf180 [ 7920.105441] 00000000ffffffff ffff880119ee0370 ffff880119852ac0 ffffffff8154a55f [ 7920.105442] Call Trace: [ 7920.105442] [<ffffffff8154a55f>] ? schedule+0x2f/0x70 [ 7920.105443] [<ffffffff8154a80e>] ? schedule_preempt_disabled+0xe/0x20 [ 7920.105444] [<ffffffff8154c075>] ? __mutex_lock_slowpath+0x85/0x100 [ 7920.105445] [<ffffffff8154c10b>] ? mutex_lock+0x1b/0x30 [ 7920.105446] [<ffffffffa08414ce>] ? ppp_dev_uninit+0x7e/0xd0 [ppp_generic] [ 7920.105448] [<ffffffff814564cb>] ? rollback_registered_many+0x17b/0x2e0 [ 7920.105449] [<ffffffff81456659>] ? rollback_registered+0x29/0x40 [ 7920.105450] [<ffffffff814575c8>] ? unregister_netdevice_queue+0x48/0x80 [ 7920.105451] [<ffffffffa0840e87>] ? ppp_release+0x87/0x90 [ppp_generic] [ 7920.105453] [<ffffffff811b977c>] ? __fput+0xcc/0x1d0 [ 7920.105454] [<ffffffff81088fa4>] ? task_work_run+0x84/0xc0 [ 7920.105456] [<ffffffff81013cef>] ? do_notify_resume+0x5f/0x80 [ 7920.105457] [<ffffffff8154e044>] ? int_signal+0x12/0x17 [ 7920.105458] INFO: task accel-pppd:10524 blocked for more than 120 seconds. [ 7920.105470] Not tainted 4.2.0-1-amd64 #1 [ 7920.105477] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message. [ 7920.105490] accel-pppd D ffffffff8109a190 0 10524 1 0x00000000 [ 7920.105491] ffff8800d2fe4380 0000000000000082 0000000000000018 ffffffff81a14540 [ 7920.105492] ffff8800d4af0000 ffff8800d4af0000 ffffffff81ad9cc4 ffff8800d2fe4380 [ 7920.105493] 00000000ffffffff ffffffff81ad9cc8 ffff8800bd4b6000 ffffffff8154a55f [ 7920.105494] Call Trace: [ 7920.105495] [<ffffffff8154a55f>] ? schedule+0x2f/0x70 [ 7920.105496] [<ffffffff8154a80e>] ? schedule_preempt_disabled+0xe/0x20 [ 7920.105497] [<ffffffff8154c075>] ? __mutex_lock_slowpath+0x85/0x100 [ 7920.105498] [<ffffffff8154c10b>] ? mutex_lock+0x1b/0x30 [ 7920.105499] [<ffffffff8145db9e>] ? register_netdev+0xe/0x30 [ 7920.105500] [<ffffffffa0842292>] ? ppp_ioctl+0xbe2/0xd90 [ppp_generic] [ 7920.105501] [<ffffffff811ca5a3>] ? do_vfs_ioctl+0x2c3/0x4a0 [ 7920.105503] [<ffffffff811d43d5>] ? set_close_on_exec+0x35/0x70 [ 7920.105504] [<ffffffff811ca7f6>] ? SyS_ioctl+0x76/0x90 [ 7920.105505] [<ffffffff8154de72>] ? system_call_fast_compare_end+0xc/0x6b [ 7920.105506] INFO: task accel-pppd:10525 blocked for more than 120 seconds. [ 7920.105518] Not tainted 4.2.0-1-amd64 #1 [ 7920.105525] "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message. [ 7920.105538] accel-pppd D ffffffff8109a190 0 10525 1 0x00000000 [ 7920.105539] ffff880036cf84c0 0000000000000082 ffffffff81446632 ffff88011a738ec0 [ 7920.105541] 0000000000000286 ffff8800cf140000 ffffffff81ad9cc4 ffff880036cf84c0 [ 7920.105542] 00000000ffffffff ffffffff81ad9cc8 0000000000000020 ffffffff8154a55f [ 7920.105543] Call Trace: [ 7920.105544] [<ffffffff81446632>] ? __kmalloc_reserve.isra.31+0x32/0x80 [ 7920.105545] [<ffffffff8154a55f>] ? schedule+0x2f/0x70 [ 7920.105545] [<ffffffff8154a80e>] ? schedule_preempt_disabled+0xe/0x20 [ 7920.105546] [<ffffffff8154c075>] ? __mutex_lock_slowpath+0x85/0x100 [ 7920.105547] [<ffffffff8154c10b>] ? mutex_lock+0x1b/0x30 [ 7920.105548] [<ffffffff81468af5>] ? rtnetlink_rcv+0x15/0x30 [ 7920.105549] [<ffffffff81488ee0>] ? netlink_unicast+0x100/0x180 [ 7920.105551] [<ffffffff8148941d>] ? netlink_sendmsg+0x4bd/0x5d0 [ 7920.105552] [<ffffffff810a3d63>] ? pick_next_task_fair+0x1b3/0x890 [ 7920.105553] [<ffffffff8143fb48>] ? sock_sendmsg+0x38/0x50 [ 7920.105554] [<ffffffff8144040f>] ? ___sys_sendmsg+0x25f/0x270 [ 7920.105555] [<ffffffff8154a55f>] ? schedule+0x2f/0x70 [ 7920.105556] [<ffffffff812c85e8>] ? timerqueue_add+0x58/0xb0 [ 7920.105557] [<ffffffff810cf02c>] ? enqueue_hrtimer+0x3c/0x70 [ 7920.105558] [<ffffffff810cf4c1>] ? hrtimer_start_range_ns+0x1b1/0x3a0 [ 7920.105559] [<ffffffff81440d1e>] ? __sys_sendmsg+0x3e/0x70 [ 7920.105560] [<ffffffff8154de72>] ? system_call_fast_compare_end+0xc/0x6b Linux PPPoE 4.2.0-1-amd64 #1 SMP Debian 4.2.1-2 (2015-09-27) x86_64 GNU/Linux Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
avb1987 Опубликовано 5 октября, 2015 · Жалоба У вас с жесткими дисками нет каких-либо проблем? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
johnnys Опубликовано 5 октября, 2015 · Жалоба У вас с жесткими дисками нет каких-либо проблем? root@PPPoE:~# dd oflag=direct if=/dev/zero of=/root/10G bs=1M count=10000 10000+0 records in 10000+0 records out 10485760000 bytes (10 GB) copied, 114.15 s, 91.9 MB/s Я склоняюсь думать что нет. У меня три одинаковые конфигурации (Intel® Core i7-4790K CPU @ 4.00GHz + Intel Corporation 82599ES 10-Gigabit SFI/SFP+ Network Connection). До момента "падения" ведут себя абсолютно нормально, нет повисших процессов, скорость чтения/записи удовлетворительна. И в Call Trace я так понимаю видны сетевые функции. Пока лучший результат у ядра 3.2.68-1+deb7u4 + драйвер ixgbe-3.6.7-k. root@TESTTEST:~# uptime 15:32:15 up 7 days, 55 min, 4 users, load average: 0.39, 0.83, 1.16 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
avb1987 Опубликовано 5 октября, 2015 (изменено) · Жалоба Я конечно не специалист, но вот здесь описана похожая (по трейсу) проблема с зависанием, с таким же ядром (4.2.1-2), но другими обстоятельствами. Так что возможно это баг в ядре а не проблема с accel-ppp. https://lists.debian.org/debian-kernel/2015/09/msg00251.html Изменено 5 октября, 2015 пользователем avb1987 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dimka88 Опубликовано 6 октября, 2015 · Жалоба jommystorm, соберите accel-pppd с дебагом. Если упадёт корка, высылайте на xeb@mail.ru, в противном случае давайте хоть логи уровня 5 посмотрим. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
johnnys Опубликовано 6 октября, 2015 · Жалоба jommystorm, соберите accel-pppd с дебагом. Если упадёт корка, высылайте на xeb@mail.ru, в противном случае давайте хоть логи уровня 5 посмотрим. Последние 100 строк перед падением. Ядро #1 SMP Debian 4.1.6-1 (2015-08-23) + ixgbe-4.0.1-k (4.1.2 не собрались). root@PPPoE:/opt/accel-ppp.log# tail -n 100 accel-ppp.log [2015-10-06 02:41:27]: debug: ppp1623: send [LCP EchoRep id=5 <magic 782e2088>] [2015-10-06 02:41:27]: debug: ppp195: recv [LCP EchoReq id=95 <magic dbd53106>] [2015-10-06 02:41:27]: debug: ppp195: send [LCP EchoRep id=95 <magic 2016e9aa>] [2015-10-06 02:41:27]: debug: ppp714: recv [LCP EchoReq id=28 <magic 1fb17fc5>] [2015-10-06 02:41:27]: debug: ppp714: send [LCP EchoRep id=28 <magic 7291b54e>] [2015-10-06 02:41:27]: debug: ppp555: send [LCP EchoReq id=76 <magic 2effc48c>] [2015-10-06 02:41:27]: debug: ppp1595: recv [LCP EchoReq id=8a <magic 71668cdb>] [2015-10-06 02:41:27]: debug: ppp1595: send [LCP EchoRep id=8a <magic 73fa56b0>] [2015-10-06 02:41:27]: debug: ppp555: recv [LCP EchoRep id=76 <magic ba676a55>] [2015-10-06 02:41:27]: debug: ppp916: recv [LCP EchoReq id=18 <magic fe6daf37>] [2015-10-06 02:41:27]: debug: ppp916: send [LCP EchoRep id=18 <magic 409e0cd3>] [2015-10-06 02:41:27]: debug: ppp1110: recv [LCP EchoReq id=f1 <magic 62da19fd>] [2015-10-06 02:41:27]: debug: ppp1110: send [LCP EchoRep id=f1 <magic 4d7775ae>] [2015-10-06 02:41:27]: debug: ppp269: recv [LCP EchoReq id=3 <magic def6b11a>] [2015-10-06 02:41:27]: debug: ppp269: send [LCP EchoRep id=3 <magic 57febe4a>] [2015-10-06 02:41:27]: debug: ppp1095: recv [LCP EchoReq id=fe <magic 63909350>] [2015-10-06 02:41:27]: debug: ppp1095: send [LCP EchoRep id=fe <magic 2268c717>] [2015-10-06 02:41:27]: debug: ppp709: recv [LCP EchoReq id=28 <magic 081e2878>] [2015-10-06 02:41:27]: debug: ppp709: send [LCP EchoRep id=28 <magic 7c3f59af>] [2015-10-06 02:41:27]: debug: ppp1722: recv [LCP EchoReq id=fc <magic 05f5d027>] [2015-10-06 02:41:27]: debug: ppp1722: send [LCP EchoRep id=fc <magic 0061bac7>] [2015-10-06 02:41:27]: debug: ppp321: recv [LCP EchoReq id=f9 <magic fc519eb6>] [2015-10-06 02:41:27]: debug: ppp321: send [LCP EchoRep id=f9 <magic 57124ade>] [2015-10-06 02:41:27]: debug: ppp804: recv [LCP EchoReq id=6f <magic ef88476e>] [2015-10-06 02:41:27]: debug: ppp804: send [LCP EchoRep id=6f <magic 54c59575>] [2015-10-06 02:41:27]: debug: ppp721: recv [LCP EchoReq id=28 <magic 5909a195>] [2015-10-06 02:41:27]: debug: ppp721: send [LCP EchoRep id=28 <magic 1a867604>] [2015-10-06 02:41:27]: debug: ppp1274: recv [LCP EchoReq id=1b <magic 63e67907>] [2015-10-06 02:41:27]: debug: ppp1274: send [LCP EchoRep id=1b <magic 4e7aebe4>] [2015-10-06 02:41:27]: debug: ppp669: send [LCP EchoReq id=85 <magic 5b14ad61>] [2015-10-06 02:41:27]: debug: ppp669: recv [LCP EchoRep id=85 <magic 9ebe5c5a>] [2015-10-06 02:41:27]: debug: ppp712: recv [LCP EchoReq id=28 <magic 38c9477d>] [2015-10-06 02:41:27]: debug: ppp712: send [LCP EchoRep id=28 <magic 6d24e382>] [2015-10-06 02:41:27]: debug: ppp955: recv [LCP EchoReq id=15 <magic 025c1008>] [2015-10-06 02:41:27]: debug: ppp955: send [LCP EchoRep id=15 <magic 71a2c653>] [2015-10-06 02:41:27]: debug: ppp982: recv [LCP EchoReq id=12 <magic 8b5dd0b4>] [2015-10-06 02:41:27]: debug: ppp982: send [LCP EchoRep id=12 <magic 16b46652>] [2015-10-06 02:41:27]: debug: ppp1146: send [LCP EchoReq id=84 <magic 6d965cbb>] [2015-10-06 02:41:27]: debug: ppp2255: send [LCP EchoReq id=83 <magic 61facbe9>] [2015-10-06 02:41:27]: debug: ppp1146: recv [LCP EchoRep id=84 <magic 1bd5b1b4>] [2015-10-06 02:41:27]: debug: ppp2255: recv [LCP EchoRep id=83 <magic bd2d2543>] [2015-10-06 02:41:27]: info: recv [PPPoE PADI 00:24:01:b9:d4:20 => ff:ff:ff:ff:ff:ff sid=0000 <Service-Name >] [2015-10-06 02:41:27]: info: send [PPPoE PADO 6c:b3:11:3b:25:0c => 00:24:01:b9:d4:20 sid=0000 <AC-Name accel-ppp> <Service-Name > <AC-Cookie e1537b79cff769f02452891ef4d3f52181a244153afe68be>] [2015-10-06 02:41:27]: debug: ppp738: recv [LCP EchoReq id=27 <magic 87ee63a6>] [2015-10-06 02:41:27]: debug: ppp738: send [LCP EchoRep id=27 <magic 58dae2b9>] [2015-10-06 02:41:27]: debug: ppp778: recv [LCP EchoReq id=bd <magic 56f57999>] [2015-10-06 02:41:27]: debug: ppp778: send [LCP EchoRep id=bd <magic 38cd6bb6>] [2015-10-06 02:41:27]: debug: ppp879: recv [LCP EchoReq id=f4 <magic 6df71ee6>] [2015-10-06 02:41:27]: debug: ppp879: send [LCP EchoRep id=f4 <magic 03bdc9fc>] [2015-10-06 02:41:27]: debug: ppp1052: recv [LCP EchoReq id=fd <magic ab69c18a>] [2015-10-06 02:41:27]: debug: ppp1052: send [LCP EchoRep id=fd <magic 76041844>] [2015-10-06 02:41:27]: debug: ppp658: recv [LCP EchoReq id=59 <magic 17dbda11>] [2015-10-06 02:41:27]: debug: ppp658: send [LCP EchoRep id=59 <magic 3c14ad57>] [2015-10-06 02:41:27]: debug: ppp2256: send [LCP EchoReq id=83 <magic 79130f0a>] [2015-10-06 02:41:27]: debug: ppp2256: recv [LCP EchoRep id=83 <magic caa602ca>] [2015-10-06 02:41:27]: debug: ppp652: recv [LCP EchoReq id=ae <magic d2fa8755>] [2015-10-06 02:41:27]: debug: ppp652: send [LCP EchoRep id=ae <magic 41b5c00c>] [2015-10-06 02:41:27]: debug: ppp720: recv [LCP EchoReq id=28 <magic a8486cf1>] [2015-10-06 02:41:27]: debug: ppp720: send [LCP EchoRep id=28 <magic 123840fb>] [2015-10-06 02:41:27]: debug: ppp1044: recv [LCP EchoReq id=fb <magic 9c18167b>] [2015-10-06 02:41:27]: debug: ppp1044: send [LCP EchoRep id=fb <magic 3560d2c7>] [2015-10-06 02:41:27]: debug: ppp1279: recv [LCP EchoReq id=2 <magic a52254c6>] [2015-10-06 02:41:27]: debug: ppp1279: send [LCP EchoRep id=2 <magic 096966b6>] [2015-10-06 02:41:27]: debug: ppp584: recv [LCP EchoReq id=85 <magic 45ba9640>] [2015-10-06 02:41:27]: debug: ppp584: send [LCP EchoRep id=85 <magic 7e062600>] [2015-10-06 02:41:27]: debug: ppp1534: recv [LCP EchoReq id=5 <magic 17f89c6b>] [2015-10-06 02:41:27]: debug: ppp1534: send [LCP EchoRep id=5 <magic 63bfb075>] [2015-10-06 02:41:27]: debug: ppp670: send [LCP EchoReq id=85 <magic 0b0f2866>] [2015-10-06 02:41:27]: debug: ppp670: recv [LCP EchoRep id=85 <magic 6e85f7a7>] [2015-10-06 02:41:27]: debug: ppp2257: send [LCP EchoReq id=83 <magic 05a01d31>] [2015-10-06 02:41:27]: debug: ppp2257: recv [LCP EchoRep id=83 <magic 846bc011>] [2015-10-06 02:41:27]: debug: ppp725: recv [LCP EchoReq id=28 <magic 6b45f237>] [2015-10-06 02:41:27]: debug: ppp725: send [LCP EchoRep id=28 <magic 6ca488e1>] [2015-10-06 02:41:27]: debug: ppp1147: send [LCP EchoReq id=84 <magic 73d01692>] [2015-10-06 02:41:27]: debug: ppp1147: recv [LCP EchoRep id=84 <magic 90e68627>] [2015-10-06 02:41:27]: debug: ppp796: recv [LCP EchoReq id=16 <magic 4d84ca71>] [2015-10-06 02:41:27]: debug: ppp796: send [LCP EchoRep id=16 <magic 53bb3c31>] [2015-10-06 02:41:27]: debug: ppp118: recv [LCP EchoReq id=14 <magic 9713bb1f>] [2015-10-06 02:41:27]: debug: ppp118: send [LCP EchoRep id=14 <magic 0c1bee98>] [2015-10-06 02:41:27]: debug: ppp765: recv [LCP EchoReq id=c1 <magic 1d834082>] [2015-10-06 02:41:27]: debug: ppp765: send [LCP EchoRep id=c1 <magic 287605c8>] [2015-10-06 02:41:27]: debug: ppp1091: recv [LCP EchoReq id=dd <magic 82777ecf>] [2015-10-06 02:41:27]: debug: ppp1091: send [LCP EchoRep id=dd <magic 39316da9>] [2015-10-06 02:41:27]: debug: ppp1057: recv [LCP EchoReq id=fd <magic 456d5bc0>] [2015-10-06 02:41:27]: debug: ppp1057: send [LCP EchoRep id=fd <magic 0ae7f1ee>] [2015-10-06 02:41:27]: debug: ppp727: recv [LCP EchoReq id=28 <magic 288bd73d>] [2015-10-06 02:41:27]: debug: ppp727: send [LCP EchoRep id=28 <magic 51aa7b98>] [2015-10-06 02:41:27]: debug: ppp1041: recv [LCP EchoReq id=fb <magic a58427f1>] [2015-10-06 02:41:27]: debug: ppp1041: send [LCP EchoRep id=fb <magic 4ca7e97a>] [2015-10-06 02:41:27]: debug: ppp642: recv [LCP EchoReq id=f1 <magic 4d8d3ee7>] [2015-10-06 02:41:27]: debug: ppp642: send [LCP EchoRep id=f1 <magic 59f94b37>] [2015-10-06 02:41:27]: debug: ppp1032: recv [LCP EchoReq id=1c <magic aab27db5>] [2015-10-06 02:41:27]: debug: ppp1032: send [LCP EchoRep id=1c <magic 118016f5>] [2015-10-06 02:41:27]: debug: ppp886: recv [LCP EchoReq id=ed <magic 5a97565f>] [2015-10-06 02:41:27]: debug: ppp886: send [LCP EchoRep id=ed <magic 57fcd958>] [2015-10-06 02:41:27]: debug: ppp1542: recv [LCP EchoReq id=5 <magic 84c7c2cc>] [2015-10-06 02:41:27]: debug: ppp1542: send [LCP EchoRep id=5 <magic 4e77b1e7>] [2015-10-06 02:41:27]: debug: ppp1649: recv [LCP EchoReq id=5 <magic cf902156>] [2015-10-06 02:41:27]: debug: ppp1649: send [LCP EchoRep id=5 <magic 2d85bae2>] Собрал accel-ppp с дебагом. Жду. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
sanyasi Опубликовано 6 октября, 2015 · Жалоба Возможно проблема последнего релиза 1.9.0 Падают два сервера pptp + l2tp + нат + шейп + ipt_netflow + bond. Аптайм - 1 час - неделя. Сделал, чтобы сразу перезагружался. Пока не разбирался с причинами, не нахожусь в серверной. Ubuntu 14.04 ядра 3.13.0-63-generic и 3.19.0-28-generic accel-ppp version 1.9.0 Аналогичная конфигурация без accel-ppp (нат + шейп + ipt_netflow + bond) работает без сбоев. Не железо. 1.8.0 + 3.2 ядро (Ubuntu 12.04) работает без сбоев. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...