Перейти к содержимому
Калькуляторы

Здравствуйте! Подскажите, где найти мануал по accel-ppp, а точнее по поднятию l2tp?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Скончался один из насов с accel-ppp версия 1.7.2 на ровном месте, выловить особо ничего не успел кроме того что осталось в dmesg.

[844115.663102] accel-pppd: page allocation failure. order:5, mode:0x8020

[844115.663109] Pid: 804, comm: accel-pppd Not tainted 2.6.32-5-amd64 #1

[844115.663112] Call Trace:

[844115.663122] [<ffffffff810ba8cb>] ? __alloc_pages_nodemask+0x59b/0x5fc

[844115.663129] [<ffffffff810b9888>] ? __get_free_pages+0x9/0x46

[844115.663136] [<ffffffff8126aa94>] ? nl_pid_hash_rehash+0x49/0xf1

[844115.663141] [<ffffffff8126b51f>] ? netlink_insert+0xbc/0x123

[844115.663147] [<ffffffff8126b625>] ? netlink_autobind+0x9f/0xbc

[844115.663152] [<ffffffff8126bba0>] ? netlink_bind+0x82/0x179

[844115.663158] [<ffffffff81242687>] ? sys_bind+0x7a/0xb9

[844115.663164] [<ffffffff810ed557>] ? fd_install+0x2e/0x5a

[844115.663169] [<ffffffff812414a3>] ? sys_setsockopt+0x99/0xaa

[844115.663175] [<ffffffff81010b42>] ? system_call_fastpath+0x16/0x1b

[844115.663179] Mem-Info:

[844115.663181] Node 0 DMA per-cpu:

[844115.663185] CPU 0: hi: 0, btch: 1 usd: 0

[844115.663188] CPU 1: hi: 0, btch: 1 usd: 0

[844115.663191] CPU 2: hi: 0, btch: 1 usd: 0

[844115.663194] CPU 3: hi: 0, btch: 1 usd: 0

[844115.663197] Node 0 DMA32 per-cpu:

[844115.663201] CPU 0: hi: 186, btch: 31 usd: 169

[844115.663204] CPU 1: hi: 186, btch: 31 usd: 168

[844115.663208] CPU 2: hi: 186, btch: 31 usd: 178

[844115.663211] CPU 3: hi: 186, btch: 31 usd: 180

[844115.663213] Node 0 Normal per-cpu:

[844115.663217] CPU 0: hi: 186, btch: 31 usd: 116

[844115.663220] CPU 1: hi: 186, btch: 31 usd: 158

[844115.663223] CPU 2: hi: 186, btch: 31 usd: 160

[844115.663226] CPU 3: hi: 186, btch: 31 usd: 167

[844115.663234] active_anon:289402 inactive_anon:102445 isolated_anon:32

[844115.663236] active_file:277670 inactive_file:135693 isolated_file:0

[844115.663238] unevictable:0 dirty:35 writeback:0 unstable:0

[844115.663239] free:45507 slab_reclaimable:35467 slab_unreclaimable:36766

[844115.663241] mapped:3262 shmem:82 pagetables:1242 bounce:0

[844115.663245] Node 0 DMA free:15896kB min:28kB low:32kB high:40kB active_anon:0kB inactive_anon:0kB active_file:0kB inactive_file:0kB unevictable:0kB isolated(anon):0kB isolated(file):0kB present:15360kB mlocked:0kB dirty:0kB writeback:0kB mapped:0kB shmem:0kB slab_reclaimable:0kB slab_unreclaimable:16kB kernel_stack:0kB pagetables:0kB unstable:0kB bounce:0kB writeback_tmp:0kB pages_scanned:0 all_unreclaimable? yes

[844115.663262] lowmem_reserve[]: 0 2990 4000 4000

[844115.663267] Node 0 DMA32 free:147216kB min:6036kB low:7544kB high:9052kB active_anon:996644kB inactive_anon:249376kB active_file:812900kB inactive_file:452468kB unevictable:0kB isolated(anon):0kB isolated(file):0kB present:3062596kB mlocked:0kB dirty:20kB writeback:0kB mapped:0kB shmem:4kB slab_reclaimable:114432kB slab_unreclaimable:109196kB kernel_stack:112kB pagetables:2464kB unstable:0kB bounce:0kB writeback_tmp:0kB pages_scanned:0 all_unreclaimable? no

[844115.663286] lowmem_reserve[]: 0 0 1010 1010

[844115.663290] Node 0 Normal free:18916kB min:2036kB low:2544kB high:3052kB active_anon:160964kB inactive_anon:160404kB active_file:297780kB inactive_file:90304kB unevictable:0kB isolated(anon):128kB isolated(file):0kB present:1034240kB mlocked:0kB dirty:120kB writeback:0kB mapped:13048kB shmem:324kB slab_reclaimable:27436kB slab_unreclaimable:37852kB kernel_stack:1104kB pagetables:2504kB unstable:0kB bounce:0kB writeback_tmp:0kB pages_scanned:32 all_unreclaimable? no

[844115.663309] lowmem_reserve[]: 0 0 0 0

[844115.663314] Node 0 DMA: 2*4kB 2*8kB 4*16kB 4*32kB 3*64kB 1*128kB 2*256kB 1*512kB 2*1024kB 2*2048kB 2*4096kB = 15896kB

[844115.663326] Node 0 DMA32: 14282*4kB 6783*8kB 1629*16kB 260*32kB 21*64kB 1*128kB 0*256kB 0*512kB 0*1024kB 0*2048kB 0*4096kB = 147248kB

[844115.663340] Node 0 Normal: 2923*4kB 665*8kB 97*16kB 11*32kB 0*64kB 0*128kB 0*256kB 0*512kB 0*1024kB 0*2048kB 0*4096kB = 18916kB

[844115.663353] 413521 total pagecache pages

[844115.663355] 76 pages in swap cache

[844115.663358] Swap cache stats: add 1107, delete 1031, find 11339/11342

[844115.663361] Free swap = 7905044kB

[844115.663363] Total swap = 7909368kB

[844115.691761] 1048576 pages RAM

[844115.691763] 36004 pages reserved

[844115.691766] 407192 pages shared

[844115.691768] 560749 pages non-shared

[968364.975959] accel-pppd[6108]: segfault at 7f847d010000 ip 00007f847ccdeb02 sp 00007f8471d6ad40 error 4 in libcrypto.so.0.9.8[7f847cc58000+175000]

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Вторую ночь падает accel-ppp. Утром приходим и запускаем его вручную /etc/init.d/accel-ppp-init start. В логе ничего интерессного:

 

[2012-10-24 06:44:58]:  info: ppp155: send [RADIUS(1) Access-Request id=1 <User-Name "146133"> <NAS-Identifier "nas2"> <NAS-IP-Address 192.168.235.202> <NAS-Port 155> <NAS-Port-Type Virtual> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "10.0.146.133"> <Called-Station-Id "10.0.0.60"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP2-Response >]
[2012-10-24 06:44:59]:  info: ppp6: recv [RADIUS(1) Access-Reject id=1 <Reply-Message "0E=647 R=0"><Microsoft MS-CHAP-Error "^AE=691 R=1">]
[2012-10-24 06:44:59]:  info: ppp6: 039212: authentication failed
[2012-10-24 06:44:59]:  info: 039212: authentication failed
[2012-10-24 06:45:00]: error: ppp6: pptp: read: Connection reset by peer
[2012-10-24 06:45:00]:  info: ppp6: disconnected
[2012-10-24 06:45:00]:  info: ppp155: recv [RADIUS(1) Access-Reject id=1 <Reply-Message "0E=647 R=0"><Microsoft MS-CHAP-Error "^AE=691 R=1">]
[2012-10-24 06:45:00]:  info: ppp155: 146133: authentication failed
[2012-10-24 06:45:00]:  info: 146133: authentication failed
[2012-10-24 06:45:00]:  info: ppp6: connect: ppp6 <--> pptp(10.0.39.212)
[2012-10-24 06:45:00]:  info: ppp6: send [RADIUS(1) Access-Request id=1 <User-Name "039212"> <NAS-Identifier "nas2"> <NAS-IP-Address 192.168.235.202> <NAS-Port 6> <NAS-Port-Type Virtual> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "10.0.39.212"> <Called-Station-Id "10.0.0.60"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP2-Response >]
[2012-10-24 06:45:00]:  info: ppp155: disconnected
[2012-10-24 [b]09:42:32[/b]]:   msg: accel-ppp version 1.7.2
[2012-10-24 09:42:32]:  info: ppp0: connect: ppp0 <--> pptp(10.0.28.125)
[2012-10-24 09:42:32]:  info: ppp0: send [RADIUS(1) Access-Request id=1 <User-Name "028125"> <NAS-Identifier "nas2"> <NAS-IP-Address 192.168.235.202> <NAS-Port 0> <NAS-Port-Type Virtual> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "10.0.28.125"> <Called-Station-Id "10.0.0.60"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP2-Response >]
[2012-10-24 09:42:32]:  info: ppp1: connect: ppp1 <--> pptp(10.0.147.26)
[2012-10-24 09:42:32]:  info: ppp2: connect: ppp2 <--> pptp(10.0.230.59)
[2012-10-24 09:42:32]:  info: ppp3: connect: ppp3 <--> pptp(10.0.103.127)
[2012-10-24 09:42:32]:  info: ppp4: connect: ppp4 <--> pptp(10.0.76.22)
[2012-10-24 09:42:32]:  info: ppp5: connect: ppp5 <--> pptp(10.0.38.56)
[2012-10-24 09:42:32]:  info: ppp3: send [RADIUS(1) Access-Request id=1 <User-Name "103127"> <NAS-Identifier "nas2"> <NAS-IP-Address 192.168.235.202> <NAS-Port 3> <NAS-Port-Type Virtual> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "10.0.103.127"> <Called-Station-Id "10.0.0.60"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP2-Response >]
[2012-10-24 09:42:32]:  info: ppp4: send [RADIUS(1) Access-Request id=1 <User-Name "076022"> <NAS-Identifier "nas2"> <NAS-IP-Address 192.168.235.202> <NAS-Port 4> <NAS-Port-Type Virtual> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "10.0.76.22"> <Called-Station-Id "10.0.0.60"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP2-Response >]
[2012-10-24 09:42:32]:  info: ppp2: send [RADIUS(1) Access-Request id=1 <User-Name "230059"> <NAS-Identifier "nas2"> <NAS-IP-Address 192.168.235.202> <NAS-Port 2> <NAS-Port-Type Virtual> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "10.0.230.59"> <Called-Station-Id "10.0.0.60"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP2-Response >]
[2012-10-24 09:42:32]:  info: ppp5: send [RADIUS(1) Access-Request id=1 <User-Name "038056"> <NAS-Identifier "nas2"> <NAS-IP-Address 192.168.235.202> <NAS-Port 5> <NAS-Port-Type Virtual> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "10.0.38.56"> <Called-Station-Id "10.0.0.60"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP2-Response >]
[2012-10-24 09:42:32]:  info: ppp6: connect: ppp6 <--> pptp(10.0.251.73)
[2012-10-24 09:42:32]:  info: ppp7: connect: ppp7 <--> pptp(10.1.192.37)
[2012-10-24 09:42:32]:  info: ppp8: connect: ppp8 <--> pptp(10.1.7.7)

 

09:42:32 - ручной запуск. В какую сторону искать проблему?

Изменено пользователем morfair

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Народ, столкнулся с проблемой. Имеется сервер с аплинками по 4 ГБит на интеловских карточках ET, всё стоит на Debian Squeeze 6.0.6, объеденины бондингом 802.3ad режим. суть в том что первый интерфейс бондинга (вход-выход со стороны пользователей) работает нормально, распределяя траффик по всем 4-м интерфейсам в нём. Но бондинг в интернет, работает только на вход, а выход (отдача) идёт только через первый мастер интерфейс в бондинге.

 

accel-ppp 1.7.2, шейпер на вход и выход htb. куда копать?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

morfair,

emerg.log

Тока что снова упал, emerg.log пустой.

Изменено пользователем morfair

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

куда копать?

в сторону настроек бондинга, поставить ip+mac распараллеливние.

И да, я бы такого монстра на 2 штуки раздробил бы, выше откаоустойчивость и дешевле железо в итоге.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

в сторону настроек бондинга, поставить ip+mac распараллеливние.

Решилось раунд робином, режим balance-rr.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Решилось раунд робином, режим balance-rr

А производительность при этом не падает, в этом режиме вообще не нужно ни каких манипуляций с портами на коммутаторе, у меня падала поэтому жил на mode=4 (802.3ad)

 

mode=0 (balance-rr)

 

Этот режим используется по-умолчанию, если в настройках не указано другое. balance-rr обеспечивает балансировку нагрузки и отказоустойчивость. В данном режиме пакеты отправляются "по кругу" от первого интерфейса к последнему и сначала. Если выходит из строя один из интерфейсов, пакеты отправляются на остальные оставшиеся.При подключении портов к разным коммутаторам, требует их настройки.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Все же озвучу еще раз вопрос к автору проекта, не дождавшись ответа: когда планируется возможность форсированного сообщения DNS серверов для глюкавых клиентов? Хотя бы примерно? Реально нужная вещь, делающая невозможным внедрение...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Все же озвучу еще раз вопрос к автору проекта, не дождавшись ответа

Может стоит все же тикет открыть на страничке проекта? xeb , помнится, уже жаловался, что не получается все CR по форумам и аськам отслеживать и просил, чтобы открывали запросы в трекере.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Таки да, открою тикет. Хотя сорсфоржевский трекер проекта, судя по последней версии в нем 1.5.х, похож на подзаброшенный...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Не знаю, на сорсфорже создался тикет под номером 1...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Не знаю, на сорсфорже создался тикет под номером 1...

Раньше, видимо, использовался встроенный сорсфоржевый трекер, с недавнего времени - trac.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Не знаю, на сорсфорже создался тикет под номером 1...

Ы?!?

А, ну, понятно. Сюда ходи

http://sourceforge.net/tracker/?group_id=390718&atid=1622576

:)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Тока что снова упал, emerg.log пустой.
coredump нужно...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Народ, подскажите пожалуйста какую версию acel-ppp ветки 1.x можно поставит в продакшн на 2000+ туннелей, сейчас все работает на accel-pptpd v0.8.3

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

zevgen,

Git master сейчас нестабилен.

Лучше вот так (делал по совету xeb-а несколько дней назад):

git clone git://accel-ppp.git.sourceforge.net/gitroot/accel-ppp/accel-ppp
cd accel-ppp
git checkout -b 1.7 --track origin/1.7

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Думаю что останусь пока на 0.8.x от добра, добра не ищут.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Тока что снова упал, emerg.log пустой.
coredump нужно...

Это что сделать нужно? Откуда вытащить?...

Изменено пользователем morfair

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

morfair

Это файлы core или core.PID, если они не появляются, то надо в init.d-скрипт в start добавить:

ulimit -Hc unlimited

ulimit -Sc unlimited

 

и перезапустить

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

morfair

Это файлы core или core.PID, если они не появляются, то надо в init.d-скрипт в start добавить:

ulimit -Hc unlimited

ulimit -Sc unlimited

 

и перезапустить

Что т я не совсем понял, первый раз с таким сталкиваюсь. Добавить надо, я так понял в секцию start

  start)
       log_daemon_msg "Starting PPtP/L2TP/PPPoE server" "accel-pppd"
       if start-stop-daemon --start --quiet --oknodo --exec $BIN -- -d -p /var/run/accel-pppd.pid $ACCEL_PPPD_OPTS; then
           log_end_msg 0
           ulimit -Hc unlimited
           ulimit -Sc unlimited
       else
           log_end_msg 1
       fi
 ;;

 

Так или иначе? А дальше, после этого, где файлы искать?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Нет, надо вставить перед "log_daemon_msg "Starting PPtP/L2TP/PPPoE server" "accel-pppd""

 

Поменяйте значение переменной /proc/sys/kernel/core_pattern на "ZXCVBNM", а потом ищите дампы поиском - find / | grep ZXCVBNM (можно и не менять и искать find / | grep core, но обычно слишком много лишнего этот поиск даст).

 

скорее всего, дамп появится в той директории, откуда вы выполнили запуск accel

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.