Перейти к содержимому
Калькуляторы
Обязательно нужно реализовать механизм отсекания PADI-шторма. В идеале вот что надо:

- Средство ограничения количества PADI в единицу времени с 1 мака.

- Средство ограничения количества PADI в единицу времени на все систему + burst.

commit 5fa8eb247b742f402b40dd718ae04c43854e6802
Author: Kozlov Dmitry <xeb@mail.ru>
Date:   Thu Dec 29 11:05:11 2011 +0400

pppoe: implemented PADI limiting

в конфиг:

[pppoe]

interface=eth0,padi-limit=100 - поинтерфейсное ограничение (пакеты в секунду) (опционально)

padi-limit=1000 - общее ограничение (пакеты в секунду)

По умолчанию 0 - не ограничено.

 

С одного мака ограничение - 1 пакет в секунду.

 

В первом приближении как-то так ...

Изменено пользователем xeb

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

interface=eth0,padi-limit=100 - поинтерфейсное ограничение (пакеты в секунду) (опционально)

padi-limit=1000 - общее ограничение (пакеты в секунду)

Для медленного старта это вполне подходит.

С одного мака ограничение - 1 пакет в секунду.

Здесь хотелось бы управлять таймаутом, на определённое количество подключений с одного мака, в моем случае попытки соединения плодятся роутером до 40~50 в минуту. В итоге хотелось бы устанавливать таймаут о запрете PADI при неудачных x соединений.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Итак, собрал таки для своего дистра; результаты:

 

1) Из-за ната клиенты к серверу не коннектятся (пакеты дропаются натом; нат - линукс 3.1.6), при этом клиенты к 0.8.5 подключаются :

Jan  7 21:01:19 testpoint accel-pppd: pptp: new connection from 192.168.x.x
Jan  7 21:01:19 testpoint accel-pppd: :: recv [PPTP Start-Ctrl-Conn-Request <Version 1> <Framing 1> <Bearer 1> <Max-Chan 0>]
Jan  7 21:01:19 testpoint accel-pppd: :: send [PPTP Start-Ctrl-Conn-Reply <Version 1> <Result 1> <Error 0> <Framing 3> <Bearer 3> <Max-Chan 1>]
Jan  7 21:01:19 testpoint accel-pppd: :: recv [PPTP Outgoing-Call-Request <Call-ID 4000> <Call-Serial cd41> <Min-BPS 300> <Max-BPS 100000000> <Bearer 3> <Framing 3> <Window-Size 64> <Delay 0>]
Jan  7 21:01:19 testpoint accel-pppd: :: send [PPTP Outgoing-Call-Reply <Call-ID b> <Peer-Call-ID 4000> <Result 1> <Error 0> <Cause 0> <Speed 100000000> <Window-Size 64> <Delay 0> <Channel 0>]
Jan  7 21:01:19 testpoint accel-pppd: ppp0:: connect: ppp0 <--> pptp(192.168.x.x)
Jan  7 21:01:19 testpoint accel-pppd: ppp0:: lcp_layer_init
Jan  7 21:01:19 testpoint accel-pppd: ppp0:: auth_layer_init
Jan  7 21:01:19 testpoint accel-pppd: ppp0:: ccp_layer_init
Jan  7 21:01:19 testpoint accel-pppd: ppp0:: ipcp_layer_init
Jan  7 21:01:19 testpoint accel-pppd: ppp0:: ipv6cp_layer_init
Jan  7 21:01:19 testpoint accel-pppd: ppp0:: ppp established
Jan  7 21:01:19 testpoint accel-pppd: ppp0:: lcp_layer_start
Jan  7 21:01:19 testpoint accel-pppd: ppp0:: send [LCP ConfReq id=1 <auth MSCHAP-v1> <mru 1400> <magic 4e6afb66>]
Jan  7 21:01:19 testpoint accel-pppd: ppp0:: recv [PPTP Set-Link-Info]
Jan  7 21:01:21 testpoint accel-pppd: ppp0:: recv [LCP ConfReq id=1 <mru 1400> <magic 649037f4> <pcomp> <accomp> < d 3 6 >]
Jan  7 21:01:21 testpoint accel-pppd: ppp0:: send [LCP ConfRej id=1  <pcomp> <accomp> < d 3 6 >]
Jan  7 21:01:22 testpoint accel-pppd: ppp0:: fsm timeout
Jan  7 21:01:22 testpoint accel-pppd: ppp0:: send [LCP ConfReq id=1 <auth MSCHAP-v1> <mru 1400> <magic 4e6afb66>]
Jan  7 21:01:24 testpoint accel-pppd: ppp0:: recv [LCP ConfReq id=2 <mru 1400> <magic 649037f4> <pcomp> <accomp> < d 3 6 >]
Jan  7 21:01:24 testpoint accel-pppd: ppp0:: send [LCP ConfRej id=2  <pcomp> <accomp> < d 3 6 >]
Jan  7 21:01:25 testpoint accel-pppd: ppp0:: fsm timeout
Jan  7 21:01:25 testpoint accel-pppd: ppp0:: send [LCP ConfReq id=1 <auth MSCHAP-v1> <mru 1400> <magic 4e6afb66>]
Jan  7 21:01:28 testpoint accel-pppd: ppp0:: fsm timeout
Jan  7 21:01:28 testpoint accel-pppd: ppp0:: send [LCP ConfReq id=1 <auth MSCHAP-v1> <mru 1400> <magic 4e6afb66>]
Jan  7 21:01:28 testpoint accel-pppd: ppp0:: recv [LCP ConfReq id=3 <mru 1400> <magic 649037f4> <pcomp> <accomp> < d 3 6 >]
Jan  7 21:01:28 testpoint accel-pppd: ppp0:: send [LCP ConfRej id=3  <pcomp> <accomp> < d 3 6 >]
Jan  7 21:01:31 testpoint accel-pppd: ppp0:: fsm timeout
Jan  7 21:01:31 testpoint accel-pppd: ppp0:: send [LCP ConfReq id=1 <auth MSCHAP-v1> <mru 1400> <magic 4e6afb66>]
Jan  7 21:01:32 testpoint accel-pppd: ppp0:: recv [LCP ConfReq id=4 <mru 1400> <magic 649037f4> <pcomp> <accomp> < d 3 6 >]
Jan  7 21:01:32 testpoint accel-pppd: ppp0:: send [LCP ConfRej id=4  <pcomp> <accomp> < d 3 6 >]
Jan  7 21:01:34 testpoint accel-pppd: ppp0:: fsm timeout
Jan  7 21:01:34 testpoint accel-pppd: ppp0:: send [LCP ConfReq id=1 <auth MSCHAP-v1> <mru 1400> <magic 4e6afb66>]
Jan  7 21:01:36 testpoint accel-pppd: ppp0:: recv [LCP ConfReq id=5 <mru 1400> <magic 649037f4> <pcomp> <accomp> < d 3 6 >]
Jan  7 21:01:36 testpoint accel-pppd: ppp0:: send [LCP ConfRej id=5  <pcomp> <accomp> < d 3 6 >]
Jan  7 21:01:37 testpoint accel-pppd: ppp0:: fsm timeout
Jan  7 21:01:37 testpoint accel-pppd: ppp0:: send [LCP ConfReq id=1 <auth MSCHAP-v1> <mru 1400> <magic 4e6afb66>]
Jan  7 21:01:40 testpoint accel-pppd: ppp0:: fsm timeout
Jan  7 21:01:40 testpoint accel-pppd: ppp0:: send [LCP ConfReq id=1 <auth MSCHAP-v1> <mru 1400> <magic 4e6afb66>]
Jan  7 21:01:40 testpoint accel-pppd: ppp0:: recv [LCP ConfReq id=6 <mru 1400> <magic 649037f4> <pcomp> <accomp> < d 3 6 >]
Jan  7 21:01:40 testpoint accel-pppd: ppp0:: send [LCP ConfRej id=6  <pcomp> <accomp> < d 3 6 >]
Jan  7 21:01:43 testpoint accel-pppd: ppp0:: fsm timeout
Jan  7 21:01:43 testpoint accel-pppd: ppp0:: send [LCP ConfReq id=1 <auth MSCHAP-v1> <mru 1400> <magic 4e6afb66>]
Jan  7 21:01:44 testpoint accel-pppd: ppp0:: recv [LCP ConfReq id=7 <mru 1400> <magic 649037f4> <pcomp> <accomp> < d 3 6 >]
Jan  7 21:01:44 testpoint accel-pppd: ppp0:: send [LCP ConfRej id=7  <pcomp> <accomp> < d 3 6 >]
Jan  7 21:01:46 testpoint accel-pppd: ppp0:: fsm timeout
Jan  7 21:01:46 testpoint accel-pppd: ppp0:: send [LCP ConfReq id=1 <auth MSCHAP-v1> <mru 1400> <magic 4e6afb66>]
Jan  7 21:01:48 testpoint accel-pppd: ppp0:: recv [LCP ConfReq id=8 <mru 1400> <magic 649037f4> <pcomp> <accomp> < d 3 6 >]
Jan  7 21:01:48 testpoint accel-pppd: ppp0:: send [LCP ConfRej id=8  <pcomp> <accomp> < d 3 6 >]
Jan  7 21:01:49 testpoint accel-pppd: ppp0:: fsm timeout
Jan  7 21:01:49 testpoint accel-pppd: ppp0:: lcp_layer_finished
Jan  7 21:01:49 testpoint accel-pppd: ppp0:: ppp_terminate
Jan  7 21:01:49 testpoint accel-pppd: ppp0:: lcp_layer_finish
Jan  7 21:01:49 testpoint accel-pppd: ppp0:: lcp_layer_free
Jan  7 21:01:49 testpoint accel-pppd: ppp0:: auth_layer_free
Jan  7 21:01:49 testpoint accel-pppd: ppp0:: ccp_layer_free
Jan  7 21:01:49 testpoint accel-pppd: ppp0:: ipcp_layer_free
Jan  7 21:01:49 testpoint accel-pppd: ppp0:: ipv6cp_layer_free
Jan  7 21:01:49 testpoint accel-pppd: ppp0:: ppp destablished
Jan  7 21:01:49 testpoint accel-pppd: ppp0:: pptp: ppp finished
Jan  7 21:01:49 testpoint accel-pppd: ppp0:: send [PPTP Call-Disconnect-Notify <Call-ID 40> <Result 3> <Error 0> <Cause 0>]
Jan  7 21:01:49 testpoint accel-pppd: ppp0:: send [PPTP Stop-Ctrl-Conn-Request <Reason 0>]
Jan  7 21:01:49 testpoint accel-pppd: ppp0:: recv [PPTP Stop-Ctrl-Conn-Reply <Result 1> <Error 0>]
Jan  7 21:01:49 testpoint accel-pppd: ppp0:: pptp: disconnect
Jan  7 21:01:49 testpoint accel-pppd: ppp0:: disconnected

Далее - 619 у клиента.

 

2) Радиус запрос к серверу, который не отвечает, вызывает краш демона:

accel-pppd[23102]: segfault at 4c ip 7788c9a8 sp 75d95360 error 4 in libtriton.so[77889000+7000]

 

Конфиг - вот:

[modules]
path=/usr/lib/accel-ppp
log_syslog
pptp
auth_mschap_v1
auth_chap_md5
auth_pap
radius
sigchld
pppd_compat

[core]

[ppp]
verbose=1
min-mtu=1280
mtu=1400
mru=1400
ipv4=require
ipv6=deny
ipv6-intf-id=0:0:0:1
ipv6-peer-intf-id=0:0:0:2
ipv6-accept-peer-intf-id=1

[lcp]
echo-interval=3
echo-failure=5

[auth]

[pptp]
verbose=1

[pppoe]
interface=eth1
verbose=1

[l2tp]
verbose=1

[dns]

[radius]
nas-identifier=accel-ppp
nas-ip-address=192.168.x.x
gw-ip-address=192.168.100.1
server=192.168.x.y,password,auth-port=1812,acct-port=1813,req-limit=0,fail-time=0
dae-server=192.168.x.x:3799,password
verbose=1

[client-ip-range]
192.168.0.0/16
10.0.0.0/8

[ip-pool]
gw-ip-address=192.168.0.1
192.168.0.2-255
192.168.1.1-255,pool1
192.168.2.1-255,pool2
192.168.3.1-255,pool3
192.168.4.0/24

[log]
log-file=/var/log/accel-ppp/accel-ppp.log
log-emerg=/var/log/accel-ppp/emerg.log
log-fail-file=/var/log/accel-ppp/auth-fail.log
log-debug=/dev/stdout
syslog=accel-pppd,daemon
copy=1
level=7

[log-pgsql]
conninfo=user=log
log-table=log

[pppd-compat]
ip-up=/etc/ppp/ip-up
ip-down=/etc/ppp/ip-down
ip-change=/etc/ppp/ip-change
radattr-prefix=/var/run/radattr
verbose=1

[chap-secrets]
gw-ip-address=192.168.100.1

[tbf]

[cli]
telnet=127.0.0.1:2000
tcp=127.0.0.1:2001

[snmp]
master=0
agent-name=accel-ppp


[ipv6-pool]
fc00:0:1::/48,64
delegate=fc00:1::/36,48

[ipv6-dns]

[ipv6-dhcp]
verbose=1
pref-lifetime=604800
valid-lifetime=2592000
route-via-gw=1

 

P.S. Ловил на этапе конфигурирования в логах сегфолты в libgcc_s.so, и в ld-uClibc-0.9.32.so. С подвисанием процесса и отсутствием реакции на kill (и с помиранием с задержкой по kill -9). Вызваны были частично отсутствием /var/log/accel-ppp, частично - еще чем-то, что не заметил (возможно, наличием дохлых процессов в памяти). Собран для системы gcc 4.6.2 + uClibc 0.9.32. Может - глюки gcc+uClibc, может - где-то таки в коде проблема.

Изменено пользователем NiTr0

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Покопал еще демон. Таки поймал, когда он крашится. Это происходит в процессе общения с RADIUS сервером, если радиус покрашился

 

Jan  8 23:15:08 testpoint accel-pppd: pptp: new connection from 192.168.х.х
Jan  8 23:15:08 testpoint accel-pppd: :: recv [PPTP Start-Ctrl-Conn-Request <Version 1> <Framing 3> <Bearer 3> <Max-Chan 65535>]
Jan  8 23:15:08 testpoint accel-pppd: :: send [PPTP Start-Ctrl-Conn-Reply <Version 1> <Result 1> <Error 0> <Framing 3> <Bearer 3> <Max-Chan 1>]
Jan  8 23:15:09 testpoint accel-pppd: :: recv [PPTP Outgoing-Call-Request <Call-ID 0> <Call-Serial 0> <Min-BPS 2400> <Max-BPS 10000000> <Bearer 3> <Framing 3> <Window-Size 3> <Delay 0>]
Jan  8 23:15:09 testpoint accel-pppd: :: send [PPTP Outgoing-Call-Reply <Call-ID 19> <Peer-Call-ID 0> <Result 1> <Error 0> <Cause 0> <Speed 10000000> <Window-Size 3> <Delay 0> <Channel 0>]
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: connect: ppp0 <--> pptp(192.168.х.х)
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: lcp_layer_init
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: auth_layer_init
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: ccp_layer_init
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: ipcp_layer_init
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: ipv6cp_layer_init
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: ppp established
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: lcp_layer_start
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: send [LCP ConfReq id=1 <auth MSCHAP-v1> <mru 1400> <magic 7c83e458>]
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: recv [LCP ConfReq id=1 <mru 1400> < 2 6 0 0 0 0 > <magic a7f6cc33> <pcomp> <accomp>]
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: send [LCP ConfRej id=1  < 2 6 0 0 0 0 > <pcomp> <accomp>]
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: recv [LCP ConfAck id=1 <auth MSCHAP-v1> <mru 1400> <magic 7c83e458>]
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: recv [LCP ConfReq id=2 <mru 1400> <magic a7f6cc33>]
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: send [LCP ConfAck id=2 ]
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: lcp_layer_started
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: auth_layer_start
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: send [MSCHAP-v1 Challenge id=1 <cff9c7d14bedd4f>]
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: recv [LCP EchoReq id=0 <magic 33ccf6a7>]
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: send [LCP EchoRep id=0 <magic 58e4837c>]
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: recv [MSCHAP-v1 Response id=1 <000000000000000000000000>, <9e44bea2c739a2362985baa4f4f8df813248adc597690>, F=1, name="test"]
Jan  8 23:15:09 testpoint accel-pppd: ppp0:: send [RADIUS(1) Access-Request id=1 <User-Name "test"> <NAS-Identifier "accel-ppp"> <NAS-IP-Address 192.168.х.у> <NAS-Port 0> <NAS-Port-Type Virtual> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "192.168.х.х"> <Called-Station-Id "10.255.0.х"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP-Response >]
Jan  8 23:15:12 testpoint accel-pppd: ppp0:: send [RADIUS(1) Access-Request id=1 <User-Name "test"> <NAS-Identifier "accel-ppp"> <NAS-IP-Address 192.168.х.у> <NAS-Port 0> <NAS-Port-Type Virtual> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "192.168.х.х"> <Called-Station-Id "10.255.0.х"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP-Response >]

Тут радиус крашится (из-за проблем в нем самом), и accel-ppp умирает следом, за компанию. Неплохо бы пофиксить...

Изменено пользователем NiTr0

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Тут радиус крашится (из-за проблем в нем самом), и accel-ppp умирает следом, за компанию. Неплохо бы пофиксить...
а coredump там заловить нельзя ? а то вслепую я ничего сделать не могу

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Попробую. Хотя для этого придется тащить gdb в дистр...

Проблема наблюдается на x86 системе с gcc 4.6.2 и uClibc, и не наблюдается на x86_64 с gcc 4.5.3 и glibc. Причем насчет причины краша - я даже немного ошибся, на проблемной системе accel крашится даже при запросе к неотвечающему серверу.

 

UPD:

втащил gdb. Имеем:

Program received signal SIGSEGV, Segmentation fault.
[switching to LWP 18750]
triton_context_unregister (ud=0x963c868) at /var/testpoint/LEAF-new/source/accel-ppp/accel-ppp/accel-pppd/triton/triton.c:336
336     /var/testpoint/LEAF-new/source/accel-ppp/accel-ppp/accel-pppd/triton/triton.c: No such file or directory.
       in /var/testpoint/LEAF-new/source/accel-ppp/accel-ppp/accel-pppd/triton/triton.c
(gdb) info args
ud = 0x963c868
(gdb) info locals
ctx = 0x0
call = <optimized out>
t = <optimized out>

 

 

Отключил оптимизацию (-O0), собрал, получил краш в следующем месте (гнусь похоже решил инлайны таки оформить функциями):

Program received signal SIGSEGV, Segmentation fault.
[switching to LWP 18904]
0x77713fb5 in list_empty (head=0x4c) at /var/testpoint/LEAF-new/source/accel-ppp/accel-ppp/accel-pppd/triton/list.h:140
140     /var/testpoint/LEAF-new/source/accel-ppp/accel-ppp/accel-pppd/triton/list.h: No such file or directory.
       in /var/testpoint/LEAF-new/source/accel-ppp/accel-ppp/accel-pppd/triton/list.h

 

Бэктрейс:

#0  0x77713fb5 in list_empty (head=0x4c) at /var/testpoint/LEAF-new/source/accel-ppp/accel-ppp/accel-pppd/triton/list.h:140
#1  0x77714ba1 in triton_context_unregister (ud=0xa06cc98) at /var/testpoint/LEAF-new/source/accel-ppp/accel-ppp/accel-pppd/triton/triton.c:336
#2  0x77456056 in req_wakeup (req=0xa06cc90) at /var/testpoint/LEAF-new/source/accel-ppp/accel-ppp/accel-pppd/radius/req.c:242
#3  0x774560e5 in rad_req_read (h=0xa06cca8) at /var/testpoint/LEAF-new/source/accel-ppp/accel-ppp/accel-pppd/radius/req.c:264
#4  0x77714602 in ctx_thread (ctx=0xa06cfb4) at /var/testpoint/LEAF-new/source/accel-ppp/accel-ppp/accel-pppd/triton/triton.c:218
#5  0x777143e7 in triton_thread (thread=0xa06cec0) at /var/testpoint/LEAF-new/source/accel-ppp/accel-ppp/accel-pppd/triton/triton.c:162
#6  0x776ff9e2 in ?? () from /lib/libpthread.so.0
#7  0x776f9af2 in clone () from /lib/libpthread.so.0

Изменено пользователем NiTr0

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Всем привет. Подскажите, как или что может влиять на стабильность конекта?

Есть ПК не важно где, в 5 метрах от сервера, в 2км (через 2-3 свитча), есть обрывы коннекта.

Ставишь роутер (любой с поддержкой пптп или л2тп) он держит коннект как положено сутки.

Тоже самое на ПК (только виндовс) коннект может рватся каждые 5-10-час и т.д.

По логам, сервер не получает ответ от клиента. Хотя связь норм, пинги норм ходят.

Такое происходит только в клиентских вланах, в влане где только сервера да свитчи, такого нет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Навскидку: коллизии хэшей на свичах?

Да и пптп тянуть вланом до браса... смысл?

Изменено пользователем NiTr0

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Всем привет. Подскажите, как или что может влиять на стабильность конекта?

Есть ПК не важно где, в 5 метрах от сервера, в 2км (через 2-3 свитча), есть обрывы коннекта.

Ставишь роутер (любой с поддержкой пптп или л2тп) он держит коннект как положено сутки.

Тоже самое на ПК (только виндовс) коннект может рватся каждые 5-10-час и т.д.

По логам, сервер не получает ответ от клиента. Хотя связь норм, пинги норм ходят.

Такое происходит только в клиентских вланах, в влане где только сервера да свитчи, такого нет.

подтверждаю, есть такая проблема, с хешами вроде проблем не должно быть, DES-3200-26, не более 200 маков на влан. До этого были брасы на mpd5, таких проблем не было, но accel намного интереснее. Готов предоставить любую интересующую по этому вопросу информацию.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

NiTr0, а лог проблемного коннекта не остался ?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

NiTr0 отдельного влана под пптп нет, есть влан на дом/два. И соединение рвется именно на win ПК.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

У меня складывается ощущение, что мрут управляющие интерфейсы.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

NiTr0, а лог проблемного коннекта не остался ?

Jan 12 12:47:11 testpoint accel-pppd: pptp: new connection from 192.168.x.x
Jan 12 12:47:11 testpoint accel-pppd: :: recv [PPTP Start-Ctrl-Conn-Request <Version 1> <Framing 3> <Bearer 3> <Max-Chan 65535>]
Jan 12 12:47:11 testpoint accel-pppd: :: send [PPTP Start-Ctrl-Conn-Reply <Version 1> <Result 1> <Error 0> <Framing 3> <Bearer 3> <Max-Chan 1>]
Jan 12 12:47:12 testpoint accel-pppd: :: recv [PPTP Outgoing-Call-Request <Call-ID 0> <Call-Serial 0> <Min-BPS 2400> <Max-BPS 10000000> <Bearer 3> <Framing 3> <Window-Size 3> <Delay 0>]
Jan 12 12:47:12 testpoint accel-pppd: :: send [PPTP Outgoing-Call-Reply <Call-ID 6> <Peer-Call-ID 0> <Result 1> <Error 0> <Cause 0> <Speed 10000000> <Window-Size 3> <Delay 0> <Channel 0>]
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: connect: ppp0 <--> pptp(192.168.x.x)
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: lcp_layer_init
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: auth_layer_init
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: ccp_layer_init
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: ipcp_layer_init
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: ipv6cp_layer_init
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: ppp established
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: lcp_layer_start
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: send [LCP ConfReq id=1 <auth MSCHAP-v1> <mru 1400> <magic 41a7c4c9>]
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: recv [LCP ConfReq id=1 <mru 1400> < 2 6 0 0 0 0 > <magic ccde548b> <pcomp> <accomp>]
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: send [LCP ConfRej id=1  < 2 6 0 0 0 0 > <pcomp> <accomp>]
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: recv [LCP ConfAck id=1 <auth MSCHAP-v1> <mru 1400> <magic 41a7c4c9>]
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: recv [LCP ConfReq id=2 <mru 1400> <magic ccde548b>]
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: send [LCP ConfAck id=2 ]
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: lcp_layer_started
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: auth_layer_start
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: send [MSCHAP-v1 Challenge id=1 <303a9a8a4612812>]
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: recv [LCP EchoReq id=0 <magic 8b54decc>]
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: send [LCP EchoRep id=0 <magic c9c4a741>]
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: recv [MSCHAP-v1 Response id=1 <000000000000000000000000>, <a27d16c3a9c714ab47b40c6f4a9bf9e6bb266c6f09419a>, F=1, name="test1"]
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: send [RADIUS(1) Access-Request id=1 <User-Name "test1"> <NAS-Identifier "accel-ppp"> <NAS-IP-Address 192.168.x.y> <NAS-Port 0> <NAS-Port-Type Virtual> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "192.168.x.x"> <Called-Station-Id "10.255.0.y"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP-Response >]
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: send [RADIUS(1) Access-Request id=1 <User-Name "test1"> <NAS-Identifier "accel-ppp"> <NAS-IP-Address 192.168.x.y> <NAS-Port 0> <NAS-Port-Type Virtual> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "192.168.x.x"> <Called-Station-Id "10.255.0.y"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP-Response >]
Jan 12 12:47:12 testpoint accel-pppd: ppp0:: send [RADIUS(1) Access-Request id=1 <User-Name "test1"> <NAS-Identifier "accel-ppp"> <NAS-IP-Address 192.168.x.y> <NAS-Port 0> <NAS-Port-Type Virtual> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "192.168.x.x"> <Called-Station-Id "10.255.0.y"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP-Response >]
Jan 12 12:47:12 testpoint kernel: [137862.637583] accel-pppd[19925]: segfault at 4c ip 77763fb5 sp 75c7a348 error 4 in libtriton.so[77761000+8000]

 

Со стороны клиента:

Using interface ppp1
Connect: ppp1 <--> /dev/pts/16
sent [LCP ConfReq id=0x1 <mru 1400> <asyncmap 0x0> <magic 0xccde548b> <pcomp> <accomp>]
rcvd [LCP ConfReq id=0x1 <auth chap MS> <mru 1400> <magic 0x41a7c4c9>]
sent [LCP ConfAck id=0x1 <auth chap MS> <mru 1400> <magic 0x41a7c4c9>]
rcvd [LCP ConfRej id=0x1 <asyncmap 0x0> <pcomp> <accomp>]
sent [LCP ConfReq id=0x2 <mru 1400> <magic 0xccde548b>]
rcvd [LCP ConfAck id=0x2 <mru 1400> <magic 0xccde548b>]
sent [LCP EchoReq id=0x0 magic=0xccde548b]
rcvd [CHAP Challenge id=0x1 <303a9a08a4612812>, name = ""]
sent [CHAP Response id=0x1 <000000000000000000000000000000000000000000000000a27d16c3a9c714ab470b40c6f4a9bf9e6bb266c6f009419a01>, name = "test1"]
rcvd [LCP EchoRep id=0x0 magic=0x41a7c4c9]
Script pptp 10.255.0.y --nolaunchpppd --nobuffer unit 1 finished (pid 2289), status = 0x0
Modem hangup
Connection terminated.

 

Что характерно, под gdb краш идет на 2-й попытке коннекта, без него - на первой.

 

NiTr0 отдельного влана под пптп нет, есть влан на дом/два.

Накой все вланы тащить на пптп? Есть же отдельный тазик-маршрутизатор? Или брас+маршрутизатор - 2 в 1?

Изменено пользователем NiTr0

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

NiTr0, не, Вы меня не так поняли, все вланы идут до маршрутизатора и на нем рулится, а на пптп влан 1...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

NiTr0, наверно будет проще если я сам у себя посмотрю, где качнуть этот leaf ?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Помогите - Не создается ingress

tc qdisc show ingress
qdisc mq 0: dev eth0 root
qdisc mq 0: dev eth1 root
qdisc tbf 1: dev ppp0 root refcnt 2 rate 40000Kbit burst 7500000b lat 50.0ms

 

ppp0: 0040de0f5355637c: tbf: error occured, ingress is not installed

 

Module                  Size  Used by
sch_ingress             2072  0
sch_tbf                 4483  1
pptp                   14242  2
pppox                   1906  1 pptp
ppp_generic            18297  6 pptp,pppox
slhc                    4963  1 ppp_generic
gre                     1739  1 pptp

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Планируется ли функционал именованных IP-пулов для динамической выдачи?

commit 8f8c2e0deb97d434cee9a03ac7411ee9e37ac542
Author: Kozlov Dmitry <xeb@mail.ru>
Date:   Tue Dec 27 12:23:09 2011 +0400

radius, ippool: implemented Framed-Pool attribute

в конфиг:

[ip-pool]

192.168.1.0/24,pool1

192.168.2.0/24,pool2

и т.д.

Огромное спасибо. А что на счёт возможности объединения нескольких сетей в один пул, задания исключений, задания пула диапазоном, а не CIDR-нотацией?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

NiTr0, leaf качнул из гита, сборочными файлами для accel-ppp и gdb не поделишься ?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

ILICH, а при сборке ни на что не ругалось ?

Нет не ругалось

А... в ядре в ветке QoS and/or fair queueing все навключал модулями

стало так

act_police              4352  1
cls_u32                 7340  1
sch_tbf                 4483  1
pptp                   14242  2
pppox                   1906  1 pptp
ppp_generic            18297  6 pptp,pppox
slhc                    4963  1 ppp_generic
gre                     1739  1 pptp
sch_ingress             2072  1

 

И заработало!

Может кому пригодится.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

NiTr0, leaf качнул из гита, сборочными файлами для accel-ppp и gdb не поделишься ?

Оно есть в ветке next.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

собрали accel-ppp-1.4.0 командой cmake -DSHAPER=TRUE -DCPACK_TYPE=Debian6 -DCMAKE_INSTALL_PREFIX=/usr .. на Debian sqeeze, сервер работает, но встроенный tbf шейпер не режет скорость, пробывал по разному но скорость не режет, в чём проблема?

[tbf]

vendor=Cisco

attr=Cisco-AVPair

#attr=Filter-Id

#down-burst-factor=0.1

#up-burst-factor=1.0

#latency=50

#attr-down=PPPD-Downstream-Speed-Limit

#attr-up=PPPD-Upstream-Speed-Limit

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Какие RADIUS атрибуты отсылаете? Должно быть примерно такое:9f398d169765891.jpg

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Program received signal SIGSEGV, Segmentation fault.
[switching to LWP 18904]
0x77713fb5 in list_empty (head=0x4c) at /var/testpoint/LEAF-new/source/accel-ppp/accel-ppp/accel-pppd/triton/list.h:140 
140 	/var/testpoint/LEAF-new/source/accel-ppp/accel-ppp/accel-pppd/triton/list.h: No such file or directory.
       	in /var/testpoint/LEAF-new/source/accel-ppp/accel-ppp/accel-pppd/triton/list.h 

исправлено

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.