Jump to content
Калькуляторы

а в чём проблема заменить

$username = $ARGV[1];

на

$username = $ENV{'PEERNAME'}

Share this post


Link to post
Share on other sites

$username = $ENV{'PEERNAME'}

Я бы рад, но у меня это не работает. Пусто. В чем причина не могу найти. Приноровился выдергивать уже из accel-cmd.

Share this post


Link to post
Share on other sites

Здравствуйте.

 

Когда примерно выйдет stable версия?

А то всякие фичи добавляете, но stable ни разу не видел

Share this post


Link to post
Share on other sites

ichthyandr

Есть, работает вполне себе happy. До 2к онлайн, трафика 1.5G в каждую сторону.

Схема vlan-per-user.

Untitled.png

Share this post


Link to post
Share on other sites

ichthyandr

Есть, работает вполне себе happy. До 2к онлайн, трафика 1.5G в каждую сторону.

Схема vlan-per-user.

post-69622-012986300 1396595061_thumb.png

спасиб, это хорошие новости, на каком железе, если не секрет? в корку не выпадает?

сейчас думаем ipoe запустить, стоим перед сложным выбором - или asr1006 взять и сделать все в одном ящике (bras+bgp) или же пойти

софтовым путем. В случае факапа asr-ку сразу не найти ...

Share this post


Link to post
Share on other sites

ichthyandr

Железо простое, HP G6 с 1х L5639 и 4мя сетевками гиговыми. Работает абсолютно стабильно.

Share this post


Link to post
Share on other sites

Есть проблемка с балансировкой количества PPPoE сессий на 2х NAS с ACCEL-PPP.

Дело в том, что один из NAS не набирает более +-200 сессий, в то время как другой в то же время принимает +-600 сессий.

Если я правильно понял из мана к конфигу, то можно это уровнять параметром "pado-delay=0,100:100,200:200,-1:500"

По идее должна быть задержка ответа pado от 0 до 100 сессий - 0, от 100 до 200 -100... с выше 500 не принимать подключения, правильно ли я понял?

И еще, если внести в конфиге изменения параметра pado-delay, сработает ли reload, или нужно рестартить ACCEL ?

Share this post


Link to post
Share on other sites

Если я правильно понял из мана к конфигу, то можно это уровнять параметром "pado-delay

 

Да, балансировку можно выравнивать с помощью pado-delay

Share this post


Link to post
Share on other sites

Добрый день, поставил accel-ppp 1.7.3 с sourceforge

 

Но появилась проблема, пользователи коннектятся с 5-1X раза.

После перезагрузки сервера все нормально некоторое время. Потом снова.

 

Centos 6.5

Linux bsr01.XXXXXX.net 2.6.32-431.el6.x86_64 #1 SMP Fri Nov 22 03:15:09 UTC 2013 x86_64 x86_64 x86_64 GNU/Linux

 

[2014-04-06 14:26:59]:  info: ppp437: connect: ppp437 <--> pppoe(eth1.201:f8:c0:91:18:81:83)
[2014-04-06 14:26:59]: debug: ppp437: lcp_layer_init
[2014-04-06 14:26:59]: debug: ppp437: auth_layer_init
[2014-04-06 14:26:59]: debug: ppp437: ccp_layer_init
[2014-04-06 14:26:59]: debug: ppp437: ipcp_layer_init
[2014-04-06 14:26:59]: debug: ppp437: ipv6cp_layer_init
[2014-04-06 14:26:59]: debug: ppp437: ppp established
[2014-04-06 14:26:59]: debug: ppp437: lcp_layer_start
[2014-04-06 14:26:59]:  info: ppp437: send [LCP ConfReq id=1 <auth MSCHAP-v2> <magic 78bb805a> <mru 1480>]
[2014-04-06 14:27:04]: debug: ppp437: fsm timeout
[2014-04-06 14:27:04]:  info: ppp437: send [LCP ConfReq id=1 <auth MSCHAP-v2> <magic 78bb805a> <mru 1480>]
[2014-04-06 14:27:04]:  info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>]
[2014-04-06 14:27:04]:  info: ppp437: send [LCP ConfAck id=1 ]
[2014-04-06 14:27:04]:  info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>]
[2014-04-06 14:27:04]:  info: ppp437: send [LCP ConfAck id=1 ]
[2014-04-06 14:27:04]:  info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>]
[2014-04-06 14:27:04]:  info: ppp437: send [LCP ConfAck id=1 ]
[2014-04-06 14:27:04]:  info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>]
[2014-04-06 14:27:04]:  info: ppp437: send [LCP ConfAck id=1 ]
[2014-04-06 14:27:04]:  info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>]
[2014-04-06 14:27:04]:  info: ppp437: send [LCP ConfAck id=1 ]
[2014-04-06 14:27:04]:  info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>]
[2014-04-06 14:27:04]:  info: ppp437: send [LCP ConfAck id=1 ]
[2014-04-06 14:27:04]:  info: ppp437: recv [LCP ConfAck id=1 <auth MSCHAP-v2> <magic 78bb805a> <mru 1480>]
[2014-04-06 14:27:04]: debug: ppp437: lcp_layer_started
[2014-04-06 14:27:04]: debug: ppp437: auth_layer_start
[2014-04-06 14:27:04]:  info: ppp437: send [MSCHAP-v2 Challenge id=1 <6c583316d56069e9a6a621b363a8bdcc>]
[2014-04-06 14:27:04]: debug: ppp437: recv [LCP EchoReq id=0 <magic 50354550>]
[2014-04-06 14:27:04]: debug: ppp437: send [LCP EchoRep id=0 <magic 5a80bb78>]
[2014-04-06 14:27:09]:  warn: ppp437: mschap-v2: timeout
[2014-04-06 14:27:09]:  info: ppp437: send [MSCHAP-v2 Challenge id=1 <6c583316d56069e9a6a621b363a8bdcc>]
[2014-04-06 14:27:09]:  info: ppp437: recv [MSCHAP-v2 Response id=1 <244c7612562d7d22b2ba7e617332b>, <57e0b2757c9fa6babdaf05ca35f5f2a8e3661e320c37>, F=0, name="e1025034"]
[2014-04-06 14:27:09]:  info: ppp437: send [RADIUS(1) Access-Request id=1 <User-Name "e1025034"> <NAS-Port 437> <NAS-Port-Type Virtual> <Tunnel-Type L2TP> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "eth1.201:f8:c0:91:18:81:83"> <Called-Station-Id "eth1.201:68:05:ca:22:2f:2a"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP2-Response >]
[2014-04-06 14:27:09]:  info: ppp437: recv [RADIUS(1) Access-Accept id=1 <Acct-Interim-Interval 900> <Framed-Protocol PPP> <PPPD-Upstream-Speed-Limit 5120000><Microsoft MS-CHAP2-Success > <Framed-IP-Address 10.2.5.34> <PPPD-Downstream-Speed-Limit 5120000> <Framed-Compression Van-Jacobson-TCP-IP>]
[2014-04-06 14:27:09]:  info: ppp437: send [MSCHAP-v2 Success id=1 "S=83157FAD4B75EE9AC8B830A22400DBCDCF6A5839 M=Authentication succeeded"]
[2014-04-06 14:27:09]:  info: ppp437: recv [MSCHAP-v2 Response id=1 <244c7612562d7d22b2ba7e617332b>, <57e0b2757c9fa6babdaf05ca35f5f2a8e3661e320c37>, F=0, name="e1025034"]
[2014-04-06 14:27:09]:  info: ppp437: send [RADIUS(1) Access-Request id=2 <User-Name "e1025034"> <NAS-Port 437> <NAS-Port-Type Virtual> <Tunnel-Type L2TP> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "eth1.201:f8:c0:91:18:81:83"> <Called-Station-Id "eth1.201:68:05:ca:22:2f:2a"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP2-Response >]
[2014-04-06 14:27:09]:  info: ppp437: recv [RADIUS(1) Access-Accept id=2 <Acct-Interim-Interval 900> <Framed-Protocol PPP> <PPPD-Upstream-Speed-Limit 5120000><Microsoft MS-CHAP2-Success > <Framed-IP-Address 10.2.5.34> <PPPD-Downstream-Speed-Limit 5120000> <Framed-Compression Van-Jacobson-TCP-IP>]
[2014-04-06 14:27:09]:  info: ppp437: send [MSCHAP-v2 Success id=1 "S=83157FAD4B75EE9AC8B830A22400DBCDCF6A5839 M=Authentication succeeded"]
[2014-04-06 14:27:09]:  info: ppp437: recv [MSCHAP-v2 Response id=1 <264502f518c6da6711b113cd05a84dd>, <cbec5c3d144d09ac03a746e7df175851b8ca385884fa48a>, F=0, name="e1025034"]
[2014-04-06 14:27:09]:  info: ppp437: send [RADIUS(1) Access-Request id=3 <User-Name "e1025034"> <NAS-Port 437> <NAS-Port-Type Virtual> <Tunnel-Type L2TP> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "eth1.201:f8:c0:91:18:81:83"> <Called-Station-Id "eth1.201:68:05:ca:22:2f:2a"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP2-Response >]
[2014-04-06 14:27:09]:  info: ppp437: recv [RADIUS(1) Access-Accept id=3 <Acct-Interim-Interval 900> <Framed-Protocol PPP> <PPPD-Upstream-Speed-Limit 5120000><Microsoft MS-CHAP2-Success > <Framed-IP-Address 10.2.5.34> <PPPD-Downstream-Speed-Limit 5120000> <Framed-Compression Van-Jacobson-TCP-IP>]
[2014-04-06 14:27:09]:  info: ppp437: send [MSCHAP-v2 Success id=1 "S=06DB8E70E150BDA6632303A1FC573958F4B02DE7 M=Authentication succeeded"]
[2014-04-06 14:27:09]:  info: ppp437: recv [LCP TermReq id=2]
[2014-04-06 14:27:09]:  info: ppp437: send [LCP TermAck id=2]
[2014-04-06 14:27:09]: debug: ppp437: ppp_terminate
[2014-04-06 14:27:09]: debug: ppp437: lcp_layer_finish
[2014-04-06 14:27:09]: debug: ppp437: auth_layer_finish
[2014-04-06 14:27:09]: debug: ppp437: auth_layer_finished
[2014-04-06 14:27:14]: debug: ppp437: fsm timeout
[2014-04-06 14:27:14]: debug: ppp437: lcp_layer_finished
[2014-04-06 14:27:14]: debug: ppp437: lcp_layer_free
[2014-04-06 14:27:14]: debug: ppp437: auth_layer_free
[2014-04-06 14:27:14]: debug: ppp437: ccp_layer_free
[2014-04-06 14:27:14]: debug: ppp437: ipcp_layer_free
[2014-04-06 14:27:14]: debug: ppp437: ipv6cp_layer_free
[2014-04-06 14:27:14]: debug: ppp437: ppp destablished
[2014-04-06 14:27:14]: debug: ppp437: pppoe: ppp finished

 

[modules]
log_file
pppoe
radius
pppd_compat
sigchld
auth_mschap_v2
auth_mschap_v1
auth_chap_md5
auth_pap
[core]
log-error=/var/log/accel-ppp/core.log
thread-count=4
verbose=5

[ppp]
verbose=5
min-mtu=1280
mtu=1480
mru=1480
ccp=0
#sid-case=upper
#check-ip=1
single-session=replace
mppe=deny
ipv4=require
ipv6=deny
ipv6-intf-id=0:0:0:1
ipv6-peer-intf-id=0:0:0:2
ipv6-accept-peer-intf-id=1
lcp-echo-interval=10
#lcp-echo-failure=3
lcp-echo-timeout=30


[pppoe]
interface=eth1.201
...........
interface=eth1.1701
service-name=XXXXX
pado-delay=0
pado-delay=0,100:100,200:200,-1:500
ifname-in-sid=both
#tr101=0
padi-limit=0
mppe=deny
verbose=5

[dns]
dns1=X.X.X.X
[radius]
dictionary=/usr/share/accel-ppp/radius/dictionary
gw-ip-address=10.205.10.64
server=XX.XX.XX.XX,asdas,auth-port=1812,acct-port=1813,req-limit=0,fail-time=0
verbose=5
timeout=5
max-try=300
acct-timeout=0

Edited by Tanatos

Share this post


Link to post
Share on other sites

Привет всем. Подскажите пожалуйста, возможно ли модернизировть/настроить встроенный шейпер (строим на ipoe), чтобы разделить скорость по определённым классам трафика или например на определённый ip адрес во внутренней сети. Например скорость в Интернет - 1 мегабит, скорость на ресурс - 7 бегабит (или к примеру в три раза больше вкорости в интернет? Как такое организовать, где почитать информацию по данным настройкам.

Как я понял, импользуется шейпер HTB. Что-то подобное подходит - http://ras.pl.ua/howto_configure_htb_init_on_office_router/ или нет? Заранее спасибо за помощь.

Edited by Briznet

Share this post


Link to post
Share on other sites
Подскажите пожалуйста, возможно ли модернизировть/настроить встроенный шейпер (строим на ipoe), чтобы разделить скорость по определённым классам трафика
строить сложные схемы встроенным шейпером (на С) очень сложно и негибко, поэтому встроенный шейпер предлагает только простой базовый функционал - резать скорость целиком на интерфейсе без классов. Для более изошрённых схем предполагается использовать скрипты ip-up/ip-down где вы можете реализовать любую схему. У вас есть доступ к файлу radattr из которого можно считать параметры и настроить соотвествующую схему шейпера. Как это осуществить конкретно - уже совсем другая тема.

Share this post


Link to post
Share on other sites
Но появилась проблема, пользователи коннектятся с 5-1X раза.
судя по логам по пути до клиента очень большая потеря пакетов, в таком окружении ppp на accel нормально работать не будет

Share this post


Link to post
Share on other sites

xeb

И все же проблемы с lua остались :(

Accel проработал примерно месяц без падений. Сегодня решили его перезапустить-добавить интерфейсов.

В результате опять начались падания с одним и тем же backtrace:

 

 

0 0x00007fcbf3b2dc35 in raise () from /lib64/libc.so.6

#1 0x00007fcbf3b2efda in abort () from /lib64/libc.so.6

#2 0x000000000042384d in sigsegv (num=11) at /var/git/git/code/accel-pppd/main.c:203

#3 <signal handler called>

#4 0x00007fcbf30941cc in lua_close () from /usr/lib64/liblua.so.5

#5 0x00007fcbf4937d59 in __nptl_deallocate_tsd () from /lib64/libpthread.so.0

#6 0x00007fcbf4937f34 in start_thread () from /lib64/libpthread.so.0

#7 0x00007fcbf3be356d in clone () from /lib64/libc.so.6

 

 

В результате опять перевел авторизацию на username=ifname и всё заработало стабильно.

При для дебага писал username в отдельный txt-Файл. Никаких аномалий в нем замечено не было, opt82 отрабатывался на "ура".

Share this post


Link to post
Share on other sites
И все же проблемы с lua остались
пробуй свежий комит

да, и глянь grep 'ipoe: lua:' accel-ppp.log

Share this post


Link to post
Share on other sites
При авторизации <NAS-Port 7>

а при аккаунтинге <NAS-Port 190>

По идее так не должно быть.

commit 33bdf4071ab9db915aa069ef69176f3e4b57484e
Author: Dmitry Kozlov <xeb@mail.ru>
Date:   Fri Apr 11 13:04:54 2014 +0400

ipoe: early allocate interface for shared vlans (prevents different values of NAS-Port in Access-Request and Account-Request)

 

Share this post


Link to post
Share on other sites
При авторизации <NAS-Port 7>

а при аккаунтинге <NAS-Port 190>

По идее так не должно быть.

commit 33bdf4071ab9db915aa069ef69176f3e4b57484e
Author: Dmitry Kozlov <xeb@mail.ru>
Date:   Fri Apr 11 13:04:54 2014 +0400

ipoe: early allocate interface for shared vlans (prevents different values of NAS-Port in Access-Request and Account-Request)

Спасибо

Share this post


Link to post
Share on other sites

ichthyandr

Есть, работает вполне себе happy. До 2к онлайн, трафика 1.5G в каждую сторону.

Схема vlan-per-user.

post-69622-012986300 1396595061_thumb.png

А час-пик какова нагрузка на CPU по ядрам при 1.5 гб и 1800 онлайн ?

Share this post


Link to post
Share on other sites

А час-пик какова нагрузка на CPU по ядрам при 1.5 гб и 1800 онлайн ?

Где-то так

[root@ipoe1 sa]# top
top - 20:53:35 up 2 days,  7:01,  1 user,  load average: 1.24, 0.88, 0.87
Tasks: 126 total,   2 running, 124 sleeping,   0 stopped,   0 zombie
Cpu0  :  0.5%us,  4.0%sy,  0.0%ni, 60.0%id,  0.0%wa,  0.0%hi, 35.5%si,  0.0%st
Cpu1  :  2.6%us,  3.1%sy,  0.0%ni, 61.9%id,  0.0%wa,  0.0%hi, 32.5%si,  0.0%st
Cpu2  :  1.0%us,  2.0%sy,  0.0%ni, 59.0%id,  0.0%wa,  0.0%hi, 38.0%si,  0.0%st
Cpu3  :  1.0%us,  4.1%sy,  0.0%ni, 57.1%id,  0.0%wa,  0.0%hi, 37.8%si,  0.0%st
Cpu4  :  4.3%us,  2.7%sy,  0.0%ni, 61.8%id,  0.0%wa,  0.0%hi, 31.2%si,  0.0%st
Cpu5  :  1.6%us,  2.1%sy,  0.0%ni, 63.3%id,  0.0%wa,  0.0%hi, 33.0%si,  0.0%st
Mem:   6105260k total,  1426084k used,  4679176k free,   220628k buffers
Swap:  8191992k total,        0k used,  8191992k free,   462184k cached

 PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND
27541 root      20   0 2542m  54m 1888 S 44.8  0.9   1049:41 accel-pppd
1964 named     20   0  553m 144m 3028 S  7.5  2.4 143:57.76 named
  11 root      20   0     0    0    0 S  1.5  0.0  14:23.54 ksoftirqd/1
  23 root      20   0     0    0    0 R  1.5  0.0  14:07.76 ksoftirqd/4
   3 root      20   0     0    0    0 S  1.0  0.0  13:43.93 ksoftirqd/0
  15 root      20   0     0    0    0 S  1.0  0.0  14:05.92 ksoftirqd/2
  19 root      20   0     0    0    0 S  1.0  0.0  15:45.98 ksoftirqd/3
  27 root      20   0     0    0    0 S  1.0  0.0  14:33.05 ksoftirqd/5

Трафика правда поменьше, сейчас 1.2G/0.6G.

[root@ipoe1 sa]# accel-cmd show stat
ipoe:
 active: 1793

IMHO бОльшую часть загрузки еще дают бортовые броадкомы BCM5709(2х2 в бонде), все никак руки не дойдут заменить их на что-то приличное.

Edited by kayot

Share this post


Link to post
Share on other sites

интересно, а чем accel хзанимает, что так много ест? arp? lease-time, acct-period?

Share this post


Link to post
Share on other sites

Меня этот вопрос тоже сильно занимает, xeb когда-то сказал - норма :)

lease-time 5 минут, interim 5 минут, arp используется. Что с арпом, что без - разницы нет.

Share this post


Link to post
Share on other sites
интересно, а чем accel хзанимает, что так много ест?
гляньте perf'ом, я не знаю

Share this post


Link to post
Share on other sites

xeb спасибо.

 

пробуй свежий комит

Утянул новый комит - пробую.

 

да, и глянь grep 'ipoe: lua:' accel-ppp.log

В логах пусто.

Share this post


Link to post
Share on other sites

Подскажите, посмотрел полазил и не нашел, возможно ли в cli show sessions , увидеть tr-101 (adsl-agent-circuit-id)?

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now