Перейти к содержимому
Калькуляторы

а в чём проблема заменить

$username = $ARGV[1];

на

$username = $ENV{'PEERNAME'}

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

$username = $ENV{'PEERNAME'}

Я бы рад, но у меня это не работает. Пусто. В чем причина не могу найти. Приноровился выдергивать уже из accel-cmd.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Здравствуйте.

 

Когда примерно выйдет stable версия?

А то всякие фичи добавляете, но stable ни разу не видел

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

есть success story у кого IPoE и на каких нагрузках?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

ichthyandr

Есть, работает вполне себе happy. До 2к онлайн, трафика 1.5G в каждую сторону.

Схема vlan-per-user.

Untitled.png

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

ichthyandr

Есть, работает вполне себе happy. До 2к онлайн, трафика 1.5G в каждую сторону.

Схема vlan-per-user.

post-69622-012986300 1396595061_thumb.png

спасиб, это хорошие новости, на каком железе, если не секрет? в корку не выпадает?

сейчас думаем ipoe запустить, стоим перед сложным выбором - или asr1006 взять и сделать все в одном ящике (bras+bgp) или же пойти

софтовым путем. В случае факапа asr-ку сразу не найти ...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

ichthyandr

Железо простое, HP G6 с 1х L5639 и 4мя сетевками гиговыми. Работает абсолютно стабильно.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Есть проблемка с балансировкой количества PPPoE сессий на 2х NAS с ACCEL-PPP.

Дело в том, что один из NAS не набирает более +-200 сессий, в то время как другой в то же время принимает +-600 сессий.

Если я правильно понял из мана к конфигу, то можно это уровнять параметром "pado-delay=0,100:100,200:200,-1:500"

По идее должна быть задержка ответа pado от 0 до 100 сессий - 0, от 100 до 200 -100... с выше 500 не принимать подключения, правильно ли я понял?

И еще, если внести в конфиге изменения параметра pado-delay, сработает ли reload, или нужно рестартить ACCEL ?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Если я правильно понял из мана к конфигу, то можно это уровнять параметром "pado-delay

 

Да, балансировку можно выравнивать с помощью pado-delay

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Добрый день, поставил accel-ppp 1.7.3 с sourceforge

 

Но появилась проблема, пользователи коннектятся с 5-1X раза.

После перезагрузки сервера все нормально некоторое время. Потом снова.

 

Centos 6.5

Linux bsr01.XXXXXX.net 2.6.32-431.el6.x86_64 #1 SMP Fri Nov 22 03:15:09 UTC 2013 x86_64 x86_64 x86_64 GNU/Linux

 

[2014-04-06 14:26:59]:  info: ppp437: connect: ppp437 <--> pppoe(eth1.201:f8:c0:91:18:81:83)
[2014-04-06 14:26:59]: debug: ppp437: lcp_layer_init
[2014-04-06 14:26:59]: debug: ppp437: auth_layer_init
[2014-04-06 14:26:59]: debug: ppp437: ccp_layer_init
[2014-04-06 14:26:59]: debug: ppp437: ipcp_layer_init
[2014-04-06 14:26:59]: debug: ppp437: ipv6cp_layer_init
[2014-04-06 14:26:59]: debug: ppp437: ppp established
[2014-04-06 14:26:59]: debug: ppp437: lcp_layer_start
[2014-04-06 14:26:59]:  info: ppp437: send [LCP ConfReq id=1 <auth MSCHAP-v2> <magic 78bb805a> <mru 1480>]
[2014-04-06 14:27:04]: debug: ppp437: fsm timeout
[2014-04-06 14:27:04]:  info: ppp437: send [LCP ConfReq id=1 <auth MSCHAP-v2> <magic 78bb805a> <mru 1480>]
[2014-04-06 14:27:04]:  info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>]
[2014-04-06 14:27:04]:  info: ppp437: send [LCP ConfAck id=1 ]
[2014-04-06 14:27:04]:  info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>]
[2014-04-06 14:27:04]:  info: ppp437: send [LCP ConfAck id=1 ]
[2014-04-06 14:27:04]:  info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>]
[2014-04-06 14:27:04]:  info: ppp437: send [LCP ConfAck id=1 ]
[2014-04-06 14:27:04]:  info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>]
[2014-04-06 14:27:04]:  info: ppp437: send [LCP ConfAck id=1 ]
[2014-04-06 14:27:04]:  info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>]
[2014-04-06 14:27:04]:  info: ppp437: send [LCP ConfAck id=1 ]
[2014-04-06 14:27:04]:  info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>]
[2014-04-06 14:27:04]:  info: ppp437: send [LCP ConfAck id=1 ]
[2014-04-06 14:27:04]:  info: ppp437: recv [LCP ConfAck id=1 <auth MSCHAP-v2> <magic 78bb805a> <mru 1480>]
[2014-04-06 14:27:04]: debug: ppp437: lcp_layer_started
[2014-04-06 14:27:04]: debug: ppp437: auth_layer_start
[2014-04-06 14:27:04]:  info: ppp437: send [MSCHAP-v2 Challenge id=1 <6c583316d56069e9a6a621b363a8bdcc>]
[2014-04-06 14:27:04]: debug: ppp437: recv [LCP EchoReq id=0 <magic 50354550>]
[2014-04-06 14:27:04]: debug: ppp437: send [LCP EchoRep id=0 <magic 5a80bb78>]
[2014-04-06 14:27:09]:  warn: ppp437: mschap-v2: timeout
[2014-04-06 14:27:09]:  info: ppp437: send [MSCHAP-v2 Challenge id=1 <6c583316d56069e9a6a621b363a8bdcc>]
[2014-04-06 14:27:09]:  info: ppp437: recv [MSCHAP-v2 Response id=1 <244c7612562d7d22b2ba7e617332b>, <57e0b2757c9fa6babdaf05ca35f5f2a8e3661e320c37>, F=0, name="e1025034"]
[2014-04-06 14:27:09]:  info: ppp437: send [RADIUS(1) Access-Request id=1 <User-Name "e1025034"> <NAS-Port 437> <NAS-Port-Type Virtual> <Tunnel-Type L2TP> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "eth1.201:f8:c0:91:18:81:83"> <Called-Station-Id "eth1.201:68:05:ca:22:2f:2a"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP2-Response >]
[2014-04-06 14:27:09]:  info: ppp437: recv [RADIUS(1) Access-Accept id=1 <Acct-Interim-Interval 900> <Framed-Protocol PPP> <PPPD-Upstream-Speed-Limit 5120000><Microsoft MS-CHAP2-Success > <Framed-IP-Address 10.2.5.34> <PPPD-Downstream-Speed-Limit 5120000> <Framed-Compression Van-Jacobson-TCP-IP>]
[2014-04-06 14:27:09]:  info: ppp437: send [MSCHAP-v2 Success id=1 "S=83157FAD4B75EE9AC8B830A22400DBCDCF6A5839 M=Authentication succeeded"]
[2014-04-06 14:27:09]:  info: ppp437: recv [MSCHAP-v2 Response id=1 <244c7612562d7d22b2ba7e617332b>, <57e0b2757c9fa6babdaf05ca35f5f2a8e3661e320c37>, F=0, name="e1025034"]
[2014-04-06 14:27:09]:  info: ppp437: send [RADIUS(1) Access-Request id=2 <User-Name "e1025034"> <NAS-Port 437> <NAS-Port-Type Virtual> <Tunnel-Type L2TP> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "eth1.201:f8:c0:91:18:81:83"> <Called-Station-Id "eth1.201:68:05:ca:22:2f:2a"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP2-Response >]
[2014-04-06 14:27:09]:  info: ppp437: recv [RADIUS(1) Access-Accept id=2 <Acct-Interim-Interval 900> <Framed-Protocol PPP> <PPPD-Upstream-Speed-Limit 5120000><Microsoft MS-CHAP2-Success > <Framed-IP-Address 10.2.5.34> <PPPD-Downstream-Speed-Limit 5120000> <Framed-Compression Van-Jacobson-TCP-IP>]
[2014-04-06 14:27:09]:  info: ppp437: send [MSCHAP-v2 Success id=1 "S=83157FAD4B75EE9AC8B830A22400DBCDCF6A5839 M=Authentication succeeded"]
[2014-04-06 14:27:09]:  info: ppp437: recv [MSCHAP-v2 Response id=1 <264502f518c6da6711b113cd05a84dd>, <cbec5c3d144d09ac03a746e7df175851b8ca385884fa48a>, F=0, name="e1025034"]
[2014-04-06 14:27:09]:  info: ppp437: send [RADIUS(1) Access-Request id=3 <User-Name "e1025034"> <NAS-Port 437> <NAS-Port-Type Virtual> <Tunnel-Type L2TP> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "eth1.201:f8:c0:91:18:81:83"> <Called-Station-Id "eth1.201:68:05:ca:22:2f:2a"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP2-Response >]
[2014-04-06 14:27:09]:  info: ppp437: recv [RADIUS(1) Access-Accept id=3 <Acct-Interim-Interval 900> <Framed-Protocol PPP> <PPPD-Upstream-Speed-Limit 5120000><Microsoft MS-CHAP2-Success > <Framed-IP-Address 10.2.5.34> <PPPD-Downstream-Speed-Limit 5120000> <Framed-Compression Van-Jacobson-TCP-IP>]
[2014-04-06 14:27:09]:  info: ppp437: send [MSCHAP-v2 Success id=1 "S=06DB8E70E150BDA6632303A1FC573958F4B02DE7 M=Authentication succeeded"]
[2014-04-06 14:27:09]:  info: ppp437: recv [LCP TermReq id=2]
[2014-04-06 14:27:09]:  info: ppp437: send [LCP TermAck id=2]
[2014-04-06 14:27:09]: debug: ppp437: ppp_terminate
[2014-04-06 14:27:09]: debug: ppp437: lcp_layer_finish
[2014-04-06 14:27:09]: debug: ppp437: auth_layer_finish
[2014-04-06 14:27:09]: debug: ppp437: auth_layer_finished
[2014-04-06 14:27:14]: debug: ppp437: fsm timeout
[2014-04-06 14:27:14]: debug: ppp437: lcp_layer_finished
[2014-04-06 14:27:14]: debug: ppp437: lcp_layer_free
[2014-04-06 14:27:14]: debug: ppp437: auth_layer_free
[2014-04-06 14:27:14]: debug: ppp437: ccp_layer_free
[2014-04-06 14:27:14]: debug: ppp437: ipcp_layer_free
[2014-04-06 14:27:14]: debug: ppp437: ipv6cp_layer_free
[2014-04-06 14:27:14]: debug: ppp437: ppp destablished
[2014-04-06 14:27:14]: debug: ppp437: pppoe: ppp finished

 

[modules]
log_file
pppoe
radius
pppd_compat
sigchld
auth_mschap_v2
auth_mschap_v1
auth_chap_md5
auth_pap
[core]
log-error=/var/log/accel-ppp/core.log
thread-count=4
verbose=5

[ppp]
verbose=5
min-mtu=1280
mtu=1480
mru=1480
ccp=0
#sid-case=upper
#check-ip=1
single-session=replace
mppe=deny
ipv4=require
ipv6=deny
ipv6-intf-id=0:0:0:1
ipv6-peer-intf-id=0:0:0:2
ipv6-accept-peer-intf-id=1
lcp-echo-interval=10
#lcp-echo-failure=3
lcp-echo-timeout=30


[pppoe]
interface=eth1.201
...........
interface=eth1.1701
service-name=XXXXX
pado-delay=0
pado-delay=0,100:100,200:200,-1:500
ifname-in-sid=both
#tr101=0
padi-limit=0
mppe=deny
verbose=5

[dns]
dns1=X.X.X.X
[radius]
dictionary=/usr/share/accel-ppp/radius/dictionary
gw-ip-address=10.205.10.64
server=XX.XX.XX.XX,asdas,auth-port=1812,acct-port=1813,req-limit=0,fail-time=0
verbose=5
timeout=5
max-try=300
acct-timeout=0

Изменено пользователем Tanatos

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Привет всем. Подскажите пожалуйста, возможно ли модернизировть/настроить встроенный шейпер (строим на ipoe), чтобы разделить скорость по определённым классам трафика или например на определённый ip адрес во внутренней сети. Например скорость в Интернет - 1 мегабит, скорость на ресурс - 7 бегабит (или к примеру в три раза больше вкорости в интернет? Как такое организовать, где почитать информацию по данным настройкам.

Как я понял, импользуется шейпер HTB. Что-то подобное подходит - http://ras.pl.ua/howto_configure_htb_init_on_office_router/ или нет? Заранее спасибо за помощь.

Изменено пользователем Briznet

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Подскажите пожалуйста, возможно ли модернизировть/настроить встроенный шейпер (строим на ipoe), чтобы разделить скорость по определённым классам трафика
строить сложные схемы встроенным шейпером (на С) очень сложно и негибко, поэтому встроенный шейпер предлагает только простой базовый функционал - резать скорость целиком на интерфейсе без классов. Для более изошрённых схем предполагается использовать скрипты ip-up/ip-down где вы можете реализовать любую схему. У вас есть доступ к файлу radattr из которого можно считать параметры и настроить соотвествующую схему шейпера. Как это осуществить конкретно - уже совсем другая тема.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Но появилась проблема, пользователи коннектятся с 5-1X раза.
судя по логам по пути до клиента очень большая потеря пакетов, в таком окружении ppp на accel нормально работать не будет

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

xeb

И все же проблемы с lua остались :(

Accel проработал примерно месяц без падений. Сегодня решили его перезапустить-добавить интерфейсов.

В результате опять начались падания с одним и тем же backtrace:

 

 

0 0x00007fcbf3b2dc35 in raise () from /lib64/libc.so.6

#1 0x00007fcbf3b2efda in abort () from /lib64/libc.so.6

#2 0x000000000042384d in sigsegv (num=11) at /var/git/git/code/accel-pppd/main.c:203

#3 <signal handler called>

#4 0x00007fcbf30941cc in lua_close () from /usr/lib64/liblua.so.5

#5 0x00007fcbf4937d59 in __nptl_deallocate_tsd () from /lib64/libpthread.so.0

#6 0x00007fcbf4937f34 in start_thread () from /lib64/libpthread.so.0

#7 0x00007fcbf3be356d in clone () from /lib64/libc.so.6

 

 

В результате опять перевел авторизацию на username=ifname и всё заработало стабильно.

При для дебага писал username в отдельный txt-Файл. Никаких аномалий в нем замечено не было, opt82 отрабатывался на "ура".

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

И все же проблемы с lua остались
пробуй свежий комит

да, и глянь grep 'ipoe: lua:' accel-ppp.log

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

При авторизации <NAS-Port 7>

а при аккаунтинге <NAS-Port 190>

По идее так не должно быть.

commit 33bdf4071ab9db915aa069ef69176f3e4b57484e
Author: Dmitry Kozlov <xeb@mail.ru>
Date:   Fri Apr 11 13:04:54 2014 +0400

ipoe: early allocate interface for shared vlans (prevents different values of NAS-Port in Access-Request and Account-Request)

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

При авторизации <NAS-Port 7>

а при аккаунтинге <NAS-Port 190>

По идее так не должно быть.

commit 33bdf4071ab9db915aa069ef69176f3e4b57484e
Author: Dmitry Kozlov <xeb@mail.ru>
Date:   Fri Apr 11 13:04:54 2014 +0400

ipoe: early allocate interface for shared vlans (prevents different values of NAS-Port in Access-Request and Account-Request)

Спасибо

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

ichthyandr

Есть, работает вполне себе happy. До 2к онлайн, трафика 1.5G в каждую сторону.

Схема vlan-per-user.

post-69622-012986300 1396595061_thumb.png

А час-пик какова нагрузка на CPU по ядрам при 1.5 гб и 1800 онлайн ?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А час-пик какова нагрузка на CPU по ядрам при 1.5 гб и 1800 онлайн ?

Где-то так

[root@ipoe1 sa]# top
top - 20:53:35 up 2 days,  7:01,  1 user,  load average: 1.24, 0.88, 0.87
Tasks: 126 total,   2 running, 124 sleeping,   0 stopped,   0 zombie
Cpu0  :  0.5%us,  4.0%sy,  0.0%ni, 60.0%id,  0.0%wa,  0.0%hi, 35.5%si,  0.0%st
Cpu1  :  2.6%us,  3.1%sy,  0.0%ni, 61.9%id,  0.0%wa,  0.0%hi, 32.5%si,  0.0%st
Cpu2  :  1.0%us,  2.0%sy,  0.0%ni, 59.0%id,  0.0%wa,  0.0%hi, 38.0%si,  0.0%st
Cpu3  :  1.0%us,  4.1%sy,  0.0%ni, 57.1%id,  0.0%wa,  0.0%hi, 37.8%si,  0.0%st
Cpu4  :  4.3%us,  2.7%sy,  0.0%ni, 61.8%id,  0.0%wa,  0.0%hi, 31.2%si,  0.0%st
Cpu5  :  1.6%us,  2.1%sy,  0.0%ni, 63.3%id,  0.0%wa,  0.0%hi, 33.0%si,  0.0%st
Mem:   6105260k total,  1426084k used,  4679176k free,   220628k buffers
Swap:  8191992k total,        0k used,  8191992k free,   462184k cached

 PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND
27541 root      20   0 2542m  54m 1888 S 44.8  0.9   1049:41 accel-pppd
1964 named     20   0  553m 144m 3028 S  7.5  2.4 143:57.76 named
  11 root      20   0     0    0    0 S  1.5  0.0  14:23.54 ksoftirqd/1
  23 root      20   0     0    0    0 R  1.5  0.0  14:07.76 ksoftirqd/4
   3 root      20   0     0    0    0 S  1.0  0.0  13:43.93 ksoftirqd/0
  15 root      20   0     0    0    0 S  1.0  0.0  14:05.92 ksoftirqd/2
  19 root      20   0     0    0    0 S  1.0  0.0  15:45.98 ksoftirqd/3
  27 root      20   0     0    0    0 S  1.0  0.0  14:33.05 ksoftirqd/5

Трафика правда поменьше, сейчас 1.2G/0.6G.

[root@ipoe1 sa]# accel-cmd show stat
ipoe:
 active: 1793

IMHO бОльшую часть загрузки еще дают бортовые броадкомы BCM5709(2х2 в бонде), все никак руки не дойдут заменить их на что-то приличное.

Изменено пользователем kayot

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

интересно, а чем accel хзанимает, что так много ест? arp? lease-time, acct-period?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Меня этот вопрос тоже сильно занимает, xeb когда-то сказал - норма :)

lease-time 5 минут, interim 5 минут, arp используется. Что с арпом, что без - разницы нет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

интересно, а чем accel хзанимает, что так много ест?
гляньте perf'ом, я не знаю

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

xeb спасибо.

 

пробуй свежий комит

Утянул новый комит - пробую.

 

да, и глянь grep 'ipoe: lua:' accel-ppp.log

В логах пусто.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Подскажите, посмотрел полазил и не нашел, возможно ли в cli show sessions , увидеть tr-101 (adsl-agent-circuit-id)?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.