xeb Опубликовано 26 марта, 2014 · Жалоба а в чём проблема заменить $username = $ARGV[1]; на $username = $ENV{'PEERNAME'} Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
replicant Опубликовано 26 марта, 2014 · Жалоба $username = $ENV{'PEERNAME'} Я бы рад, но у меня это не работает. Пусто. В чем причина не могу найти. Приноровился выдергивать уже из accel-cmd. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
info83 Опубликовано 1 апреля, 2014 · Жалоба Здравствуйте. Когда примерно выйдет stable версия? А то всякие фичи добавляете, но stable ни разу не видел Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
ichthyandr Опубликовано 3 апреля, 2014 · Жалоба есть success story у кого IPoE и на каких нагрузках? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 4 апреля, 2014 · Жалоба ichthyandr Есть, работает вполне себе happy. До 2к онлайн, трафика 1.5G в каждую сторону. Схема vlan-per-user. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
ichthyandr Опубликовано 4 апреля, 2014 · Жалоба ichthyandr Есть, работает вполне себе happy. До 2к онлайн, трафика 1.5G в каждую сторону. Схема vlan-per-user. спасиб, это хорошие новости, на каком железе, если не секрет? в корку не выпадает? сейчас думаем ipoe запустить, стоим перед сложным выбором - или asr1006 взять и сделать все в одном ящике (bras+bgp) или же пойти софтовым путем. В случае факапа asr-ку сразу не найти ... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 4 апреля, 2014 · Жалоба ichthyandr Железо простое, HP G6 с 1х L5639 и 4мя сетевками гиговыми. Работает абсолютно стабильно. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
ua_mister Опубликовано 5 апреля, 2014 · Жалоба Есть проблемка с балансировкой количества PPPoE сессий на 2х NAS с ACCEL-PPP. Дело в том, что один из NAS не набирает более +-200 сессий, в то время как другой в то же время принимает +-600 сессий. Если я правильно понял из мана к конфигу, то можно это уровнять параметром "pado-delay=0,100:100,200:200,-1:500" По идее должна быть задержка ответа pado от 0 до 100 сессий - 0, от 100 до 200 -100... с выше 500 не принимать подключения, правильно ли я понял? И еще, если внести в конфиге изменения параметра pado-delay, сработает ли reload, или нужно рестартить ACCEL ? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
s.lobanov Опубликовано 5 апреля, 2014 · Жалоба Если я правильно понял из мана к конфигу, то можно это уровнять параметром "pado-delay Да, балансировку можно выравнивать с помощью pado-delay Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Tanatos Опубликовано 6 апреля, 2014 (изменено) · Жалоба Добрый день, поставил accel-ppp 1.7.3 с sourceforge Но появилась проблема, пользователи коннектятся с 5-1X раза. После перезагрузки сервера все нормально некоторое время. Потом снова. Centos 6.5 Linux bsr01.XXXXXX.net 2.6.32-431.el6.x86_64 #1 SMP Fri Nov 22 03:15:09 UTC 2013 x86_64 x86_64 x86_64 GNU/Linux [2014-04-06 14:26:59]: info: ppp437: connect: ppp437 <--> pppoe(eth1.201:f8:c0:91:18:81:83) [2014-04-06 14:26:59]: debug: ppp437: lcp_layer_init [2014-04-06 14:26:59]: debug: ppp437: auth_layer_init [2014-04-06 14:26:59]: debug: ppp437: ccp_layer_init [2014-04-06 14:26:59]: debug: ppp437: ipcp_layer_init [2014-04-06 14:26:59]: debug: ppp437: ipv6cp_layer_init [2014-04-06 14:26:59]: debug: ppp437: ppp established [2014-04-06 14:26:59]: debug: ppp437: lcp_layer_start [2014-04-06 14:26:59]: info: ppp437: send [LCP ConfReq id=1 <auth MSCHAP-v2> <magic 78bb805a> <mru 1480>] [2014-04-06 14:27:04]: debug: ppp437: fsm timeout [2014-04-06 14:27:04]: info: ppp437: send [LCP ConfReq id=1 <auth MSCHAP-v2> <magic 78bb805a> <mru 1480>] [2014-04-06 14:27:04]: info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>] [2014-04-06 14:27:04]: info: ppp437: send [LCP ConfAck id=1 ] [2014-04-06 14:27:04]: info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>] [2014-04-06 14:27:04]: info: ppp437: send [LCP ConfAck id=1 ] [2014-04-06 14:27:04]: info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>] [2014-04-06 14:27:04]: info: ppp437: send [LCP ConfAck id=1 ] [2014-04-06 14:27:04]: info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>] [2014-04-06 14:27:04]: info: ppp437: send [LCP ConfAck id=1 ] [2014-04-06 14:27:04]: info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>] [2014-04-06 14:27:04]: info: ppp437: send [LCP ConfAck id=1 ] [2014-04-06 14:27:04]: info: ppp437: recv [LCP ConfReq id=1 <mru 1452> <magic 50354550>] [2014-04-06 14:27:04]: info: ppp437: send [LCP ConfAck id=1 ] [2014-04-06 14:27:04]: info: ppp437: recv [LCP ConfAck id=1 <auth MSCHAP-v2> <magic 78bb805a> <mru 1480>] [2014-04-06 14:27:04]: debug: ppp437: lcp_layer_started [2014-04-06 14:27:04]: debug: ppp437: auth_layer_start [2014-04-06 14:27:04]: info: ppp437: send [MSCHAP-v2 Challenge id=1 <6c583316d56069e9a6a621b363a8bdcc>] [2014-04-06 14:27:04]: debug: ppp437: recv [LCP EchoReq id=0 <magic 50354550>] [2014-04-06 14:27:04]: debug: ppp437: send [LCP EchoRep id=0 <magic 5a80bb78>] [2014-04-06 14:27:09]: warn: ppp437: mschap-v2: timeout [2014-04-06 14:27:09]: info: ppp437: send [MSCHAP-v2 Challenge id=1 <6c583316d56069e9a6a621b363a8bdcc>] [2014-04-06 14:27:09]: info: ppp437: recv [MSCHAP-v2 Response id=1 <244c7612562d7d22b2ba7e617332b>, <57e0b2757c9fa6babdaf05ca35f5f2a8e3661e320c37>, F=0, name="e1025034"] [2014-04-06 14:27:09]: info: ppp437: send [RADIUS(1) Access-Request id=1 <User-Name "e1025034"> <NAS-Port 437> <NAS-Port-Type Virtual> <Tunnel-Type L2TP> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "eth1.201:f8:c0:91:18:81:83"> <Called-Station-Id "eth1.201:68:05:ca:22:2f:2a"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP2-Response >] [2014-04-06 14:27:09]: info: ppp437: recv [RADIUS(1) Access-Accept id=1 <Acct-Interim-Interval 900> <Framed-Protocol PPP> <PPPD-Upstream-Speed-Limit 5120000><Microsoft MS-CHAP2-Success > <Framed-IP-Address 10.2.5.34> <PPPD-Downstream-Speed-Limit 5120000> <Framed-Compression Van-Jacobson-TCP-IP>] [2014-04-06 14:27:09]: info: ppp437: send [MSCHAP-v2 Success id=1 "S=83157FAD4B75EE9AC8B830A22400DBCDCF6A5839 M=Authentication succeeded"] [2014-04-06 14:27:09]: info: ppp437: recv [MSCHAP-v2 Response id=1 <244c7612562d7d22b2ba7e617332b>, <57e0b2757c9fa6babdaf05ca35f5f2a8e3661e320c37>, F=0, name="e1025034"] [2014-04-06 14:27:09]: info: ppp437: send [RADIUS(1) Access-Request id=2 <User-Name "e1025034"> <NAS-Port 437> <NAS-Port-Type Virtual> <Tunnel-Type L2TP> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "eth1.201:f8:c0:91:18:81:83"> <Called-Station-Id "eth1.201:68:05:ca:22:2f:2a"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP2-Response >] [2014-04-06 14:27:09]: info: ppp437: recv [RADIUS(1) Access-Accept id=2 <Acct-Interim-Interval 900> <Framed-Protocol PPP> <PPPD-Upstream-Speed-Limit 5120000><Microsoft MS-CHAP2-Success > <Framed-IP-Address 10.2.5.34> <PPPD-Downstream-Speed-Limit 5120000> <Framed-Compression Van-Jacobson-TCP-IP>] [2014-04-06 14:27:09]: info: ppp437: send [MSCHAP-v2 Success id=1 "S=83157FAD4B75EE9AC8B830A22400DBCDCF6A5839 M=Authentication succeeded"] [2014-04-06 14:27:09]: info: ppp437: recv [MSCHAP-v2 Response id=1 <264502f518c6da6711b113cd05a84dd>, <cbec5c3d144d09ac03a746e7df175851b8ca385884fa48a>, F=0, name="e1025034"] [2014-04-06 14:27:09]: info: ppp437: send [RADIUS(1) Access-Request id=3 <User-Name "e1025034"> <NAS-Port 437> <NAS-Port-Type Virtual> <Tunnel-Type L2TP> <Service-Type Framed-User> <Framed-Protocol PPP> <Calling-Station-Id "eth1.201:f8:c0:91:18:81:83"> <Called-Station-Id "eth1.201:68:05:ca:22:2f:2a"><Microsoft MS-CHAP-Challenge ><Microsoft MS-CHAP2-Response >] [2014-04-06 14:27:09]: info: ppp437: recv [RADIUS(1) Access-Accept id=3 <Acct-Interim-Interval 900> <Framed-Protocol PPP> <PPPD-Upstream-Speed-Limit 5120000><Microsoft MS-CHAP2-Success > <Framed-IP-Address 10.2.5.34> <PPPD-Downstream-Speed-Limit 5120000> <Framed-Compression Van-Jacobson-TCP-IP>] [2014-04-06 14:27:09]: info: ppp437: send [MSCHAP-v2 Success id=1 "S=06DB8E70E150BDA6632303A1FC573958F4B02DE7 M=Authentication succeeded"] [2014-04-06 14:27:09]: info: ppp437: recv [LCP TermReq id=2] [2014-04-06 14:27:09]: info: ppp437: send [LCP TermAck id=2] [2014-04-06 14:27:09]: debug: ppp437: ppp_terminate [2014-04-06 14:27:09]: debug: ppp437: lcp_layer_finish [2014-04-06 14:27:09]: debug: ppp437: auth_layer_finish [2014-04-06 14:27:09]: debug: ppp437: auth_layer_finished [2014-04-06 14:27:14]: debug: ppp437: fsm timeout [2014-04-06 14:27:14]: debug: ppp437: lcp_layer_finished [2014-04-06 14:27:14]: debug: ppp437: lcp_layer_free [2014-04-06 14:27:14]: debug: ppp437: auth_layer_free [2014-04-06 14:27:14]: debug: ppp437: ccp_layer_free [2014-04-06 14:27:14]: debug: ppp437: ipcp_layer_free [2014-04-06 14:27:14]: debug: ppp437: ipv6cp_layer_free [2014-04-06 14:27:14]: debug: ppp437: ppp destablished [2014-04-06 14:27:14]: debug: ppp437: pppoe: ppp finished [modules] log_file pppoe radius pppd_compat sigchld auth_mschap_v2 auth_mschap_v1 auth_chap_md5 auth_pap [core] log-error=/var/log/accel-ppp/core.log thread-count=4 verbose=5 [ppp] verbose=5 min-mtu=1280 mtu=1480 mru=1480 ccp=0 #sid-case=upper #check-ip=1 single-session=replace mppe=deny ipv4=require ipv6=deny ipv6-intf-id=0:0:0:1 ipv6-peer-intf-id=0:0:0:2 ipv6-accept-peer-intf-id=1 lcp-echo-interval=10 #lcp-echo-failure=3 lcp-echo-timeout=30 [pppoe] interface=eth1.201 ........... interface=eth1.1701 service-name=XXXXX pado-delay=0 pado-delay=0,100:100,200:200,-1:500 ifname-in-sid=both #tr101=0 padi-limit=0 mppe=deny verbose=5 [dns] dns1=X.X.X.X [radius] dictionary=/usr/share/accel-ppp/radius/dictionary gw-ip-address=10.205.10.64 server=XX.XX.XX.XX,asdas,auth-port=1812,acct-port=1813,req-limit=0,fail-time=0 verbose=5 timeout=5 max-try=300 acct-timeout=0 Изменено 6 апреля, 2014 пользователем Tanatos Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Briznet Опубликовано 7 апреля, 2014 (изменено) · Жалоба Привет всем. Подскажите пожалуйста, возможно ли модернизировть/настроить встроенный шейпер (строим на ipoe), чтобы разделить скорость по определённым классам трафика или например на определённый ip адрес во внутренней сети. Например скорость в Интернет - 1 мегабит, скорость на ресурс - 7 бегабит (или к примеру в три раза больше вкорости в интернет? Как такое организовать, где почитать информацию по данным настройкам. Как я понял, импользуется шейпер HTB. Что-то подобное подходит - http://ras.pl.ua/howto_configure_htb_init_on_office_router/ или нет? Заранее спасибо за помощь. Изменено 7 апреля, 2014 пользователем Briznet Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 7 апреля, 2014 · Жалоба Подскажите пожалуйста, возможно ли модернизировть/настроить встроенный шейпер (строим на ipoe), чтобы разделить скорость по определённым классам трафика строить сложные схемы встроенным шейпером (на С) очень сложно и негибко, поэтому встроенный шейпер предлагает только простой базовый функционал - резать скорость целиком на интерфейсе без классов. Для более изошрённых схем предполагается использовать скрипты ip-up/ip-down где вы можете реализовать любую схему. У вас есть доступ к файлу radattr из которого можно считать параметры и настроить соотвествующую схему шейпера. Как это осуществить конкретно - уже совсем другая тема. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 7 апреля, 2014 · Жалоба Но появилась проблема, пользователи коннектятся с 5-1X раза. судя по логам по пути до клиента очень большая потеря пакетов, в таком окружении ppp на accel нормально работать не будет Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
purecopper Опубликовано 7 апреля, 2014 · Жалоба xeb И все же проблемы с lua остались :( Accel проработал примерно месяц без падений. Сегодня решили его перезапустить-добавить интерфейсов. В результате опять начались падания с одним и тем же backtrace: 0 0x00007fcbf3b2dc35 in raise () from /lib64/libc.so.6 #1 0x00007fcbf3b2efda in abort () from /lib64/libc.so.6 #2 0x000000000042384d in sigsegv (num=11) at /var/git/git/code/accel-pppd/main.c:203 #3 <signal handler called> #4 0x00007fcbf30941cc in lua_close () from /usr/lib64/liblua.so.5 #5 0x00007fcbf4937d59 in __nptl_deallocate_tsd () from /lib64/libpthread.so.0 #6 0x00007fcbf4937f34 in start_thread () from /lib64/libpthread.so.0 #7 0x00007fcbf3be356d in clone () from /lib64/libc.so.6 В результате опять перевел авторизацию на username=ifname и всё заработало стабильно. При для дебага писал username в отдельный txt-Файл. Никаких аномалий в нем замечено не было, opt82 отрабатывался на "ура". Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 11 апреля, 2014 · Жалоба И все же проблемы с lua остались пробуй свежий комитда, и глянь grep 'ipoe: lua:' accel-ppp.log Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 11 апреля, 2014 · Жалоба При авторизации <NAS-Port 7> а при аккаунтинге <NAS-Port 190> По идее так не должно быть. commit 33bdf4071ab9db915aa069ef69176f3e4b57484e Author: Dmitry Kozlov <xeb@mail.ru> Date: Fri Apr 11 13:04:54 2014 +0400 ipoe: early allocate interface for shared vlans (prevents different values of NAS-Port in Access-Request and Account-Request) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
brodayga Опубликовано 12 апреля, 2014 · Жалоба При авторизации <NAS-Port 7> а при аккаунтинге <NAS-Port 190> По идее так не должно быть. commit 33bdf4071ab9db915aa069ef69176f3e4b57484e Author: Dmitry Kozlov <xeb@mail.ru> Date: Fri Apr 11 13:04:54 2014 +0400 ipoe: early allocate interface for shared vlans (prevents different values of NAS-Port in Access-Request and Account-Request) Спасибо Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roysbike Опубликовано 13 апреля, 2014 · Жалоба ichthyandr Есть, работает вполне себе happy. До 2к онлайн, трафика 1.5G в каждую сторону. Схема vlan-per-user. А час-пик какова нагрузка на CPU по ядрам при 1.5 гб и 1800 онлайн ? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 13 апреля, 2014 (изменено) · Жалоба А час-пик какова нагрузка на CPU по ядрам при 1.5 гб и 1800 онлайн ? Где-то так [root@ipoe1 sa]# top top - 20:53:35 up 2 days, 7:01, 1 user, load average: 1.24, 0.88, 0.87 Tasks: 126 total, 2 running, 124 sleeping, 0 stopped, 0 zombie Cpu0 : 0.5%us, 4.0%sy, 0.0%ni, 60.0%id, 0.0%wa, 0.0%hi, 35.5%si, 0.0%st Cpu1 : 2.6%us, 3.1%sy, 0.0%ni, 61.9%id, 0.0%wa, 0.0%hi, 32.5%si, 0.0%st Cpu2 : 1.0%us, 2.0%sy, 0.0%ni, 59.0%id, 0.0%wa, 0.0%hi, 38.0%si, 0.0%st Cpu3 : 1.0%us, 4.1%sy, 0.0%ni, 57.1%id, 0.0%wa, 0.0%hi, 37.8%si, 0.0%st Cpu4 : 4.3%us, 2.7%sy, 0.0%ni, 61.8%id, 0.0%wa, 0.0%hi, 31.2%si, 0.0%st Cpu5 : 1.6%us, 2.1%sy, 0.0%ni, 63.3%id, 0.0%wa, 0.0%hi, 33.0%si, 0.0%st Mem: 6105260k total, 1426084k used, 4679176k free, 220628k buffers Swap: 8191992k total, 0k used, 8191992k free, 462184k cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 27541 root 20 0 2542m 54m 1888 S 44.8 0.9 1049:41 accel-pppd 1964 named 20 0 553m 144m 3028 S 7.5 2.4 143:57.76 named 11 root 20 0 0 0 0 S 1.5 0.0 14:23.54 ksoftirqd/1 23 root 20 0 0 0 0 R 1.5 0.0 14:07.76 ksoftirqd/4 3 root 20 0 0 0 0 S 1.0 0.0 13:43.93 ksoftirqd/0 15 root 20 0 0 0 0 S 1.0 0.0 14:05.92 ksoftirqd/2 19 root 20 0 0 0 0 S 1.0 0.0 15:45.98 ksoftirqd/3 27 root 20 0 0 0 0 S 1.0 0.0 14:33.05 ksoftirqd/5 Трафика правда поменьше, сейчас 1.2G/0.6G. [root@ipoe1 sa]# accel-cmd show stat ipoe: active: 1793 IMHO бОльшую часть загрузки еще дают бортовые броадкомы BCM5709(2х2 в бонде), все никак руки не дойдут заменить их на что-то приличное. Изменено 13 апреля, 2014 пользователем kayot Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
s.lobanov Опубликовано 13 апреля, 2014 · Жалоба интересно, а чем accel хзанимает, что так много ест? arp? lease-time, acct-period? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 13 апреля, 2014 · Жалоба Меня этот вопрос тоже сильно занимает, xeb когда-то сказал - норма :) lease-time 5 минут, interim 5 минут, arp используется. Что с арпом, что без - разницы нет. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 14 апреля, 2014 · Жалоба интересно, а чем accel хзанимает, что так много ест? гляньте perf'ом, я не знаю Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
purecopper Опубликовано 14 апреля, 2014 · Жалоба xeb спасибо. пробуй свежий комит Утянул новый комит - пробую. да, и глянь grep 'ipoe: lua:' accel-ppp.log В логах пусто. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roysbike Опубликовано 17 апреля, 2014 · Жалоба Подскажите, посмотрел полазил и не нашел, возможно ли в cli show sessions , увидеть tr-101 (adsl-agent-circuit-id)? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 18 апреля, 2014 · Жалоба нет Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...