Dimka88 Опубликовано 16 сентября, 2015 (изменено) · Жалоба Сетка маленькая < 5k, QnQ нет. Я бы не рискнул lISG даже на такие объёмы, accel прожуёт, ну естественно от железяки зависит. Вот 5к NAT тоже подозрительно, могут быт затыки, вроде raw_nat решает проблему, на форуме обсуждалось. В ip-up, ip-down пишите и NAT и police, и все будет работать. Изменено 16 сентября, 2015 пользователем Dimka88 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
pppoetest Опубликовано 16 сентября, 2015 · Жалоба Спасибо. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nuclearcat Опубликовано 16 сентября, 2015 · Жалоба Да, похоже, в soft terminate дело. Отключил - вроде падать перестал :) Куда послать дамп для дебага? У меня на pppoe похожая беда, но не уверен, не смог получить надежного дебага. И подозрение тоже на soft terminate, если его отключаю - пока еще не было падения. Только скорее не падает, а просто зависает, и не отзывается на команды. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 16 сентября, 2015 · Жалоба nuclearcat у меня процесс перезапускал сам себя. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jamaikaoleg Опубликовано 21 сентября, 2015 · Жалоба Всем доброго,подскажите есть ли возможноть описать два радиус сервера (чтобы к примеру опрашивал первый сервер,если не получен accept тогда опрашивать второй и только если второй не дал accept тогда выдавать польщователю что ему rejected ну а если первый пустил то значит все ок,ну или не пустил первый а пустил второй то тоже значит все ок). Ну или как такую схему реализовать ? радиус-прокси ? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nik247 Опубликовано 21 сентября, 2015 · Жалоба Всем доброго,подскажите есть ли возможноть описать два радиус сервера (чтобы к примеру опрашивал первый сервер,если не получен accept тогда опрашивать второй и только если второй не дал accept тогда выдавать польщователю что ему rejected ну а если первый пустил то значит все ок,ну или не пустил первый а пустил второй то тоже значит все ок). Ну или как такую схему реализовать ? радиус-прокси ? Предлагал давно xeb сделать похожую схему для работы с двумя радиусами для плавного перевода клиентов с одного биллинга на второй.Но так у нас и не сложилось ее реализовать... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jamaikaoleg Опубликовано 21 сентября, 2015 · Жалоба ну я так понимаю тогда ответ нарисовывается сам собой - radius proxy Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 21 сентября, 2015 · Жалоба jamaikaoleg сейчас вроде есть балансировка по серверам - если первый умер и не отвечает, тогда стучится на второй. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dmitry P. Опубликовано 23 сентября, 2015 · Жалоба Коллеги, имеется ли для Debian 8 x64 unit-файл accel-ppp.service для systemd? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
avb1987 Опубликовано 23 сентября, 2015 · Жалоба Здравствуйте. Подскажите пожалуйста в чем может быть проблема? В настройках Accel-PPP указаны следующие настройки шейпера: [shaper] attr=Filter-Id up-limiter=htb down-limiter=htb verbose=1 ifb=ifb0 При этом шейпер создается (в данном случае на 40 мбит): [2015-09-23 11:01:44]: info: ppp0: shaper: installed shaper 40960/40960 (Kbit) Но скорость через это соединение составляет 15-25 мбит/с а не 40, если скачивать файл через http в один поток. Без шейпера скорость этого же скачивания достигает сотни мегабит. Если ставить tbf вместо htb то тоже все ок. Версия ПО: 30cff41b56be0d4c3e407e8aa4de5b289eef2ab0 Система: CentOS Linux release 7.1.1503 (Core) Ядро: 3.10.0-229.14.1.el7.x86_64 Offloading на сетевом адаптере отключен: /usr/sbin/ethtool -K enp8s0f1 tso off gso off gro off rx off tx off rxvlan off txvlan off Вывод tc: [root@nas1 ppp]# tc -s -d qdisc qdisc mq 0: dev enp8s0f0 root Sent 89264348 bytes 1266091 pkt (dropped 0, overlimits 0 requeues 57) backlog 0b 0p requeues 57 qdisc mq 0: dev enp8s0f1 root Sent 4104474079 bytes 2711997 pkt (dropped 0, overlimits 0 requeues 10) backlog 0b 0p requeues 10 qdisc htb 1: dev ifb0 root refcnt 2 r2q 10 default 0 direct_packets_stat 0 ver 3.17 Sent 5126754 bytes 64798 pkt (dropped 0, overlimits 0 requeues 0) backlog 0b 0p requeues 0 qdisc htb 1: dev ppp0 root refcnt 2 r2q 10 default 1 direct_packets_stat 0 ver 3.17 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0) backlog 0b 0p requeues 0 qdisc ingress ffff: dev ppp0 parent ffff:fff1 ---------------- Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0) backlog 0b 0p requeues 0 [root@nas1 ppp]# tc -s -d class show dev ifb0 class htb 1:2 root prio 0 quantum 200000 rate 40960Kbit ceil 40960Kbit burst 5000Kb/1 mpu 0b overhead 0b cburst 1525b/1 mpu 0b overhead 0b level 0 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0) rate 0bit 0pps backlog 0b 0p requeues 0 lended: 0 borrowed: 0 giants: 0 tokens: 15625000 ctokens: 4671 [root@nas1 ppp]# tc -s -d class show dev ppp0 class htb 1:1 root prio 0 quantum 200000 rate 40960Kbit ceil 40960Kbit burst 500Kb/1 mpu 0b overhead 0b cburst 1525b/1 mpu 0b overhead 0b level 0 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0) rate 0bit 0pps backlog 0b 0p requeues 0 lended: 0 borrowed: 0 giants: 0 tokens: 1562500 ctokens: 4671 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
avb1987 Опубликовано 23 сентября, 2015 (изменено) · Жалоба И еще, проявляется ли у кого-либо вот такой баг? Изменено 23 сентября, 2015 пользователем avb1987 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
copycat Опубликовано 26 сентября, 2015 (изменено) · Жалоба Здравствуйте. Подскажите пожалуйста в чем может быть проблема? В настройках Accel-PPP указаны следующие настройки шейпера: [shaper] attr=Filter-Id up-limiter=htb down-limiter=htb verbose=1 ifb=ifb0 При этом шейпер создается (в данном случае на 40 мбит): [2015-09-23 11:01:44]: info: ppp0: shaper: installed shaper 40960/40960 (Kbit) Но скорость через это соединение составляет 15-25 мбит/с а не 40, если скачивать файл через http в один поток. Без шейпера скорость этого же скачивания достигает сотни мегабит. Если ставить tbf вместо htb то тоже все ок. Версия ПО: 30cff41b56be0d4c3e407e8aa4de5b289eef2ab0 Система: CentOS Linux release 7.1.1503 (Core) Ядро: 3.10.0-229.14.1.el7.x86_64 Offloading на сетевом адаптере отключен: /usr/sbin/ethtool -K enp8s0f1 tso off gso off gro off rx off tx off rxvlan off txvlan off Вывод tc: [root@nas1 ppp]# tc -s -d qdisc qdisc mq 0: dev enp8s0f0 root Sent 89264348 bytes 1266091 pkt (dropped 0, overlimits 0 requeues 57) backlog 0b 0p requeues 57 qdisc mq 0: dev enp8s0f1 root Sent 4104474079 bytes 2711997 pkt (dropped 0, overlimits 0 requeues 10) backlog 0b 0p requeues 10 qdisc htb 1: dev ifb0 root refcnt 2 r2q 10 default 0 direct_packets_stat 0 ver 3.17 Sent 5126754 bytes 64798 pkt (dropped 0, overlimits 0 requeues 0) backlog 0b 0p requeues 0 qdisc htb 1: dev ppp0 root refcnt 2 r2q 10 default 1 direct_packets_stat 0 ver 3.17 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0) backlog 0b 0p requeues 0 qdisc ingress ffff: dev ppp0 parent ffff:fff1 ---------------- Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0) backlog 0b 0p requeues 0 [root@nas1 ppp]# tc -s -d class show dev ifb0 class htb 1:2 root prio 0 quantum 200000 rate 40960Kbit ceil 40960Kbit burst 5000Kb/1 mpu 0b overhead 0b cburst 1525b/1 mpu 0b overhead 0b level 0 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0) rate 0bit 0pps backlog 0b 0p requeues 0 lended: 0 borrowed: 0 giants: 0 tokens: 15625000 ctokens: 4671 [root@nas1 ppp]# tc -s -d class show dev ppp0 class htb 1:1 root prio 0 quantum 200000 rate 40960Kbit ceil 40960Kbit burst 500Kb/1 mpu 0b overhead 0b cburst 1525b/1 mpu 0b overhead 0b level 0 Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0) rate 0bit 0pps backlog 0b 0p requeues 0 lended: 0 borrowed: 0 giants: 0 tokens: 1562500 ctokens: 4671 --------------- Была такая же проблема, решил с помощью параметра cburst, вот мой рабочий пример модуля shaper. Попробуй думаю поможет. [shaper] #attr=Filter-Id down-burst-factor=0.1 up-burst-factor=1.0 #latency=50 #mpu=0 #mtu=0 r2q=12 quantum=1500 #moderate-quantum=1 cburst=306800 ifb=ifb0 up-limiter=htb down-limiter=htb leaf-qdisc=sfq perturb 10 #leaf-qdisc=fq_codel [limit PACKETS] [flows NUMBER] [target TIME] [interval TIME] [quantum BYTES] [[no]ecn] #rate-multiplier=1 #fwmark=1 attr-down=PPPD-Downstream-Speed-Limit attr-up=PPPD-Upstream-Speed-Limit verbose=1 ----- Атрибуты значений лимита скорости канала, которые передаются от radius. attr-down=PPPD-Downstream-Speed-Limit attr-up=PPPD-Upstream-Speed-Limit ----- Так-же отключи tco и gso на eth интерфесах. ethtool -K eth0 gso off ethtool -K ethX tso off и после проверь, выключились ли они. После чего заходим в управление accel-ppp telnet 127.0.0.1 2000 и делаем команду reload, выходим из терминала управления accel-ppp, переподключаешь сессию, profit. Изменено 26 сентября, 2015 пользователем copycat Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
zulu_radist Опубликовано 27 сентября, 2015 · Жалоба Да, похоже, в soft terminate дело. Отключил - вроде падать перестал :) Куда послать дамп для дебага? как его отключить? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nik247 Опубликовано 27 сентября, 2015 · Жалоба Да, похоже, в soft terminate дело. Отключил - вроде падать перестал :) Куда послать дамп для дебага? как его отключить? By default soft termination is turned off, to enable it introduces new option 'soft-terminate=1'. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
zulu_radist Опубликовано 27 сентября, 2015 · Жалоба Да, похоже, в soft terminate дело. Отключил - вроде падать перестал :) Куда послать дамп для дебага? как его отключить? By default soft termination is turned off, to enable it introduces new option 'soft-terminate=1'. Понял спасибо Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
copycat Опубликовано 27 сентября, 2015 · Жалоба Уважаемые гуру подскажите, почему на ifb0 столько много дропов и оверлимитов? пару суток все было ок с нарезкой скорости, сегодня пошли жалобы на низкие показания при замерах, порядка 1550 сессий pppoe онлайн, заметил также что txqueuelen для ifb0 равен 32, это не слишком малое значение? [shaper] r2q=12 quantum=1500 cburst=750000 ifb=ifb0 up-limiter=htb down-limiter=htb leaf-qdisc=sfq perturb 10 rate-multiplier=1 attr-down=PPPD-Downstream-Speed-Limit attr-up=PPPD-Upstream-Speed-Limit verbose=1 ------------- tc -s -d qdisc show dev ifb0 qdisc htb 1: root refcnt 2 r2q 10 default 0 direct_packets_stat 0 ver 3.17 Sent 11245526234 bytes 16882745 pkt (dropped 37, overlimits 1401412 requeues 0) backlog 0b 0p requeues 0 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dmitry P. Опубликовано 28 сентября, 2015 · Жалоба Коллеги, имеется ли для Debian 8 x64 unit-файл accel-ppp.service для systemd? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
avb1987 Опубликовано 28 сентября, 2015 (изменено) · Жалоба Вот для CentOS, возможно заработает и на других системах: http://pastebin.com/EKkgNMC3 Поправьте только путь к приложению, и если в Debian вместо network-online.target и multi-user.target используется что-то другое - то укажите соответственно нужные названия таргетов. Изменено 28 сентября, 2015 пользователем avb1987 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
pashaumka Опубликовано 29 сентября, 2015 (изменено) · Жалоба День добрый XEB Реализовали ли вы для ipv6 пулы, как для ipv4? а то очень многи вконтакте и ютуба хватает. в секции пулов я прописываю [ip-pool] 10.X.0.0/20,name=gray_ip_inet_pool 10.X.112.0/20,name=ip_pool_server_based 10.X.240.0/20,name=block_po_oplate а надо ещё что-то типа такого для ipv6 2001:67c::::/53,64,delegate=2001:67c::/53,64,name=gray_ip_inet_pool FC00:0000::/53,64,delegate=FC00:4000::/53,64,name=block_po_oplate оЧЧЧень надо Изменено 29 сентября, 2015 пользователем pashaumka Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
sanyasi Опубликовано 29 сентября, 2015 (изменено) · Жалоба Сталкивались с подобным? Падают два сервера pptp + l2tp + нат + шейп + ipt_netflow + bond. Аптайм - 1 час - неделя. Сделал, чтобы сразу перезагружался. Пока не разбирался с причинами, не нахожусь в серверной. Ubuntu 14.04 ядра 3.13.0-63-generic 3.19.0-28-generic accel-ppp version 1.9.0 Аналогичная конфигурация без accel-ppp (нат + шейп + ipt_netflow + bond) работает без сбоев. Не железо. 1.8.0 + 3.2 ядро (Ubuntu 12.04) работает без сбоев. accel-ppp.conf.txt Изменено 29 сентября, 2015 пользователем sanyasi Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 29 сентября, 2015 · Жалоба sanyasi уберите с ip-down удаление шейпера, повешайте на ip-up. Должно как минимум попустить. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
sanyasi Опубликовано 29 сентября, 2015 · Жалоба удаление шейпера, Спасибо, но это уже пробовал... Не удаляю интерфейс (unit-cache=1000) и не удаляю шейп. Помнится именно удаление интерфейсов приводило одно время в панику. Но тут другое. при создании интерфейса, если шейпа нет - он создается а если уже есть шейп то просто устанавливается скорость - tc class replace dev $1 .... Но в ip-down есть обработка лога, итп. Думаете этот таймаут вешает ядро? Сейчас sleep добавлю. Монитор с камерой подключил смотрю... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 29 сентября, 2015 · Жалоба sanyasi Ну это то что я у себя выяснил. Еще можете попробовать солюшн из соседней темы - http://www.spinics.net/lists/netdev/msg344055.html Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
martini Опубликовано 29 сентября, 2015 · Жалоба 2 XEB - а глянь плиз тему мою про не удаляющиеся интерфейсы, я там и логи уже прикрепил ) http://accel-ppp.org/forum/viewtopic.php?f=10&t=502&start=20 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 29 сентября, 2015 · Жалоба Используйте vlan per user, там все абсолютно шоколадно :) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...