Перейти к содержимому
Калькуляторы

Сетка маленькая < 5k, QnQ нет.

Я бы не рискнул lISG даже на такие объёмы, accel прожуёт, ну естественно от железяки зависит. Вот 5к NAT тоже подозрительно, могут быт затыки, вроде raw_nat решает проблему, на форуме обсуждалось. В ip-up, ip-down пишите и NAT и police, и все будет работать.

Изменено пользователем Dimka88

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Да, похоже, в soft terminate дело. Отключил - вроде падать перестал :)

Куда послать дамп для дебага?

У меня на pppoe похожая беда, но не уверен, не смог получить надежного дебага.

И подозрение тоже на soft terminate, если его отключаю - пока еще не было падения. Только скорее не падает, а просто зависает, и не отзывается на команды.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

nuclearcat

у меня процесс перезапускал сам себя.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Всем доброго,подскажите есть ли возможноть описать два радиус сервера (чтобы к примеру опрашивал первый сервер,если не получен accept тогда опрашивать второй и только если второй не дал accept тогда выдавать польщователю что ему rejected ну а если первый пустил то значит все ок,ну или не пустил первый а пустил второй то тоже значит все ок).

Ну или как такую схему реализовать ? радиус-прокси ?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Всем доброго,подскажите есть ли возможноть описать два радиус сервера (чтобы к примеру опрашивал первый сервер,если не получен accept тогда опрашивать второй и только если второй не дал accept тогда выдавать польщователю что ему rejected ну а если первый пустил то значит все ок,ну или не пустил первый а пустил второй то тоже значит все ок).

Ну или как такую схему реализовать ? радиус-прокси ?

Предлагал давно xeb сделать похожую схему для работы с двумя радиусами для плавного перевода клиентов с одного биллинга на второй.

Но так у нас и не сложилось ее реализовать...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

ну я так понимаю тогда ответ нарисовывается сам собой - radius proxy

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

jamaikaoleg

сейчас вроде есть балансировка по серверам - если первый умер и не отвечает, тогда стучится на второй.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Коллеги,

 

имеется ли для Debian 8 x64 unit-файл accel-ppp.service для systemd?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Здравствуйте.

 

Подскажите пожалуйста в чем может быть проблема?

 

В настройках Accel-PPP указаны следующие настройки шейпера:

 

[shaper]
attr=Filter-Id
up-limiter=htb
down-limiter=htb
verbose=1
ifb=ifb0

 

При этом шейпер создается (в данном случае на 40 мбит):

 

[2015-09-23 11:01:44]:  info: ppp0: shaper: installed shaper 40960/40960 (Kbit)

 

Но скорость через это соединение составляет 15-25 мбит/с а не 40, если скачивать файл через http в один поток.

 

Без шейпера скорость этого же скачивания достигает сотни мегабит. Если ставить tbf вместо htb то тоже все ок.

 

Версия ПО: 30cff41b56be0d4c3e407e8aa4de5b289eef2ab0
Система: CentOS Linux release 7.1.1503 (Core)
Ядро: 3.10.0-229.14.1.el7.x86_64

 

Offloading на сетевом адаптере отключен:

 

/usr/sbin/ethtool -K enp8s0f1 tso  off gso off gro off  rx off tx off rxvlan off txvlan off

 

Вывод tc:

 

[root@nas1 ppp]# tc -s -d qdisc
qdisc mq 0: dev enp8s0f0 root
Sent 89264348 bytes 1266091 pkt (dropped 0, overlimits 0 requeues 57)
backlog 0b 0p requeues 57
qdisc mq 0: dev enp8s0f1 root
Sent 4104474079 bytes 2711997 pkt (dropped 0, overlimits 0 requeues 10)
backlog 0b 0p requeues 10
qdisc htb 1: dev ifb0 root refcnt 2 r2q 10 default 0 direct_packets_stat 0 ver 3.17
Sent 5126754 bytes 64798 pkt (dropped 0, overlimits 0 requeues 0)
backlog 0b 0p requeues 0
qdisc htb 1: dev ppp0 root refcnt 2 r2q 10 default 1 direct_packets_stat 0 ver 3.17
Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
backlog 0b 0p requeues 0
qdisc ingress ffff: dev ppp0 parent ffff:fff1 ----------------
Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
backlog 0b 0p requeues 0

[root@nas1 ppp]# tc -s -d class show dev ifb0
class htb 1:2 root prio 0 quantum 200000 rate 40960Kbit ceil 40960Kbit burst 5000Kb/1 mpu 0b overhead 0b cburst 1525b/1 mpu 0b overhead 0b level 0
Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
rate 0bit 0pps backlog 0b 0p requeues 0
lended: 0 borrowed: 0 giants: 0
tokens: 15625000 ctokens: 4671


[root@nas1 ppp]# tc -s -d class show dev ppp0
class htb 1:1 root prio 0 quantum 200000 rate 40960Kbit ceil 40960Kbit burst 500Kb/1 mpu 0b overhead 0b cburst 1525b/1 mpu 0b overhead 0b level 0
Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
rate 0bit 0pps backlog 0b 0p requeues 0
lended: 0 borrowed: 0 giants: 0
tokens: 1562500 ctokens: 4671

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

И еще, проявляется ли у кого-либо вот такой баг?

Изменено пользователем avb1987

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Здравствуйте.

 

Подскажите пожалуйста в чем может быть проблема?

 

В настройках Accel-PPP указаны следующие настройки шейпера:

 

[shaper]
attr=Filter-Id
up-limiter=htb
down-limiter=htb
verbose=1
ifb=ifb0

 

При этом шейпер создается (в данном случае на 40 мбит):

 

[2015-09-23 11:01:44]:  info: ppp0: shaper: installed shaper 40960/40960 (Kbit)

 

Но скорость через это соединение составляет 15-25 мбит/с а не 40, если скачивать файл через http в один поток.

 

Без шейпера скорость этого же скачивания достигает сотни мегабит. Если ставить tbf вместо htb то тоже все ок.

 

Версия ПО: 30cff41b56be0d4c3e407e8aa4de5b289eef2ab0
Система: CentOS Linux release 7.1.1503 (Core)
Ядро: 3.10.0-229.14.1.el7.x86_64

 

Offloading на сетевом адаптере отключен:

 

/usr/sbin/ethtool -K enp8s0f1 tso  off gso off gro off  rx off tx off rxvlan off txvlan off

 

Вывод tc:

 

[root@nas1 ppp]# tc -s -d qdisc
qdisc mq 0: dev enp8s0f0 root
Sent 89264348 bytes 1266091 pkt (dropped 0, overlimits 0 requeues 57)
backlog 0b 0p requeues 57
qdisc mq 0: dev enp8s0f1 root
Sent 4104474079 bytes 2711997 pkt (dropped 0, overlimits 0 requeues 10)
backlog 0b 0p requeues 10
qdisc htb 1: dev ifb0 root refcnt 2 r2q 10 default 0 direct_packets_stat 0 ver 3.17
Sent 5126754 bytes 64798 pkt (dropped 0, overlimits 0 requeues 0)
backlog 0b 0p requeues 0
qdisc htb 1: dev ppp0 root refcnt 2 r2q 10 default 1 direct_packets_stat 0 ver 3.17
Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
backlog 0b 0p requeues 0
qdisc ingress ffff: dev ppp0 parent ffff:fff1 ----------------
Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
backlog 0b 0p requeues 0

[root@nas1 ppp]# tc -s -d class show dev ifb0
class htb 1:2 root prio 0 quantum 200000 rate 40960Kbit ceil 40960Kbit burst 5000Kb/1 mpu 0b overhead 0b cburst 1525b/1 mpu 0b overhead 0b level 0
Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
rate 0bit 0pps backlog 0b 0p requeues 0
lended: 0 borrowed: 0 giants: 0
tokens: 15625000 ctokens: 4671


[root@nas1 ppp]# tc -s -d class show dev ppp0
class htb 1:1 root prio 0 quantum 200000 rate 40960Kbit ceil 40960Kbit burst 500Kb/1 mpu 0b overhead 0b cburst 1525b/1 mpu 0b overhead 0b level 0
Sent 0 bytes 0 pkt (dropped 0, overlimits 0 requeues 0)
rate 0bit 0pps backlog 0b 0p requeues 0
lended: 0 borrowed: 0 giants: 0
tokens: 1562500 ctokens: 4671

---------------

 

Была такая же проблема, решил с помощью параметра cburst, вот мой рабочий пример модуля shaper.

Попробуй думаю поможет.

 

[shaper]

#attr=Filter-Id

down-burst-factor=0.1

up-burst-factor=1.0

#latency=50

#mpu=0

#mtu=0

r2q=12

quantum=1500

#moderate-quantum=1

cburst=306800

ifb=ifb0

up-limiter=htb

down-limiter=htb

leaf-qdisc=sfq perturb 10

#leaf-qdisc=fq_codel [limit PACKETS] [flows NUMBER] [target TIME] [interval TIME] [quantum BYTES] [[no]ecn]

#rate-multiplier=1

#fwmark=1

attr-down=PPPD-Downstream-Speed-Limit

attr-up=PPPD-Upstream-Speed-Limit

verbose=1

 

-----

Атрибуты значений лимита скорости канала, которые передаются от radius.

attr-down=PPPD-Downstream-Speed-Limit

attr-up=PPPD-Upstream-Speed-Limit

-----

 

Так-же отключи tco и gso на eth интерфесах.

 

ethtool -K eth0 gso off

ethtool -K ethX tso off

и после проверь, выключились ли они.

 

После чего заходим в управление accel-ppp telnet 127.0.0.1 2000 и делаем команду reload, выходим из терминала управления accel-ppp, переподключаешь сессию, profit.

Изменено пользователем copycat

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Да, похоже, в soft terminate дело. Отключил - вроде падать перестал :)

Куда послать дамп для дебага?

как его отключить?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Да, похоже, в soft terminate дело. Отключил - вроде падать перестал :)

Куда послать дамп для дебага?

как его отключить?

By default soft termination is turned off, to enable it introduces new option 'soft-terminate=1'.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Да, похоже, в soft terminate дело. Отключил - вроде падать перестал :)

Куда послать дамп для дебага?

как его отключить?

By default soft termination is turned off, to enable it introduces new option 'soft-terminate=1'.

 

Понял спасибо

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Уважаемые гуру подскажите, почему на ifb0 столько много дропов и оверлимитов? пару суток все было ок с нарезкой скорости, сегодня пошли жалобы на низкие показания при замерах, порядка 1550 сессий pppoe онлайн, заметил также что txqueuelen для ifb0 равен 32, это не слишком малое значение?

 

[shaper]

r2q=12

quantum=1500

cburst=750000

ifb=ifb0

up-limiter=htb

down-limiter=htb

leaf-qdisc=sfq perturb 10

rate-multiplier=1

attr-down=PPPD-Downstream-Speed-Limit

attr-up=PPPD-Upstream-Speed-Limit

verbose=1

-------------

 

tc -s -d qdisc show dev ifb0

qdisc htb 1: root refcnt 2 r2q 10 default 0 direct_packets_stat 0 ver 3.17

Sent 11245526234 bytes 16882745 pkt (dropped 37, overlimits 1401412 requeues 0)

backlog 0b 0p requeues 0

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Коллеги,

 

имеется ли для Debian 8 x64 unit-файл accel-ppp.service для systemd?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Вот для CentOS, возможно заработает и на других системах: http://pastebin.com/EKkgNMC3

Поправьте только путь к приложению, и если в Debian вместо network-online.target и multi-user.target используется что-то другое - то укажите соответственно нужные названия таргетов.

Изменено пользователем avb1987

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

День добрый XEB

 

Реализовали ли вы для ipv6 пулы, как для ipv4? а то очень многи вконтакте и ютуба хватает.

 

в секции пулов я прописываю

[ip-pool]

10.X.0.0/20,name=gray_ip_inet_pool

10.X.112.0/20,name=ip_pool_server_based

10.X.240.0/20,name=block_po_oplate

 

 

а надо ещё что-то типа такого

для ipv6

2001:67c::::/53,64,delegate=2001:67c::/53,64,name=gray_ip_inet_pool

FC00:0000::/53,64,delegate=FC00:4000::/53,64,name=block_po_oplate

 

 

оЧЧЧень надо

Изменено пользователем pashaumka

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Сталкивались с подобным?

 

Падают два сервера pptp + l2tp + нат + шейп + ipt_netflow + bond.

 

Аптайм - 1 час - неделя. Сделал, чтобы сразу перезагружался. Пока не разбирался с причинами, не нахожусь в серверной.

 

Ubuntu 14.04 ядра 3.13.0-63-generic 3.19.0-28-generic

 

accel-ppp version 1.9.0

 

Аналогичная конфигурация без accel-ppp (нат + шейп + ipt_netflow + bond) работает без сбоев.

Не железо.

1.8.0 + 3.2 ядро (Ubuntu 12.04) работает без сбоев.

accel-ppp.conf.txt

Изменено пользователем sanyasi

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

sanyasi

уберите с ip-down удаление шейпера, повешайте на ip-up. Должно как минимум попустить.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

удаление шейпера,

 

Спасибо, но это уже пробовал... Не удаляю интерфейс (unit-cache=1000) и не удаляю шейп.

Помнится именно удаление интерфейсов приводило одно время в панику. Но тут другое.

 

при создании интерфейса, если шейпа нет - он создается

 

а если уже есть шейп то просто устанавливается скорость - tc class replace dev $1 ....

 

Но в ip-down есть обработка лога, итп. Думаете этот таймаут вешает ядро? Сейчас sleep добавлю. Монитор с камерой подключил смотрю...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

sanyasi

Ну это то что я у себя выяснил.

 

Еще можете попробовать солюшн из соседней темы - http://www.spinics.net/lists/netdev/msg344055.html

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

2 XEB - а глянь плиз тему мою про не удаляющиеся интерфейсы, я там и логи уже прикрепил )

http://accel-ppp.org/forum/viewtopic.php?f=10&t=502&start=20

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Используйте vlan per user, там все абсолютно шоколадно :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.