Перейти к содержимому
Калькуляторы

Спасибо, помогли! Оно самое, выпилил атрибуте Framed-IP-Address.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

xeb

Обновился до коммита 30397cca6a4472f3087d1071ecc43438e39f705f.

В списке show sessions висят сессии с state finish. Так и должно быть?

При этом на сервере расплодились zombie-процессы:

 

 

#ps aux | grep Z

root 11241 0.0 0.0 0 0 ? Z 11:12 0:00 [ip-up] <defunct>

root 11272 0.0 0.0 0 0 ? Z 11:12 0:00 [ip-up] <defunct>

 

#pstree -p -s 11241

init(1)───accel-pppd(3069)───ip-up(11241)

 

#ps aux | grep Z | wc -l

231

 

 

Сам столкнулся с подобной проблемой "зомби ip-up/ip-down" на последних сборках.

Вы что-то нашли?

По моим тестам вчера с разными моими сборками выяснил, что проблема вылезла где-то так:

0b3e64e4b056cf6b17c4bdc45100c11bcc116e8d - 2014-05-15 11:12:41 - бага еще нету

c317ff519717c5c9f0513b85bb7d10ba084c74e9 - 2014-05-20 08:18:43 - баг есть с этой и до последней версии с git.

Как только появляется первый "зомби", то дальше уже как снежный ком начинается....

Изменено пользователем nik247

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Если User-Name базе не известен, то разрешаем auth и отдаю Framed-Pool- guestpool в accel-ppp заведен guestpool.

а как биллинг узнает, какой ип выдал accel?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Если User-Name базе не известен, то разрешаем auth и отдаю Framed-Pool- guestpool в accel-ppp заведен guestpool.

а как биллинг узнает, какой ип выдал accel?

А ему в Accounting придет:

Framed-IP-Address=10.102.5.48

Я вообще всю динамику через пулы на accel делаю.

В биллинге только белые статические, если нужно.

Изменено пользователем nik247

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

VENDOR Microsoft 311

ATTRIBUTE MS-Primary-DNS-Server 28 ipaddr

ATTRIBUTE MS-Secondary-DNS-Server 29 ipaddr

 

 

 

Подскажите, что-то надо дополнительно сделать, чтобы оно работало ?

 

Если в конфиге установлены днс руками - берет из конфига, если нет - вообще не выдает днс.

 

Вот лог :

 

2014-06-20 16:32:03]:  info: eth2.1500.3001: recv [RADIUS(1) Access-Accept id=1 <DHCP-Router-IP-Address:241 192.168.14.250> <Framed-IP-Address:8 192.168.14.61> <DHCP-Mask:242 255.255.255.0> <Filter-Id:11 "50000/50000"> <Acct-Interim-Interval:85 60><Microsoft:28 MS-Primary-DNS-Server 172.16.5.2><Microsoft:29 MS-Secondary-DNS-Server 172.16.5.1>]

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Если User-Name базе не известен, то разрешаем auth и отдаю Framed-Pool- guestpool в accel-ppp заведен guestpool.

а как биллинг узнает, какой ип выдал accel?

Auth-Type := Accept и в acct прилетает IP

 

P.S. увидел , что уже ответили

Изменено пользователем roysbike

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

VENDOR Microsoft 311

ATTRIBUTE MS-Primary-DNS-Server 28 ipaddr

ATTRIBUTE MS-Secondary-DNS-Server 29 ipaddr

 

 

 

Подскажите, что-то надо дополнительно сделать, чтобы оно работало ?

 

Если в конфиге установлены днс руками - берет из конфига, если нет - вообще не выдает днс.

 

Вот лог :

 

2014-06-20 16:32:03]:  info: eth2.1500.3001: recv [RADIUS(1) Access-Accept id=1 <DHCP-Router-IP-Address:241 192.168.14.250> <Framed-IP-Address:8 192.168.14.61> <DHCP-Mask:242 255.255.255.0> <Filter-Id:11 "50000/50000"> <Acct-Interim-Interval:85 60><Microsoft:28 MS-Primary-DNS-Server 172.16.5.2><Microsoft:29 MS-Secondary-DNS-Server 172.16.5.1>]

Информации в мануале не нашёл, может как то так

/etc/accel-pppd.conf

[dns]
dns1=MS-Primary-DNS-Server
dns2=MS-Secondary-DNS-Server

 

PS/ проверил, как то странно заработало, точнее не заработало.

[2014-06-23 10:44:05]:  info: eth1: recv [DHCPv4 Request xid=1686f3e1 ciaddr=192.168.39.95 chaddr=c8:3a:35:d8:f3:42 <Message-Type Request> <Client-ID 01c83a35d8f342> <Host-Name 18bfa0c4b5694e9> <Option-81 0000003138626661306334623536393465392e> <Vendor-Class 4d53465420352e30> <Request-List Subnet,Domain-Name,Router,DNS,44,46,47,31,Route,249,Vendor-Specific> <Vendor-Specific dc0100>]
[2014-06-23 10:44:05]:  info: eth1: send [DHCPv4 Ack xid=1686f3e1 ciaddr=192.168.39.95 yiaddr=192.168.39.95 chaddr=c8:3a:35:d8:f3:42 <Message-Type Ack> <Server-ID 192.168.39.254> <Lease-Time 30> <Router 192.168.39.254> <Subnet 255.255.255.0> <DNS 255.255.255.255,255.255.255.255>]

 

Выдаёт 255.255.255.255,255.255.255.255, радиусом передаю 8.8.8.8 и 8.8.4.4.

Изменено пользователем Dimka88

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Вылез неприятный баг в ipoe

 

Обновил версию на коммит d5776039b12c3c1016b3bb6ccede69bacf23ae1e - получил два краша за день. Логов нету вообще - как будто асель взял и завершился сам. Что самое интересное - падает он на двух серверах сразу, при том, что на одном из них сессий нет вообще.

На коммите ec41e172a9da0de7cf5c28027928c698d0d1ebf8 все работало стабильно.

 

Режим работы L2+dvcpv4+opt82

 

Еще один момент - может кому полезно будет. У нас GePon сеть и на голове BDCOM P3310B есть крайне не приятная особенность - снуппинг отрабатывает корректно только с первым пакетом, в остальных опт82 просто не вставляется и ассель естественно решеат, что сменили порт (там в файле accel-pppd/ctrl/ipoe/ipoe.c есть эта проверка - я тупо закоментил =) )

 

/*      if (pack->relay_agent && !opt82_match) {
               log_ppp_info2("port change detected\n");
               if (pack->msg_type == DHCPREQUEST)
                       dhcpv4_send_nak(dhcpv4, pack);
               triton_context_call(ses->ctrl.ctx, (triton_event_func)__ipoe_session_terminate, &ses->ses);
               return;
       }*/

Изменено пользователем atarget

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

dmesg. там скорее всего segfault, включайте запись корок, пересобирайте в дебаге, ждите падения, смотрите что скажет gdb и отправляйте разработчику

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Начали разбираться с акселем, столкнулись с проблемой балансировки сетевых карт.

В сервер стоят карты на чипе Intel 82576

На картах настроено по умолчанию 8 очередей на вход и 8 на выход.

Если на карте eth6 которая смотрит на верх в сторону бордера все красиво

ethtool -S eth6 | grep pack

rx_packets: 710787

tx_packets: 273748

tx_queue_0_packets: 1894

tx_queue_1_packets: 2

tx_queue_2_packets: 38

tx_queue_3_packets: 271769

tx_queue_4_packets: 23

tx_queue_5_packets: 15

tx_queue_6_packets: 7

tx_queue_7_packets: 0

rx_queue_0_packets: 23334

rx_queue_1_packets: 164886

rx_queue_2_packets: 32003

rx_queue_3_packets: 22989

rx_queue_4_packets: 220295

rx_queue_5_packets: 25014

rx_queue_6_packets: 72344

rx_queue_7_packets: 149922

 

То на карте eth2 в сторону пользователей все грустно и трафик идет в одну очередь.

ethtool -S eth2 | grep pack

rx_packets: 26853

tx_packets: 21591

tx_queue_0_packets: 0

tx_queue_1_packets: 0

tx_queue_2_packets: 0

tx_queue_3_packets: 0

tx_queue_4_packets: 0

tx_queue_5_packets: 18258

tx_queue_6_packets: 3333

tx_queue_7_packets: 0

rx_queue_0_packets: 26853

rx_queue_1_packets: 0

rx_queue_2_packets: 0

rx_queue_3_packets: 0

rx_queue_4_packets: 0

rx_queue_5_packets: 0

rx_queue_6_packets: 0

rx_queue_7_packets: 0

 

Accel настроен в режиме ip-unnumbered с QinQ, адрес навешен на lo, s-vlan подымается при старте системы, c-vlan разворачивается по приходу пакета от пользователя.

 

Часть конфига

[ipoe]
verbose=1
username=ifname
lease-time=1800
max-lease-time=1800
attr-dhcp-client-ip=Framed-IP-Address
attr-dhcp-router-ip=DHCP-Router-IP-Address
attr-dhcp-mask=DHCP-Mask
#attr-l4-redirect=L4-Redirect
shared=0
proxy-arp=0
proto=100
ifcfg=0
mode=L2
gw-ip-address=1хх.1уу.200.1/21
start=dhcpv4
vlan-timeout=60
vlan-name=%I.%N
ippool=dhcp-subs
vlan-mon=re:eth2\.3[0-9][0-9][0-9],101-750
interface=re:eth2\.3[0-9][0-9][0-9].[1-7][0-9][0-9]

 

Скажите у всех такая картина или надо что-то делать?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

rx_packets: 26853

tx_packets: 21591

tx_queue_0_packets: 0

tx_queue_1_packets: 0

tx_queue_2_packets: 0

tx_queue_3_packets: 0

tx_queue_4_packets: 0

tx_queue_5_packets: 18258

tx_queue_6_packets: 3333

tx_queue_7_packets: 0

rx_queue_0_packets: 26853

rx_queue_1_packets: 0

rx_queue_2_packets: 0

rx_queue_3_packets: 0

rx_queue_4_packets: 0

rx_queue_5_packets: 0

rx_queue_6_packets: 0

rx_queue_7_packets: 0

Мы делаем бондинг и на циске баланс по src mac. На тех же 82576. И такой картины не встречал. Может это именно из за QinQ,думаю что с этим связано.

 

Вот как на tg3

 97:          4          0  661334180          0          0          0          0          0          0          0          0          0          0          0 0          0   PCI-MSI-edge      eno3-0
 98:          4          0          0 3723360137          0          0          0          0          0          0          0          0          0          0          0          0   PCI-MSI-edge      eno3-1
 99:          4          0          0          0 3450006883          0          0          0          0          0          0          0          0          0          0          0   PCI-MSI-edge      eno3-2
100:          4          0          0          0          0 3495931365          0          0          0          0          0          0          0          0          0          0   PCI-MSI-edge      eno3-3
101:          4          0          0          0          0          0 3443633639          0          0          0          0          0          0          0          0          0   PCI-MSI-edge      eno3-4
102:          4          0          0          0          0          0          0  660350681          0          0          0          0          0          0          0          0   PCI-MSI-edge      eno4-0
103:          4          0          0          0          0          0          0          0 3719245830          0          0          0          0          0          0          0   PCI-MSI-edge      eno4-1
104:          4          0          0          0          0          0          0          0          0 3426087961          0          0          0          0          0          0   PCI-MSI-edge      eno4-2
105:          4          0          0          0          0          0          0          0          0          0 3496566350          0          0          0          0          0   PCI-MSI-edge      eno4-3
106:          4          0          0          0          0          0          0          0          0          0          0 3478172548          0          0          0          0   PCI-MSI-edge      eno4-4

Жду 10g карточку.

 

А вот статистика без использования QinQ

NAS ~ # ethtool -S eth1 | grep pack
    rx_packets: 151217980109
    tx_packets: 148824209916
    tx_queue_0_packets: 9177052
    tx_queue_1_packets: 148796774772
    tx_queue_2_packets: 9187061
    tx_queue_3_packets: 9071034
    rx_queue_0_packets: 36439305484
    rx_queue_1_packets: 37379645396
    rx_queue_2_packets: 38522997233
    rx_queue_3_packets: 38876017300
NAS ~ # ethtool -S eth0 | grep pack
    rx_packets: 147263687734
    tx_packets: 148824820178
    tx_queue_0_packets: 9174037
    tx_queue_1_packets: 148797390200
    tx_queue_2_packets: 9183730
    tx_queue_3_packets: 9072193
    rx_queue_0_packets: 37416425869
    rx_queue_1_packets: 35704161648
    rx_queue_2_packets: 39702010188
    rx_queue_3_packets: 34441073574

Изменено пользователем Dimka88

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

На броадкомах(bnx2) у нас нормально очереди работают с qinq. У интеля вероятно чудеса из-за qinq, та же ситуация что и с pppoe.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

У интеля вероятно чудеса из-за qinq, та же ситуация что и с pppoe.

Похоже на то, интересно как остальные работают.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

DMiTRONiK

Используем 82576 - проблемы нет.

 

 

rx_packets: 154101761413

tx_packets: 171018345935

tx_queue_0_packets: 18345

tx_queue_1_packets: 170515159938

tx_queue_2_packets: 104

tx_queue_3_packets: 2835

tx_queue_4_packets: 17948

tx_queue_5_packets: 2002768

tx_queue_6_packets: 1957

tx_queue_7_packets: 501142039

rx_queue_0_packets: 152279719913

rx_queue_1_packets: 121751423

rx_queue_2_packets: 146339102

rx_queue_3_packets: 125527301

rx_queue_4_packets: 99218429

rx_queue_5_packets: 100465722

rx_queue_6_packets: 1096985048

rx_queue_7_packets: 131419071

 

 

ИМХО, проблема точно не в accel-ppp.

Может проблема в драйвере? Попробуйте обновить отсюда:

http://sourceforge.net/projects/e1000/files/igb%20stable/

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

DMiTRONiK

Используем 82576 - проблемы нет.

 

 

rx_packets: 154101761413

tx_packets: 171018345935

tx_queue_0_packets: 18345

tx_queue_1_packets: 170515159938

tx_queue_2_packets: 104

tx_queue_3_packets: 2835

tx_queue_4_packets: 17948

tx_queue_5_packets: 2002768

tx_queue_6_packets: 1957

tx_queue_7_packets: 501142039

rx_queue_0_packets: 152279719913

rx_queue_1_packets: 121751423

rx_queue_2_packets: 146339102

rx_queue_3_packets: 125527301

rx_queue_4_packets: 99218429

rx_queue_5_packets: 100465722

rx_queue_6_packets: 1096985048

rx_queue_7_packets: 131419071

 

 

ИМХО, проблема точно не в accel-ppp.

Может проблема в драйвере? Попробуйте обновить отсюда:

http://sourceforge.net/projects/e1000/files/igb%20stable/

Ну вы хоть сами свои данные просмотрите. Работает только 0 очередь, на остальных на порядок-два меньше трафика - очереди не работают.

Естественно accel не при чем, виноват кривой драйвер интела.

Изменено пользователем kayot

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Dimka88

ваш вопрос вообще никакого отношения к accel не имеет. всё что касается форвардинга, аппаратных очередей и т.п. - в тему linux softrouter

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

kayot

Упс, да, не доглядел :(

Upd igb 5.2.5 так же не помогает.

Изменено пользователем purecopper

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

RPS задействовать только...

О, вопрос автору: а можно ли управление RPS прикрутить к акселю? Или проще не заморачиваться а скриптами рулить?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Возник другой вопрос.

accel-ppp version 1.8.0. Схема ip-unnumbered с QinQ

При наращивании абонентов, сильно начала расти загрузка.

Вывод perf top

78.19% [ipoe] [k] 0x00000000000008c9

2.52% [kernel] [k] cpu_startup_entry

1.00% [igb] [k] igb_poll

0.57% [kernel] [k] _raw_spin_lock_irqsave

 

Такая картина при 400 абонентах онлайн с суммарным трафиком в 100 Мб

Вот еще вывод топа

%Cpu0 : 0,0 us, 0,0 sy, 0,0 ni, 92,7 id, 0,0 wa, 0,0 hi, 7,3 si, 0,0 st

%Cpu1 : 0,0 us, 0,0 sy, 0,0 ni, 99,0 id, 0,0 wa, 0,0 hi, 1,0 si, 0,0 st

%Cpu2 : 0,0 us, 0,0 sy, 0,0 ni, 88,5 id, 0,0 wa, 0,0 hi, 11,5 si, 0,0 st

%Cpu3 : 0,0 us, 0,0 sy, 0,0 ni, 98,1 id, 0,0 wa, 0,0 hi, 1,9 si, 0,0 st

%Cpu4 : 0,0 us, 0,0 sy, 0,0 ni, 68,4 id, 0,0 wa, 0,0 hi, 31,6 si, 0,0 st

%Cpu5 : 0,3 us, 0,3 sy, 0,0 ni, 98,7 id, 0,0 wa, 0,0 hi, 0,7 si, 0,0 st

%Cpu6 : 0,0 us, 0,4 sy, 0,0 ni, 94,8 id, 0,0 wa, 0,0 hi, 4,8 si, 0,0 st

%Cpu7 : 0,0 us, 0,0 sy, 0,0 ni, 93,5 id, 0,0 wa, 0,0 hi, 6,5 si, 0,0 st

KiB Mem: 16463148 total, 508932 used, 15954216 free, 38276 buffers

 

Кто-то сталкивался с подобным?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Dimka88

ваш вопрос вообще никакого отношения к accel не имеет. всё что касается форвардинга, аппаратных очередей и т.п. - в тему linux softrouter

Я то тут причём? У меня все работает, вы наверное невнимательно прочитали. Я никаких вопрос по IRQ не задавал, а как факт привёл свои статистики.

Изменено пользователем Dimka88

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Господа, помогите вспомнить, где-то тут это было.

После перехода на шейпер в pppd_compat (схема ipoe l2 + qinq + ip unnumbered) стали появляться зомби-процессы ip-up и ip-down, а также сессии, залипшие в finished. Это уже исправлено?

 

А, нашёл. На предыдущей странице. Либо откат, либо переходить пока на встроенный шейпер.

Изменено пользователем Abram

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

DMiTRONiK

Соберите с дебагом как минимум модуль ядра, для информативности...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Господа, помогите вспомнить, где-то тут это было.

После перехода на шейпер в pppd_compat (схема ipoe l2 + qinq + ip unnumbered) стали появляться зомби-процессы ip-up и ip-down, а также сессии, залипшие в finished. Это уже исправлено?

 

А, нашёл. На предыдущей странице. Либо откат, либо переходить пока на встроенный шейпер.

а зачем pppd_compat?

 

народ, а чего http://sourceforge.net/apps/trac/accel-ppp/wiki/IPoE_ru не открывается?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Господа, помогите вспомнить, где-то тут это было.

После перехода на шейпер в pppd_compat (схема ipoe l2 + qinq + ip unnumbered) стали появляться зомби-процессы ip-up и ip-down, а также сессии, залипшие в finished. Это уже исправлено?

 

А, нашёл. На предыдущей странице. Либо откат, либо переходить пока на встроенный шейпер.

а зачем pppd_compat?

Хитрый шейпер, в котором не режутся и приоритезируются некоторые подсети.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Здравствуйте,

подскажите, пожалуйста, искал тут, но не нашел.

 

Хочу использовать accel-ppp в качестве PPPoE терминатора вместе с зоопарком роутеров Cisco.

Поставил accel-ppp-1.8.0_wheezy_amd64.deb с sf.net, все настроил по ману и примерам из темы.

 

Столкнулся с несколькими проблемами:

  • в биллинг (на RADIUS сервер) не прилетает атрибут NAS-Port-Id
     
  • так же отсутствует Cisco-AVPair (client-mac-address)
     
  • список DNS серверов из биллинга приходит в таком формате Cisco-AVPair="ip:dns-servers=172.16.0.1 172.18.0.1" и до клиента не доходит. Какие есть варианты назначения DNS из биллинга?
     
  • при подключении клиента в логах появляется сообщение
    warn: ppp0: radius: MS-MPPE-Recv-Key: incorrect attribute length (16)
    warn: ppp0: radius: MS-MPPE-Send-Key: incorrect attribute length (16)

    Кто виноват? Это можно игнорировать?

Изменено пользователем cREoz

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.