Jump to content
Калькуляторы

Добрый день!!!

с ipv6 на ipoe c qinq происходит такое

 

в настройках было такое

 

[ipv6-pool]
2001:db8:0:3800::/53,64
delegate=2001:db8:0:3800::/53,64

[ipv6-dns]
2001:db8:0::25
#2620:0:ccc::2
#2001:4860:4860::8888
dnssl=einform.net
#dnssl=suffix2.local.net.

[ipv6-dhcp]
verbose=1
pref-lifetime=600
valid-lifetime=600
route-via-gw=1

59: eth1.3003.202@eth1.3003: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc tbf state UP 
   link/ether 90:e2:ba:35:8d:d8 brd ff:ff:ff:ff:ff:ff
   inet6 2001:db8:0:3813::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:3812::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:3811::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:3810::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:380f::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:380e::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:380d::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:380c::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:380b::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:380a::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:3809::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:3808::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:3807::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:3806::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:3805::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:3804::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:3803::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:3802::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:3801::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 2001:db8:0:3800::/64 scope global nodad 
      valid_lft forever preferred_lft forever
   inet6 fe80::92e2:baff:fe35:8dd8/64 scope link 
      valid_lft forever preferred_lft forever

 

 

Как сделать так чтоб один адрес всегда обновлялся!!!

Share this post


Link to post
Share on other sites

nsa2006,

Сделайте человеческий дамп в pcap файл, по этих простынях ничего не видно. Желательно с двух BRAS-ов одновременно.

Share this post


Link to post
Share on other sites

komper, похоже какой-то глюк

 

[ipv6-pool]

2001:db8:0:3800::/53,64

delegate=2001:db8:0:3800::/53,64

это к глюку отношение не имеет, но вообще-то основной диапазон и делегируемый должны быть разными

Share this post


Link to post
Share on other sites

Возник такой вопрос. Если использовать accel в качестве pppoe сервера (os linux). И на нем, скажем, будет 500 клиентов. В определенный момент произойдет кратковременное выключение света (15-20 сек). У всех этих абонентов перезагружатся роутеры, ноутбуки и прочее. Вопрос как поведет себя accel в такой ситуации? т.к. стандартный pppoe-server (rp_pppe) в момент мигания света начинает плодить сессии (т.е. старые еще висят, а новые уже лезут) и из-за этого система становится колом и приходится руками грохать все ppp сессии и запускать заново.

Share this post


Link to post
Share on other sites

tux

Это скорее к биллингу и радиусу вопрос, а не к терминатору. Как могут лезть какие-то сессии?

Если прошло 20 секунд(недостаточно для отсыхания старой сессии) - на попытку поднятия новой сессии должен быть отлуп, как только старый тоннель сдох по таймауту(секунд через 40-50) - добро пожаловать.

Share this post


Link to post
Share on other sites

Дубли - проблема биллинга.

Если же маршрутизатор "стаёт колом" из-за большого количества одновременных подключений - то у accel-ppp с этим всё нормально.

Share this post


Link to post
Share on other sites

Дубли - проблема биллинга.

Если же маршрутизатор "стаёт колом" из-за большого количества одновременных подключений - то у accel-ppp с этим всё нормально.

о! вот это я и хотел услышать. В биллинге и так стоит лимит в одну сессию на абонента. Спасибо. Буду пробовать. Да кстати. Как accel справляется с нагрузкой (все тотже рррое) проблем с 2-3к сессий не будет?

Share this post


Link to post
Share on other sites

tux,

Проблем быть не должно.

Ещё одно: для борьбы с RADIUS-штормами при большом кол-ве подключений рекомендуется в секции radius вписывать req-limit.

 

nicolnx,

Мелочь всякую можно ещё вот сюда: http://accel-ppp.org/forum/viewforum.php?f=17 .

Share this post


Link to post
Share on other sites

День добрый, Xeb.

 

вопрос по пулам

 

возможно ли так указать ?

91.X.Y.0/23,name=ip_inet_pool

10.J.0.0/20,name=ip_inet_pool

Share this post


Link to post
Share on other sites

А кто-то пробовал терминировать одновременно и по L2 shared и по L2 vlan per user но на разных интерфейсах ?

 

смущает опция username

 

в одном случае она должна быть

username=lua:username

 

в другом

username=ifname

-------------------------------------

 

По ходу возникает другой вопрос

а если запустить 2 копии accel но с разными конфигами... они уживутся вместе? т.е. не будет проблем с модулем ядра и vlan-mon ?

Share this post


Link to post
Share on other sites

А кто-то пробовал терминировать одновременно и по L2 shared и по L2 vlan per user но на разных интерфейсах ?

 

смущает опция username

 

в одном случае она должна быть

username=lua:username

 

в другом

username=ifname

-------------------------------------

Так опция "username" указывается per interface - должно работать.

По ходу возникает другой вопрос

а если запустить 2 копии accel но с разными конфигами... они уживутся вместе? т.е. не будет проблем с модулем ядра и vlan-mon ?

Работаеют "2 копии accel, но с разными конфигами" - нужно немного стартовые скритпы обновить.

Только при работе с ipoe есть маленький ньюанс - если ipoe используется в обоих, то при презеагрузке одного из них в системе дергается модуль ipoe и удаляются все ipoe интерфейсы от обоих демонов accel-ppp. Xeb сказал пока это не лечится - позже (после выхода 1.9.0) будет смотреть.

Share this post


Link to post
Share on other sites

Работаеют "2 копии accel, но с разными конфигами" - нужно немного стартовые скритпы обновить.

Только при работе с ipoe есть маленький ньюанс - если ipoe используется в обоих, то при презеагрузке одного из них в системе дергается модуль ipoe и удаляются все ipoe интерфейсы от обоих демонов accel-ppp. Xeb сказал пока это не лечится - позже (после выхода 1.9.0) будет смотреть.

Спасибо!

то что интересовало!

Share this post


Link to post
Share on other sites

А если запускать accel-pppd в netns-е, то по и идее и модуль ipoe увидит только те интерфейсы, которые видны из netns-а. Кому нужно две копии accel в режиме IPoE - попробуйте такой трюк.

Share this post


Link to post
Share on other sites

в netns может не работать, т.к. нужна поддержка со стороны драйвера, а её нет

Share this post


Link to post
Share on other sites

А кто-то пробовал терминировать одновременно и по L2 shared и по L2 vlan per user но на разных интерфейсах ?

 

смущает опция username

 

в одном случае она должна быть

username=lua:username

 

в другом

username=lua:username

-------------------------------------

Так опция "username" указывается per interface - должно работать.

 

Все работает!

на одном интерефейса терминируется по схеме шаред с username=lua:username, на другом по схеме влан на юзера с username=lua:username

всем спасибо

Share this post


Link to post
Share on other sites

в netns может не работать, т.к. нужна поддержка со стороны драйвера, а её нет

я код не смотрел, но предпологал что нетнс-ы полностью создают все что надо, что бы не требовать поддержки ...

Плохая новость (

Share this post


Link to post
Share on other sites

Небольшой вопрос касаемо атрибута nas-port. В связке rp-pppoe+pppd nas-port соответствует номеру ppp интерфейса (например, nas-port:12, ppp12). В accel же нумерация nas-port увеличивается с каждым реконнектом пользователя.Сейчас у меня 10 человек, а nas-port уже к 5000 подбирается. Вот у человека интерфейс ipoe6, а nas-port 4792. Можно ли как-то привзятать одно к другому? Спасибо!

Share this post


Link to post
Share on other sites

для ппп NAS-Port=X соответствует pppX

для ipoe NAS-Port это ifindex интерфейса

начиная с 1.9 передаётся ещё один атрибут NAS-Port-Id с полным именем интерфейса

Share this post


Link to post
Share on other sites

для ппп NAS-Port=X соответствует pppX

для ipoe NAS-Port это ifindex интерфейса

начиная с 1.9 передаётся ещё один атрибут NAS-Port-Id с полным именем интерфейса

Спасибо за ответ. Обновился и, действительно, в новом атрибуте есть имя интерфейса.

Есть еще один момент, не знаю как правильнее его реализовать. accel работает в режиме DHCP/L2 IPOE с выдачей адресов из радиуса.

Допустим, есть пул 192.168.0.0/24 (.1 на самом сервере). Радиус выдает клиенту адреса из этого пула, а также маску и адрес шлюза. Вижу так:

DHCP-Client-IP-Address 192.168.0.3

DHCP-Mask 255.255.255.0

DHCP-Router-IP-Address 192.168.0.1

Всё прекрасно работает. Но! Появился клиент которому нужен фиксированный реальный адрес, например 1.2.3.4/32. Ок, отдадим его в DHCP-Client-IP-Address и клиент заработает. Но проблема очевидна:

клиент не видит ресурсов из сети 1.2.3.0/24 потому что винда на стороне клиента вставляет его в локальную таблицу маршрутизации на основе инфу полученной по dhcp. Проблема в том, что

эти реальные адреса раскиданы по разным диапазонам и нет возможности поднять честную сеть на роутере алиасом. Продвинутый клиент удалит у себя запись в маршрутах для этой сети (route delete 1.2.3.0 255.255.255.0) и заработает нормально. но не вссе такие умные. Пока вот, думаю, как быть.

Edited by Dmitry76

Share this post


Link to post
Share on other sites

объясни подробней, для меня не очевидно почему какие-либо ресурсы могут не работать в данной ситуации

Share this post


Link to post
Share on other sites

Dmitry76,

Либо используйте ip unnumbered (и, соответственно, proxy arp), либо выдавайте этому клиенту не /24, а /30 или /31 (лучше, конечно, /31, если клиент умеет).

Более универсальный вариант - это, конечно, vlan per user (qinq, например) + ip unnumbered.

Share this post


Link to post
Share on other sites

Dmitry76,

Либо используйте ip unnumbered (и, соответственно, proxy arp), либо выдавайте этому клиенту не /24, а /30 или /31 (лучше, конечно, /31, если клиент умеет).

Более универсальный вариант - это, конечно, vlan per user (qinq, например) + ip unnumbered.

 

 

Добрый день! Начал тестировать подключение по qinq. Прочел море информации про ip unnumbered, но так и понял как его реализовать. Мне необходимо выдать белые адреса абонентам. При pppoe было главное отдать Framed-IP-Address и все. При ip unnumbered как выдается маска и шлюз?

Share this post


Link to post
Share on other sites

Существуют методы детектирования и подавления unicast атак на уровне accel-ppp?

В последние два дня наблюдаю всплески, в одно и тоже время с разных BRAS!

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now