komper Опубликовано 25 декабря, 2014 · Жалоба Добрый день!!! с ipv6 на ipoe c qinq происходит такое в настройках было такое [ipv6-pool] 2001:db8:0:3800::/53,64 delegate=2001:db8:0:3800::/53,64 [ipv6-dns] 2001:db8:0::25 #2620:0:ccc::2 #2001:4860:4860::8888 dnssl=einform.net #dnssl=suffix2.local.net. [ipv6-dhcp] verbose=1 pref-lifetime=600 valid-lifetime=600 route-via-gw=1 59: eth1.3003.202@eth1.3003: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc tbf state UP link/ether 90:e2:ba:35:8d:d8 brd ff:ff:ff:ff:ff:ff inet6 2001:db8:0:3813::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:3812::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:3811::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:3810::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:380f::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:380e::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:380d::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:380c::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:380b::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:380a::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:3809::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:3808::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:3807::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:3806::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:3805::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:3804::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:3803::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:3802::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:3801::/64 scope global nodad valid_lft forever preferred_lft forever inet6 2001:db8:0:3800::/64 scope global nodad valid_lft forever preferred_lft forever inet6 fe80::92e2:baff:fe35:8dd8/64 scope link valid_lft forever preferred_lft forever Как сделать так чтоб один адрес всегда обновлялся!!! Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Abram Опубликовано 25 декабря, 2014 · Жалоба nsa2006, Сделайте человеческий дамп в pcap файл, по этих простынях ничего не видно. Желательно с двух BRAS-ов одновременно. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 25 декабря, 2014 · Жалоба komper, похоже какой-то глюк [ipv6-pool]2001:db8:0:3800::/53,64 delegate=2001:db8:0:3800::/53,64 это к глюку отношение не имеет, но вообще-то основной диапазон и делегируемый должны быть разными Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
tux Опубликовано 29 декабря, 2014 · Жалоба Возник такой вопрос. Если использовать accel в качестве pppoe сервера (os linux). И на нем, скажем, будет 500 клиентов. В определенный момент произойдет кратковременное выключение света (15-20 сек). У всех этих абонентов перезагружатся роутеры, ноутбуки и прочее. Вопрос как поведет себя accel в такой ситуации? т.к. стандартный pppoe-server (rp_pppe) в момент мигания света начинает плодить сессии (т.е. старые еще висят, а новые уже лезут) и из-за этого система становится колом и приходится руками грохать все ppp сессии и запускать заново. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 29 декабря, 2014 · Жалоба tux Это скорее к биллингу и радиусу вопрос, а не к терминатору. Как могут лезть какие-то сессии? Если прошло 20 секунд(недостаточно для отсыхания старой сессии) - на попытку поднятия новой сессии должен быть отлуп, как только старый тоннель сдох по таймауту(секунд через 40-50) - добро пожаловать. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Abram Опубликовано 29 декабря, 2014 · Жалоба Дубли - проблема биллинга. Если же маршрутизатор "стаёт колом" из-за большого количества одновременных подключений - то у accel-ppp с этим всё нормально. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nicolnx Опубликовано 29 декабря, 2014 · Жалоба А в какой репозиторий, собственно, слать merge requests? https://sourceforge.net/p/accel-ppp/ ? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
tux Опубликовано 30 декабря, 2014 · Жалоба Дубли - проблема биллинга. Если же маршрутизатор "стаёт колом" из-за большого количества одновременных подключений - то у accel-ppp с этим всё нормально. о! вот это я и хотел услышать. В биллинге и так стоит лимит в одну сессию на абонента. Спасибо. Буду пробовать. Да кстати. Как accel справляется с нагрузкой (все тотже рррое) проблем с 2-3к сессий не будет? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Abram Опубликовано 30 декабря, 2014 · Жалоба tux, Проблем быть не должно. Ещё одно: для борьбы с RADIUS-штормами при большом кол-ве подключений рекомендуется в секции radius вписывать req-limit. nicolnx, Мелочь всякую можно ещё вот сюда: http://accel-ppp.org/forum/viewforum.php?f=17 . Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
pashaumka Опубликовано 30 декабря, 2014 · Жалоба День добрый, Xeb. вопрос по пулам возможно ли так указать ? 91.X.Y.0/23,name=ip_inet_pool 10.J.0.0/20,name=ip_inet_pool Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 30 декабря, 2014 · Жалоба можно Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Lynx10 Опубликовано 3 января, 2015 · Жалоба А кто-то пробовал терминировать одновременно и по L2 shared и по L2 vlan per user но на разных интерфейсах ? смущает опция username в одном случае она должна быть username=lua:username в другом username=ifname ------------------------------------- По ходу возникает другой вопрос а если запустить 2 копии accel но с разными конфигами... они уживутся вместе? т.е. не будет проблем с модулем ядра и vlan-mon ? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nik247 Опубликовано 3 января, 2015 · Жалоба А кто-то пробовал терминировать одновременно и по L2 shared и по L2 vlan per user но на разных интерфейсах ? смущает опция username в одном случае она должна быть username=lua:username в другом username=ifname ------------------------------------- Так опция "username" указывается per interface - должно работать. По ходу возникает другой вопрос а если запустить 2 копии accel но с разными конфигами... они уживутся вместе? т.е. не будет проблем с модулем ядра и vlan-mon ? Работаеют "2 копии accel, но с разными конфигами" - нужно немного стартовые скритпы обновить. Только при работе с ipoe есть маленький ньюанс - если ipoe используется в обоих, то при презеагрузке одного из них в системе дергается модуль ipoe и удаляются все ipoe интерфейсы от обоих демонов accel-ppp. Xeb сказал пока это не лечится - позже (после выхода 1.9.0) будет смотреть. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Lynx10 Опубликовано 3 января, 2015 · Жалоба Работаеют "2 копии accel, но с разными конфигами" - нужно немного стартовые скритпы обновить. Только при работе с ipoe есть маленький ньюанс - если ipoe используется в обоих, то при презеагрузке одного из них в системе дергается модуль ipoe и удаляются все ipoe интерфейсы от обоих демонов accel-ppp. Xeb сказал пока это не лечится - позже (после выхода 1.9.0) будет смотреть. Спасибо! то что интересовало! Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
s.lobanov Опубликовано 3 января, 2015 · Жалоба А если запускать accel-pppd в netns-е, то по и идее и модуль ipoe увидит только те интерфейсы, которые видны из netns-а. Кому нужно две копии accel в режиме IPoE - попробуйте такой трюк. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 4 января, 2015 · Жалоба в netns может не работать, т.к. нужна поддержка со стороны драйвера, а её нет Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Lynx10 Опубликовано 5 января, 2015 · Жалоба А кто-то пробовал терминировать одновременно и по L2 shared и по L2 vlan per user но на разных интерфейсах ? смущает опция username в одном случае она должна быть username=lua:username в другом username=lua:username ------------------------------------- Так опция "username" указывается per interface - должно работать. Все работает! на одном интерефейса терминируется по схеме шаред с username=lua:username, на другом по схеме влан на юзера с username=lua:username всем спасибо Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
sirmax Опубликовано 5 января, 2015 · Жалоба в netns может не работать, т.к. нужна поддержка со стороны драйвера, а её нет я код не смотрел, но предпологал что нетнс-ы полностью создают все что надо, что бы не требовать поддержки ... Плохая новость ( Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dmitry76 Опубликовано 9 января, 2015 · Жалоба Небольшой вопрос касаемо атрибута nas-port. В связке rp-pppoe+pppd nas-port соответствует номеру ppp интерфейса (например, nas-port:12, ppp12). В accel же нумерация nas-port увеличивается с каждым реконнектом пользователя.Сейчас у меня 10 человек, а nas-port уже к 5000 подбирается. Вот у человека интерфейс ipoe6, а nas-port 4792. Можно ли как-то привзятать одно к другому? Спасибо! Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 9 января, 2015 · Жалоба для ппп NAS-Port=X соответствует pppX для ipoe NAS-Port это ifindex интерфейса начиная с 1.9 передаётся ещё один атрибут NAS-Port-Id с полным именем интерфейса Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dmitry76 Опубликовано 15 января, 2015 (изменено) · Жалоба для ппп NAS-Port=X соответствует pppX для ipoe NAS-Port это ifindex интерфейса начиная с 1.9 передаётся ещё один атрибут NAS-Port-Id с полным именем интерфейса Спасибо за ответ. Обновился и, действительно, в новом атрибуте есть имя интерфейса. Есть еще один момент, не знаю как правильнее его реализовать. accel работает в режиме DHCP/L2 IPOE с выдачей адресов из радиуса. Допустим, есть пул 192.168.0.0/24 (.1 на самом сервере). Радиус выдает клиенту адреса из этого пула, а также маску и адрес шлюза. Вижу так: DHCP-Client-IP-Address 192.168.0.3 DHCP-Mask 255.255.255.0 DHCP-Router-IP-Address 192.168.0.1 Всё прекрасно работает. Но! Появился клиент которому нужен фиксированный реальный адрес, например 1.2.3.4/32. Ок, отдадим его в DHCP-Client-IP-Address и клиент заработает. Но проблема очевидна: клиент не видит ресурсов из сети 1.2.3.0/24 потому что винда на стороне клиента вставляет его в локальную таблицу маршрутизации на основе инфу полученной по dhcp. Проблема в том, что эти реальные адреса раскиданы по разным диапазонам и нет возможности поднять честную сеть на роутере алиасом. Продвинутый клиент удалит у себя запись в маршрутах для этой сети (route delete 1.2.3.0 255.255.255.0) и заработает нормально. но не вссе такие умные. Пока вот, думаю, как быть. Изменено 15 января, 2015 пользователем Dmitry76 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 15 января, 2015 · Жалоба объясни подробней, для меня не очевидно почему какие-либо ресурсы могут не работать в данной ситуации Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Abram Опубликовано 15 января, 2015 · Жалоба Dmitry76, Либо используйте ip unnumbered (и, соответственно, proxy arp), либо выдавайте этому клиенту не /24, а /30 или /31 (лучше, конечно, /31, если клиент умеет). Более универсальный вариант - это, конечно, vlan per user (qinq, например) + ip unnumbered. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mugur Опубликовано 16 января, 2015 · Жалоба Dmitry76, Либо используйте ip unnumbered (и, соответственно, proxy arp), либо выдавайте этому клиенту не /24, а /30 или /31 (лучше, конечно, /31, если клиент умеет). Более универсальный вариант - это, конечно, vlan per user (qinq, например) + ip unnumbered. Добрый день! Начал тестировать подключение по qinq. Прочел море информации про ip unnumbered, но так и понял как его реализовать. Мне необходимо выдать белые адреса абонентам. При pppoe было главное отдать Framed-IP-Address и все. При ip unnumbered как выдается маска и шлюз? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nsa2006 Опубликовано 16 января, 2015 · Жалоба Существуют методы детектирования и подавления unicast атак на уровне accel-ppp? В последние два дня наблюдаю всплески, в одно и тоже время с разных BRAS! Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...