Jump to content
Калькуляторы

_longhorn_

Активный участник
  • Content Count

    117
  • Joined

  • Last visited

Everything posted by _longhorn_


  1. xeb Добавлял в секцию radius. Вот что у меня сейчас: [ipoe] verbose=1 mode=L2 shared=1 start=dhcpv4 ifcfg=1 agent-remote-id=accel-ppp interface=eth0.2002 interface=eth0.3947,giaddr=172.16.37.1,relay=192.168.204.30 interface=eth0.44,giaddr=172.16.37.1,relay=192.168.204.30 interface=eth0.46,giaddr=172.16.39.2,relay=192.168.204.30 interface=eth0.47,giaddr=172.16.32.253,relay=192.168.204.30 interface=eth0.208,giaddr=172.16.37.1,relay=192.168.204.30,username=ifname lua-file=/etc/accel-ppp.lua username=lua:username password=1 proxy-arp=1 lease-time=120 max-lease-time=130 [dns] dns1=8.8.8.8 [radius] dictionary=/usr/local/share/accel-ppp/radius/dictionary nas-identifier=accel-ppp nas-ip-address=192.168.204.138 gw-ip-address=172.16.37.1/24 server=192.168.204.30,supertux,auth-port=1812,acct-port=1813,req-limit=0,fail-time=0 dae-server=192.168.204.138:3799,supertux verbose=1 acct-interim-interval=30 timeout=30 max-try=5 acct-timeout=0 #acct-on=1
  2. Abram А без этого никак? Разве accel не узнает шлюз и маску из опции gw-ip-adress в конфиге?
  3. Спасибо огромное, все работает! Наткнулся на новую проблему. До этого использовали accel с внешним dhcp сервером. Решил попробовать выдавать адреса radius`ом, в конфиге добавил gw-ip-address, авторизация проходит, но при этом сессия не поднимается. В логе: [2014-11-07 15:07:23]: info: ipoe10: send [RADIUS(1) Access-Request id=1 <User-Name "10.192.25.215-9"> <NAS-Identifier "accel-ppp"> <NAS-IP-Address 172.16.25.1> <NAS-Port 18854> <NAS-Port-Type Ethernet> <Calling-Station-Id "78:44:76:3f:94:3b"> <Called-Station-Id "eth0.2002"> <User-Password >] [2014-11-07 15:07:23]: info: ipoe10: recv [RADIUS(1) Access-Accept id=1 <Service-Type Framed-User> <Framed-Protocol PPP> <Framed-IP-Address 172.16.55.89> <Framed-IP-Netmask 255.255.255.255> <Session-Timeout 86400> <Acct-Interim-Interval 300>] [2014-11-07 15:07:23]: info: ipoe10: 10.192.25.215-9: authentication succeeded [2014-11-07 15:07:23]: error: ipoe10: can't determine Server-ID [2014-11-07 15:07:23]: debug: ipoe10: terminate [2014-11-07 15:07:23]: info: ipoe10: ipoe: session finished
  4. Вот что настроено на свиче DES-3200-26: Command: show dhcp_local_relay DHCP/BOOTP Local Relay Status : Enabled DHCP/BOOTP Local Relay VID List : 40,54,264,2001-2002 DHCP Relay Agent Information Option 82 Circuit ID : Default DHCP Relay Agent Information Option 82 Remote ID : User Define ( 10.192.26.51 ) Клиент включен в 3-й порт, на accel в username формируется через lua: function username(pkt) v,b1,b2,b3,b4=string.unpack(pkt:agent_remote_id():sub(-4),'bbbb') ip=b1..'.'..b2..'.'..b3..'.'..b4 v,port=string.unpack(string.sub(pkt:agent_circuit_id(),'-1'),'b') local username=ip..'-'..port -- print(username) return username end Вот что в логе accel при попытке авторизации: [2014-11-07 09:51:27]: info: ipoe10: send [RADIUS(1) Access-Request id=1 <User-Name "54.46.53.49-3"> <NAS-Identifier "accel-ppp"> <NAS-IP-Address 172.16.18.1> <NAS-Port 18154> <NAS-Port-Type Ethernet> <Calling-Station-Id "64:66:b3:12:0f:9b"> <Called-Station-Id "eth0.2002"> <User-Password >] Если слушать tshark на accel то прилетает вот такое: Option: (82) Agent Information Option Length: 24 Option 82 Suboption: (1) Agent Circuit ID Length: 6 Agent Circuit ID: 000407d20003 Option 82 Suboption: (2) Agent Remote ID Length: 14 Agent Remote ID: 010c31302e3139322e32362e3531 Option: (255) End Option End: 255 Padding Remote-id свича в hex 31302e3139322e32362e3531.
  5. Добрый вечер всем! Понемногу переводим абонентов на IPoE. В сети на используем Edge-Core и D-Link. С Edge-Core проблем не возникло, поменял remote-id с дефолтного mac на ip и все хорошо. У D-Link оказалось сложнее. Попробовал изменить remote-id на user-defined и там писать ip но так и не осилил, как на lua разобрать remote-id из opt82 и вытянуть оттуда ip адрес. Может кто-нибудь уже делал нечто подобное для себя?
  6. xeb А как это оформить в конфиге? Такая конструкция будет работать? [ipoe] mode=L2 shared=1 start=dhcpv4 ifcfg=1 relay=172.16.7.8 agent-remote-id=accel-ppp interface=re:^vlan[2-4]$,giaddr=192.168.1.1 lua-file=/etc/accel-ppp.lua username=lua:username
  7. Приветствую всех! Запустили у себя ipoe на accel 1.8 релизном, адреса выдает внешний DHCP, пока вроде-бы все ок. У меня вопрос по ip unnumbered. Будет ли работать unnumbered при shared=1 + внешний DHCP сервер на несколько интерфейсов? Или обязательно должно быть vlan-per-user? Хочется сделать один vlan на дом.
  8. Я дурак просто :) Почему-то решил, что без RADIUS должно работать. Разобрался, спасибо!
  9. Добрый день всем! В сети используем PPPoE, хочется перейти на IPoE. Сейчас пробую крутить на стенде accel, версия 1.8.0, Debian 7. Подскажите, пожалуйста, как правильно настроить на работу с внешним DHCP сервером? Такое впечатление, что у меня не работает релей на accel, tcpdump на интерфейсе DHCP сервера совсем ничего не видит. Через RADIUS все хорошо. [ipoe] verbose=1 mode=L2 shared=1 start=dhcpv4 ifcfg=1 relay=192.168.1.10 agent-remote-id=192.168.0.1 interface=vlan2001,giaddr=172.16.0.1 #lua-file=/etc/accel-ppp.lua #username=lua:username
  10. пинг растет из-за этого: ng_queue дальше будут потери... Мало информации что-бы что-нибудь советовать...
  11. moose Сам на днях столкнулся. Нужно libnl2.
  12. carleone Пробуйте или обновляться до RELENG8, либо попробуйте патч под RELENG7 для netisr, его уже выкладывали на форуме.
  13. Кстати начал подозревать что жело не в netfolw, потому-что пробовал его отключать и ничего не изменилось.
  14. Особенно порадовала лекция про трехканальную память и пример с 1Гб :)
  15. Ужас. ТС надо срочно продать себя на органы.
  16. SGrade Проблемы-то нет, просто производительность снижается в несколько раз. А вообще, я бы под Вашу задачу ставил тазик и не парился.
  17. DemYaN Отсюда и нужно начинать, очень помогает.
  18. Я бы собрал сам на i7, сетеваую взял-бы на 82571EB. За 2.5к можно собрать две такие машины и получить либо резервирование, либо вынести шейпер.
  19. Трудно так что-то сказать... Счас телепаты подтянутся, может помогут :) Если серьезно, то нужно знать аппаратную конфигурацию, тоесть что за проц, мать, память, какие сетевухи... Ну и что показывает TOP -S, netstat -w1, systat -v, vmstat -z...
  20. Всем добрый день. Недавно столкнулся с интересной проблемой: есть комп Core i7 930, 6Gb DDR3-1600, Intel PRO/1000 PT Dual Port, на нем стоит FreeBSD 7.3-STABLE, mpd5.5, дрова yandex последние, терминация PPPoE, шейп ng_car. Иногда один из процессов ng_queue выжирает до 100% одного из CPU, нагрузка при этом следующая: top -SP PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND 15 root 1 171 ki31 0K 16K CPU3 3 71:13 95.56% idle: cpu3 13 root 1 171 ki31 0K 16K RUN 5 69:06 92.87% idle: cpu5 17 root 1 171 ki31 0K 16K CPU1 1 67:13 81.69% idle: cpu1 11 root 1 171 ki31 0K 16K RUN 7 63:41 77.39% idle: cpu7 12 root 1 171 ki31 0K 16K CPU6 6 58:56 72.17% idle: cpu6 14 root 1 171 ki31 0K 16K RUN 4 54:10 65.77% idle: cpu4 16 root 1 171 ki31 0K 16K CPU2 2 50:51 61.28% idle: cpu2 18 root 1 171 ki31 0K 16K CPU0 0 50:15 59.57% idle: cpu0 10946 root 1 43 - 0K 16K WAIT 1 19:18 27.49% em1_rx_kthread_2 45 root 1 43 - 0K 16K CPU7 7 19:31 27.29% em1_rx_kthread_1 44 root 1 43 - 0K 16K CPU4 4 19:29 26.86% em1_rx_kthread_0 10947 root 1 43 - 0K 16K WAIT 6 19:17 26.76% em1_rx_kthread_3 40 root 1 43 - 0K 16K WAIT 0 18:59 25.20% em0_rx_kthread_0 6982 root 1 43 - 0K 16K WAIT 2 18:44 23.97% em0_rx_kthread_2 6983 root 1 43 - 0K 16K WAIT 2 18:45 23.88% em0_rx_kthread_3 41 root 1 43 - 0K 16K WAIT 0 19:01 23.49% em0_rx_kthread_1 20 root 1 -32 - 0K 16K WAIT 3 12:06 6.40% swi4: clock sio 86600 root 1 96 0 79876K 35588K select 0 1:45 0.98% mpd5 43 root 1 -68 - 0K 16K WAIT 0 2:11 0.29% em1_txcleaner 4 root 1 -68 - 0K 16K sleep 5 1:32 0.00% ng_queue2 7 root 1 -68 - 0K 16K sleep 2 1:22 0.00% ng_queue5 39 root 1 -68 - 0K 16K WAIT 7 1:03 0.00% em0_txcleaner 2 root 1 -68 - 0K 16K sleep 0 1:01 0.00% ng_queue0 3 root 1 -68 - 0K 16K sleep 0 0:52 0.00% ng_queue1 9 root 1 -68 - 0K 16K sleep 0 0:36 0.00% ng_queue7 6 root 1 -68 - 0K 16K sleep 5 0:33 0.00% ng_queue4 8 root 1 -68 - 0K 16K sleep 6 0:18 0.00% ng_queue6 5 root 1 -68 - 0K 16K sleep 6 0:12 0.00% ng_queue3 # ifconfig |grep ng|wc -l 1243 netstat -h 1 packets errs bytes packets errs bytes colls 579K 0 343M 679K 0 443M 0 592K 0 352M 697K 0 455M 0 585K 0 348M 687K 0 454M 0 584K 0 355M 684K 0 454M 0 597K 0 355M 698K 0 464M 0 587K 0 352M 687K 0 457M 0 587K 0 352M 691K 0 460M 0 570K 0 341M 675K 0 447M 0 # vmstat -z|grep tG NetGraph items: 72, 65565, 104, 796, 166617025, 0 NetGraph data items: 72, 32805, 1, 10484, 1394356793, 0 при этом 870 Мбит/с трафика. Когда один из ng_queue выростает до 100% начинается потеря пакетов, в это время в vmstat -z: NetGraph items: 72, 65565, 104, 796, 166617025, 0 NetGraph data items: 72, 32805, 9574, 4286, 1394356793, 0 Временно помогло dev.em.0.rx_int_delay=900, dev.em.0.rx_abs_int_delay=2000... При этом на сетевухах все хорошо: em1: Excessive collisions = 0 em1: Sequence errors = 0 em1: Defer count = 0 em1: Missed Packets = 0 em1: Receive No Buffers = 0 em1: Receive Length Errors = 0 em1: Receive errors = 0 em1: Crc errors = 0 em1: Alignment errors = 0 em1: Collision/Carrier extension errors = 0 em1: RX overruns = 0 em1: watchdog timeouts = 0 em1: RX MSIX IRQ = 0 TX MSIX IRQ = 0 LINK MSIX IRQ = 0 em1: XON Rcvd = 0 em1: XON Xmtd = 0 em1: XOFF Rcvd = 0 em1: XOFF Xmtd = 0 em1: Good Packets Rcvd = 725605214 em1: Good Packets Xmtd = 688318866 em1: TSO Contexts Xmtd = 0 em1: TSO Contexts Failed = 0 Если кто-то сталкивался с подобным буду признателен за совет, заранее спасибо.
  21. dsk Тоже пришел к такому выводу. Буду пробовать с понедельника. AntonS Все и так на безлимитах, тут другая причина. Начальство хочет, чтобы можно было предоставить детальную статистику по абоненту, поэтому без netflow мне, к сожалению, никак.
  22. AntonS Для себя проблему пока решил тупо - поставил еще один сервер. Это конечно не выход, временное решение. Думаю попробовать mpd4, хотя уверенности в том, что это решит проблему нету. Если действительно проблема в ng_netflow, тогда буду пробовать его выносить на другую машину.
  23. AntonS Это уже интересней. У меня тоже нетфлоу через мпд. Так неохота на ipcad перелазить :(
  24. Serhio Go Да, этот. Методика такая-же, как была описана на в соседней теме по 3028, тоесть scapy. Если не планируется более 5к маков на него, то можно брать.
  25. По 3627 - сам тестил, есть там коллизии, начинаются после 10к маков примерно, на 3610 так вообще до 5к только свичует, дальше - хаб. Бюджетный доступ даже нет смысла тестить, все примерно до 2к справляются...