Jump to content
Калькуляторы

acutus

Пользователи
  • Content Count

    12
  • Joined

  • Last visited

About acutus

  • Rank
    Абитуриент

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

  1. Вопрос по статистике. На гитхабе есть следующая информация: * Stat output example and format: 10.0.1.0/24 cir 1000000 cbs 187500 ebs 375000; tc 0 te 0 last never; conf 0/0 0 bps, rej 0/0 10.0.1.0/24 IPv4 network to match, cir 1000000 allowed rate (cir is committed information rate) in bits, cbs 187500 normal burst (cbs is committed burst size) in bytes, ebs 375000 extended burst (cbs is extended burst size) in bytes, tc 0 committed token bucket counter, te 0 extended token bucket counter (implementing extended burst), last never how much seconds ago last packet is seen, conf 0/0 0 bps conforming traffic counters (pkts/bytes bitrate), Note, that bps here is average bit rate estimation calculated for last several seconds. rej 0/0 rejected (or matched) traffic counters. Вот только, как мне кажется, в поле last никак не секунды. Никто не обращал внимания? И есть ли способ сброса статистики без перезагрузки правил?
  2. Инсталлируете на centos 6. Спасибо, уже понял. на 7 собралось нормально.
  3. [root@nat2 ipt-ratelimit]# make install all make -C /lib/modules/3.18.1-1.el6.elrepo.x86_64/build/ M=/home/zolks/sheiper/ipt-ratelimit modules CONFIG_DEBUG_INFO=y make[1]: Entering directory `/usr/src/kernels/3.18.1-1.el6.elrepo.x86_64' CC [M] /home/zolks/sheiper/ipt-ratelimit/xt_ratelimit.o Building modules, stage 2. MODPOST 1 modules CC /home/zolks/sheiper/ipt-ratelimit/xt_ratelimit.mod.o LD [M] /home/zolks/sheiper/ipt-ratelimit/xt_ratelimit.ko make[1]: Leaving directory `/usr/src/kernels/3.18.1-1.el6.elrepo.x86_64' sync make -C /lib/modules/3.18.1-1.el6.elrepo.x86_64/build/ M=/home/zolks/sheiper/ipt-ratelimit modules_install INSTALL_MOD_PATH= make[1]: Entering directory `/usr/src/kernels/3.18.1-1.el6.elrepo.x86_64' INSTALL /home/zolks/sheiper/ipt-ratelimit/xt_ratelimit.ko DEPMOD 3.18.1-1.el6.elrepo.x86_64 make[1]: Leaving directory `/usr/src/kernels/3.18.1-1.el6.elrepo.x86_64' gcc -O2 -Wall -Wunused -fPIC -o libxt_ratelimit_sh.o -c libxt_ratelimit.c libxt_ratelimit.c:51: error: array type has incomplete element type libxt_ratelimit.c:52: error: field name not in record or union initializer libxt_ratelimit.c:52: error: (near initialization for ‘ratelimit_opts’) libxt_ratelimit.c:52: error: field name not in record or union initializer libxt_ratelimit.c:52: error: (near initialization for ‘ratelimit_opts’) libxt_ratelimit.c:52: error: field name not in record or union initializer libxt_ratelimit.c:52: error: (near initialization for ‘ratelimit_opts’) libxt_ratelimit.c:52: error: ‘XTTYPE_STRING’ undeclared here (not in a function) libxt_ratelimit.c:53: error: field name not in record or union initializer libxt_ratelimit.c:53: error: (near initialization for ‘ratelimit_opts’) libxt_ratelimit.c:53: error: ‘XTOPT_MAND’ undeclared here (not in a function) libxt_ratelimit.c:53: error: ‘XTOPT_PUT’ undeclared here (not in a function) libxt_ratelimit.c:53: warning: implicit declaration of function ‘XTOPT_POINTER’ libxt_ratelimit.c:53: error: expected expression before ‘struct’ libxt_ratelimit.c:53: error: field name not in record or union initializer libxt_ratelimit.c:53: error: (near initialization for ‘ratelimit_opts’) libxt_ratelimit.c:54: error: field name not in record or union initializer libxt_ratelimit.c:54: error: (near initialization for ‘ratelimit_opts’) libxt_ratelimit.c:54: error: field name not in record or union initializer libxt_ratelimit.c:54: error: (near initialization for ‘ratelimit_opts’) libxt_ratelimit.c:54: error: field name not in record or union initializer libxt_ratelimit.c:54: error: (near initialization for ‘ratelimit_opts’) libxt_ratelimit.c:55: error: field name not in record or union initializer libxt_ratelimit.c:55: error: (near initialization for ‘ratelimit_opts’) libxt_ratelimit.c:56: error: ‘XTOPT_TABLEEND’ undeclared here (not in a function) libxt_ratelimit.c:80: warning: ‘struct xt_option_call’ declared inside parameter list libxt_ratelimit.c: In function ‘ratelimit_parse’: libxt_ratelimit.c:82: error: dereferencing pointer to incomplete type libxt_ratelimit.c:84: warning: implicit declaration of function ‘xtables_option_parse’ libxt_ratelimit.c:85: error: dereferencing pointer to incomplete type libxt_ratelimit.c:87: error: dereferencing pointer to incomplete type libxt_ratelimit.c:89: error: dereferencing pointer to incomplete type libxt_ratelimit.c: At top level: libxt_ratelimit.c:133: warning: implicit declaration of function ‘offsetof’ libxt_ratelimit.c:133: error: expected expression before ‘struct’ libxt_ratelimit.c:138: error: unknown field ‘x6_options’ specified in initializer libxt_ratelimit.c:139: error: unknown field ‘x6_parse’ specified in initializer libxt_ratelimit.c:139: warning: initialization makes integer from pointer without a cast libxt_ratelimit.c:139: error: initializer element is not computable at load time libxt_ratelimit.c:139: error: (near initialization for ‘ratelimit_mt_reg[0].option_offset’) make: *** [libxt_ratelimit_sh.o] Error 1 что я не так делаю?
  4. немного не понял, можно ли для каждого ip в 10.100.0.0/24 нарезать скорость одной командой? либо в /proc/net/ipt_ratelimit/speed-in и speed-out придется делать 256 записей? а если записей будет по 16к?
  5. что-то передергиваете, или я не так понимаю.. ONU привключении уже зарегилась на каком-то порту OLTa. допустим epon0/2:54 т.е. есть люди которые не сохраняют конфиг при регистрации ону? ок, допустим. (хотя слабо себе это представляю). ведь если не сохранять конфиг после регистрации новой ону - она после каждой перезагрузки будет региться случайно. а если ONU регятся у вас случайно каждый раз - нет необходимости сохранять конфиг каждый раз. Итого: либо онушка регится один раз при подключении и конфиг ее сохраняется один раз при регистрации (либо при изменении параметров), либо онушки регятся случайным образом и конфиги не сохранятся вообще.
  6. собираюсь использовать Intel X520-DA2 с коммутатором DGS-3620-52T для соединения планирую использовать SNR-SFP+DA-3 стоит ждать таких же проблем?
  7. есть нат сервер, решил поднять на нем же шейпер. собственно вот правила шейпера: tc qdisc del dev bond0.8 root tc qdisc add dev bond0.8 root handle 1: htb default 900 tc class add dev bond0.8 parent 1: classid 1:1 htb rate 4000Mbit burst 150k tc class add dev bond0.8 parent 1:1 classid 1:100 htb rate 3800Mbit burst 150k tc class add dev bond0.8 parent 1: classid 1:900 htb rate 3800Mbit burst 150k tc qdisc add dev bond0.8 parent 1:900 handle 900 pfifo limit 50000 tc filter add dev bond0.8 parent 1:0 protocol ip u32 tc filter add dev bond0.8 parent 1:0 handle 12: protocol ip u32 divisor 8 tc filter add dev bond0.8 parent 1:0 handle 13: protocol ip u32 divisor 256 tc filter add dev bond0.8 parent 1:0 handle 14: protocol ip u32 divisor 256 tc filter add dev bond0.8 parent 1:0 handle 15: protocol ip u32 divisor 256 tc filter add dev bond0.8 parent 1:0 handle 16: protocol ip u32 divisor 256 tc filter add dev bond0.8 parent 1:0 handle 17: protocol ip u32 divisor 256 tc filter add dev bond0.8 parent 1:0 protocol ip u32 ht 800:: match ip dst 172.24.128.0/17 hashkey mask 0x0000ff00 at 16 link 12: tc filter add dev bond0.8 parent 1:0 protocol ip u32 ht 12:0: match ip dst 172.24.128.0/24 hashkey mask 0x000000ff at 16 link 13: tc filter add dev bond0.8 parent 1:0 protocol ip u32 ht 12:1: match ip dst 172.24.129.0/24 hashkey mask 0x000000ff at 16 link 14: tc filter add dev bond0.8 parent 1:0 protocol ip u32 ht 12:2: match ip dst 172.24.130.0/24 hashkey mask 0x000000ff at 16 link 15: tc filter add dev bond0.8 parent 1:0 protocol ip u32 ht 12:3: match ip dst 172.24.131.0/24 hashkey mask 0x000000ff at 16 link 16: tc filter add dev bond0.8 parent 1:0 protocol ip u32 ht 12:4: match ip dst 172.24.132.0/24 hashkey mask 0x000000ff at 16 link 17: tc class add dev bond0.8 parent 1:100 classid 1:1001 htb rate 20Mbit ceil 20Mbit tc qdisc add dev bond0.8 parent 1:1001 handle 1001 sfq perturb 10 tc filter add dev bond0.8 protocol ip parent 1:0 u32 ht 13:1: match ip dst 172.24.128.1 flowid 1:1001 tc class add dev bond0.8 parent 1:100 classid 1:1002 htb rate 20Mbit ceil 20Mbit tc qdisc add dev bond0.8 parent 1:1002 handle 1002 sfq perturb 10 tc filter add dev bond0.8 protocol ip parent 1:0 u32 ht 13:2: match ip dst 172.24.128.2 flowid 1:1002 tc class add dev bond0.8 parent 1:100 classid 1:1003 htb rate 20Mbit ceil 20Mbit tc qdisc add dev bond0.8 parent 1:1003 handle 1003 sfq perturb 10 tc filter add dev bond0.8 protocol ip parent 1:0 u32 ht 13:3: match ip dst 172.24.128.3 flowid 1:1003 tc class add dev bond0.8 parent 1:100 classid 1:1004 htb rate 20Mbit ceil 20Mbit tc qdisc add dev bond0.8 parent 1:1004 handle 1004 sfq perturb 10 tc filter add dev bond0.8 protocol ip parent 1:0 u32 ht 13:4: match ip dst 172.24.128.4 flowid 1:1004 tc class add dev bond0.8 parent 1:100 classid 1:1005 htb rate 20Mbit ceil 20Mbit tc qdisc add dev bond0.8 parent 1:1005 handle 1005 sfq perturb 10 tc filter add dev bond0.8 protocol ip parent 1:0 u32 ht 13:5: match ip dst 172.24.128.5 flowid 1:1005 tc class add dev bond0.8 parent 1:100 classid 1:1006 htb rate 20Mbit ceil 20Mbit тут дальше куча идентичных классов, фильтров и очередей Проблема выражается таким образом: При увеличении общего трафика через сервер у юзеров, попадающих в классы 1:1001-1:1275, все нормально со скоростью (наблюдается просадка не более 5%, но это из-за загруженности сервера) А у пользователей, попадающих в дефолтный класс, серьезные проблемы со скоростью. Из 100 мбит не более 3-х, задержки при открытии страниц и прочие прелести. Загрузка CPU 50-60% по каждому из 8 ядер. Что я сделал неправильно? Или оно просто не должно работать при таком количестве правил и трафике через сервер ~1Gbit/sec ?
  8. какие sfp+ 10G модули можно использовать? только cisco или же есть варианты?
  9. Получили на тестирование Juniper MX-80 Нужна консультация по настройке. Кто может потратить час-два на консультацию по аське/скайпу? Или хотя бы ответить на ряд вопросов? Задачи для джуника - нат+шейпер для IPoE абонентов + BGP (три аплинка+UA-IX)
  10. Расскажите, кто чем пользуется для резервирования питания на выносных точках. Есть д-линки DGS3120 на районной агрегации. Сейчас там обычные упс на 30 минут работы. Хотелось бы резервирование на 6-8 часов хотя бы. Что можете посоветовать?
  11. ок. если MX80 не совсем то, то что тогда? Ericsson какой? + что еще? бюджет порядка 35к у.е.
  12. Доброго времени суток всем. В настоящий момент сеть среднего провайдера (около 6000 хомячков) имеет следующий вид: на доступе - Edge-Core ES3528M и ES3510MA (кроме одного района, там Planet и ES3510) на агрегации - D-link DGS3100 и DGS3120 все районные линки собираются на DGS3120 в ядре дальше NATы и один PPPoE сервер. все это добро приходит в Edge-Core ES4626SFP, туда же приходят 3 аплинка, естественно на нем же крутится bgp. ах да, из 6000 хомячков 4500 IPoE и 1500 PPPoE Новое ядро должно держать порядка 10-12 тысяч хомячков (поддержка PPPoE не обязательна, вполне пока можно оставить один сервак до полного перехода на IPoE) Уметь Full BGP, NAT + поддержка IPv6. Предложили MX80 на тест, но по другим источникам пришла информация что он не потянет столько активных сессий. Посоветовали посмотреть в сторону Ericsson SmartEdge. Не хотелось бы изобретать велосипед и наступать на грабли :) Кто что может посоветовать?