Перейти к содержимому
Калькуляторы

grizzly_ripper

Пользователи
  • Публикации

    13
  • Зарегистрирован

  • Посещение

О grizzly_ripper

  • Звание
    Абитуриент
    Абитуриент

Информация

  • Пол
    Array
  1. roysbike Просто хотелось, чтобы все происходило на NAS в момент поднятия сессии. Пока остановился на том, что скрипт на NAS периодически будет проверять сессии на наличие условного параметра, и при наличии такого менять скорость в зависимости от значения этого параметра.
  2. mrlexus Да, спасибо, что-то в этом духе - теперь понятно куда копать :) Остается актуальным вопрос, что использовать в качестве триггера. IP не подойдет, остальные параметры mpd, как я понимаю, тоже. Можно ли как-то поймать "неважный" параметр от RADIUS'a или включить в словарь новый, чтобы mpd отработал скрипт исходя из его значения?
  3. Существует ли возможность изменения параметров ng интерфейса уже поднятой сессии непосредственно на NAS'e? То есть при поднятии сессии mpd получает параметры с RADIUS и в зависимости от какого-либо параметра (IP не подойдет) повышает лимит скорости интерфейса, либо оставляет его без изменений. Через pipe и ipfw, как я понимаю, скорость можно только урезать. Есть какие варианты через консоль mpd, если они вообще есть? Нужно это для реализации "турбо-кнопки". Понятно, что это можно сделать через билинг/RADIUS, чтобы на NAS приходили уже правильные параметры, но ввиду некоторых специфических особенностей организации сети и тарифных планов, хотелось бы сделать все на NAS. mpd5.5 FreeBSD 8.2
  4. UBR'ы не получают информацию о Upstream Power и Downstream Power от модемов. Старожилы в конторе говорят, что раньше работало. При мне настройки касающиеся конкретно части Docsis не менялись. Вывод show cable modem <mac> verbose MAC Address : <mac> IP Address : 10.5.0.179 Prim Sid : 181 QoS Profile Index : 5 Interface : C1/0/U0 sysDescr : Upstream Power : 0.00 dBmV (SNR = 28.26 dBmV) Downstream Power : 0.00 dBmV (SNR = ----- dBmV) Timing Offset : 996 Initial Timing Offset : 996 Received Power : !25.00 MAC Version : DOC2.0 QoS Provisioned Mode : DOC1.0 Enable DOCSIS2.0 Mode : Y Phy Operating Mode : tdma Capabilities : {Frag=N, Concat=Y, PHS=N, Priv=BPI} Sid/Said Limit : {Max Us Sids=0, Max Ds Saids=0} Optional Filtering Support : {802.1P=N, 802.1Q=N} Transmit Equalizer Support : {Taps/Symbol= 1, Num of Taps= 24} Number of CPE IPs : 2(Max CPE IPs = 255) CFG Max-CPE : 255 Flaps : 4(Apr 5 01:55:55) Errors : 0 CRCs, 0 HCSes Stn Mtn Failures : 0 aborts, 0 exhausted Total US Flows : 1(1 active) Total DS Flows : 1(1 active) Total US Data : 67005412 packets, 1800666036 bytes Total US Throughput : 99 bits/sec, 0 packets/sec Total DS Data : 96753702 packets, 2974097705 bytes Total DS Throughput : 93 bits/sec, 0 packets/sec Active Classifiers : 0 (Max = NO LIMIT) DSA/DSX messages : permit all Total Time Online : 23h42m Настройка UBR'a: cable config-file modemboot_all frequency 378000000 service-class 2 max-upstream 2048 service-class 2 guaranteed-upstream 16 service-class 2 max-downstream 32768 service-class 2 max-burst 1800 cpe max 255 timestamp !DHCP для модемов ip dhcp pool CableInternet network 10.5.0.0 255.255.0.0 bootfile modemboot_all next-server 10.5.255.254 default-router 10.5.255.254 option 128 ip 10.5.255.254 option 4 ip 10.5.255.254 option 11 ip 10.5.255.254 option 10 ip 10.5.255.254 option 7 ip 10.5.255.254 option 2 hex 0000.2a30 option 66 ip 10.5.255.254 option 150 ip 10.5.255.254 option 43 hex 0803.0000.0c80.0669.6f73.2e63.66 dns-server <dns> lease 14 !DHCP для клиентов ip dhcp pool pcs-c4 network 10.19.0.0 255.255.0.0 next-server 10.19.255.254 default-router 10.19.255.254 option 128 ip 10.19.255.254 option 4 ip 10.19.255.254 option 11 ip 10.19.255.254 option 10 ip 10.19.255.254 dns-server <dns> lease 14 interface Cable1/0 ip address 10.19.255.254 255.255.0.0 secondary ip address 10.5.255.254 255.255.0.0 ip access-group acl_cable_in in cable tftp-enforce no cable packet-cache cable sync-interval 5 cable downstream rate-limit cable downstream annex A cable downstream modulation 256qam cable downstream frequency 378000000 cable downstream channel-id 0 no cable downstream rf-shutdown cable downstream rf-power 49 cable upstream 0 spectrum-group 5 cable upstream 0 channel-width 3200000 cable upstream 0 minislot-size 2 cable upstream 0 power-level 25 cable upstream 0 power-adjust threshold 2 cable upstream 0 power-adjust continue 3 cable upstream 0 power-adjust noise 20 cable upstream 0 unfrag-slot-jitter limit 8000 cable upstream 0 differential-encoding cable upstream 0 modulation-profile 1 cable upstream 0 admission-control 1000 cable upstream 0 equalization-coefficient no cable upstream 0 shutdown cable upstream 1 spectrum-group 2 cable upstream 1 channel-width 3200000 cable upstream 1 minislot-size 2 cable upstream 1 power-level 25 cable upstream 1 power-adjust threshold 2 cable upstream 1 power-adjust continue 3 cable upstream 1 power-adjust noise 20 cable upstream 1 unfrag-slot-jitter limit 8000 cable upstream 1 differential-encoding cable upstream 1 modulation-profile 1 cable upstream 1 admission-control 1000 cable upstream 1 equalization-coefficient no cable upstream 1 shutdown cable upstream 2 spectrum-group 3 cable upstream 2 channel-width 3200000 cable upstream 2 minislot-size 2 cable upstream 2 power-level 25 cable upstream 2 power-adjust threshold 2 cable upstream 2 power-adjust continue 3 cable upstream 2 power-adjust noise 20 cable upstream 2 unfrag-slot-jitter limit 8000 cable upstream 2 differential-encoding cable upstream 2 modulation-profile 1 cable upstream 2 admission-control 1000 cable upstream 2 equalization-coefficient no cable upstream 2 shutdown cable upstream 3 spectrum-group 4 cable upstream 3 channel-width 3200000 cable upstream 3 minislot-size 2 cable upstream 3 power-level 25 cable upstream 3 power-adjust threshold 2 cable upstream 3 power-adjust continue 3 cable upstream 3 power-adjust noise 20 cable upstream 3 unfrag-slot-jitter limit 8000 cable upstream 3 differential-encoding cable upstream 3 modulation-profile 1 cable upstream 3 admission-control 1000 cable upstream 3 equalization-coefficient no cable upstream 3 shutdown cable arp filter request-send 3 2 cable arp filter reply-accept 3 2 no cable ip-multicast-echo cable dhcp-giaddr policy pppoe enable group global no arp arpa hold-queue 4096 in hold-queue 4096 out ip access-list extended acl_cable_in permit ip 10.0.0.0 0.255.255.255 host 10.19.255.254 permit ip 10.0.0.0 0.255.255.255 host 10.5.255.254 permit ip 10.0.0.0 0.255.255.255 host <dns> permit ip host 0.0.0.0 host 255.255.255.255 deny ip any any
  5. Дано Cisco UBR, на которой поднимаются PPPoE сессии. Часть абонентов получает серые IP, они направляются на NAT. В сети два сервера, обеспечивающих NAT. Циска и серверы c NAT общаются по OSPF broadcast. Незадача Пробовал и через route-map set next-hop с указанием адресов обоих NAT'ов и через ip route 0.0.0.0 с метриками, результат один: при отключении первого сервера, циска не шлет пакеты на второй. Задача Хотелось бы чтобы циска отсылала серые IP на один из NAT серверов, при этом в случае выхода последнего и строя, сама переползала на второй.
  6. Hawk128 Цифры взяты и статьи по тюнингу за авторством dadv. У Сысоева хорошие доклады, там параметры объяснены, но цифры старые и под другие задачи. Подбираются опытным путем, тут полезно почитать по сетевой архитектуре FreeBSD.
  7. terrible Заработало и ngctl list теперь показывает, спасибо :)
  8. netgraph_node 7185 1797K - 402131 256 kern.ipc.maxsockbuf: 8388608
  9. ngtctl list при обоих вариантах выдает ngctl: can't create node: No buffer space available Текущие значение в sysctl.conf: net.graph.maxdgram=8388680 net.graph.recvspace=8388680
  10. mpd5.5 Конфиг: default: load pppoe_bundle load vlan100 load vlan101 <...> vlan100: create link template vlan100 pppoe set pppoe iface vlan100 load pppoe_link load radius vlan101:<...>
  11. Что имеется Сервер FreeBSD 8.2+mpd5 запросы PPPoE собираются по vlan'ам. Соответственно, в mpd.conf расписаны все vlan'ы. На сервере крутятся vlan'ы с 100 по 600. Что происходит В связи с "перепланировкой" сети добавили еще vlan'ов, начиная с 1025. Если в конфиге mpd просто добавить эти vlan'ы, вслед за уже имеющимися, то mpd выдает ошибку переполения буферов и сессии не поднимаются. NgFuncSendQuery: can't create socket node: No buffer space available Jan 26 11:57:47 dodkalm26 mpd: [b-1] can't get stats, link=0: No buffer space available Но если прописать в mpd.conf все vlan'ы подряд (100-1125), то все прекрасно работает. Вопрос Это какие-то причуды mpd или я что-то не так делаю?
  12. Как-то я не так поиском по форуму пользовался :) Попробую пока костыли, если не поможет - будем осваивать bird.
  13. Ситуация такая. FreeBSD 8.2 + mpd5.5 + Quagga 0.99.20 router ospf ospf router-id <router-id> log-adjacency-changes redistribute connected passive-interface default no passive-interface em1 Когда поднимаются ng интерфейсы в них каким-то чудом оказывается ip ospf network broadcast. Убираю вручную в каждом поднятом интерфейсе - все нормально до следующей перезагрузки. Потом все сначала. Может фикс какой есть или секрет?