Перейти к содержимому
Калькуляторы

Karl Kory

Пользователи
  • Публикации

    20
  • Зарегистрирован

  • Посещение

О Karl Kory

  • Звание
    Абитуриент
    Абитуриент

Контакты

  • ICQ
    Array
  1. на MSK-IX эзерченелы не делают, не помню почему, но точно что не делают.
  2. кто как балансирует нагрузку? есть вариант поделить /18 сетку на две /19, прописав /19 куски в RIPE. еще практически-применяемые варианты существуют? спасибо
  3. есть у кого опыт использования этого устройства в качестве моста для транспорта тэгированного трафика? никак не можем понять в чем проблема. в аксес порту работает в транковом - нет.
  4. Так какой ценник? звонил им сегодня. менеджеры говорят что позиционируют себя качественнее длинка и дороже. опечален.
  5. Это причина не пользоваться непроверенными релизами, а не PPPoE. У меня все работает много лет. пересобрали всё на последние 8ки. ничего не изменилось. неподелится ли многоуважаемый мною jab версиями которыми он пользуется? думаю многим было бы интересно, если это не является коммерческой тайной. спасибо.
  6. есть три сервера. процы q9550, q9400, q9300, мамы asus p5q-pro. сервера работали полгода примерно, как часы, никаких претензий абсолютно не было. начали падать неделю назад. как начали падать - всё железо перетряхнули вплоть до замены БП и корпусов. нагрузка 300-350мбит в пике. 50-60к пакетов на lagg0 интерфейсе в пике. падают очень произвольно. 4-5 раз в день. могут в прайм-тайм упасть, а могут и в 3 часа ночи. могут работать 16-17 часов а могут упасть повторно через 3-4 минуты после предыдущего ребута. в логи написать ничего не успевают. иногда ребутаются сами через 15 секунд после трапа, а иногда виснут. когда виснут на экране ошибка trap12 или trap18 про em0 (em1, em2, em3) ната нет. полинга нет. дамминета нет. quagga нет. loader.conf kern.maxusers="2048" kern.ipc.maxpipekva=50331648 ng_ipfw_load="YES" hw.em.rxd=4096 hw.em.txd=4096 sysctl.conf net.inet.ip.fw.one_pass=0 kern.ipc.maxsockbuf=1048576 kern.maxfiles=65000 kern.maxfilesperproc=32000 kern.random.sys.harvest.ethernet=0 kern.random.sys.harvest.point_to_point=0 kern.random.sys.harvest.interrupt=0 net.graph.maxdgram=524288 net.graph.recvspace=524288 net.inet.ip.random_id=1 net.inet.tcp.sendspace=65535 net.inet.tcp.recvspace=65535 net.inet.ip.fastforwarding=1 dev.em.0.rx_int_delay=500 dev.em.0.tx_int_delay=500 dev.em.0.rx_abs_int_delay=500 dev.em.0.tx_abs_int_delay=500 dev.em.0.rx_processing_limit=5000 dev.em.1.rx_int_delay=500 dev.em.1.tx_int_delay=500 dev.em.1.rx_abs_int_delay=500 dev.em.1.tx_abs_int_delay=500 dev.em.1.rx_processing_limit=5000 dev.em.2.rx_int_delay=500 dev.em.2.tx_int_delay=500 dev.em.2.rx_abs_int_delay=500 dev.em.2.tx_abs_int_delay=500 dev.em.2.rx_processing_limit=5000 dev.em.3.rx_int_delay=500 dev.em.3.tx_int_delay=500 dev.em.3.rx_abs_int_delay=500 dev.em.3.tx_abs_int_delay=500 dev.em.3.rx_processing_limit=5000 mpd.conf startup: set user admin temporaryMPD # set console self 192.168.0.14 5005 # set console open # set web self 192.168.0.14 5006 # set web open default: load pppoe_server pppoe_server: create bundle template B set bundle enable compression set iface enable tcpmssfix set ccp yes mppc set mppc yes e40 set mppc yes e128 set mppc yes stateless set ipcp ranges 192.168.160.1/32 192.168.160.0/21 set ipcp ranges 192.168.168.1/32 192.168.168.0/21 set ipcp ranges 192.168.176.1/32 192.168.176.0/21 set ipcp dns 192.168.128.10 192.168.128.3 create link template common pppoe set link mtu 1492 set link keep-alive 5 60 set link no pap eap set link enable chap set link disable check-magic set link enable report-mac set link action bundle B load radius create link template vlan104 common set link max-children 1000 set pppoe iface vlan104 set link enable incoming create link template vlan105 common set link max-children 1000 set pppoe iface vlan105 set link enable incoming create link template vlan106 common set link max-children 100 set pppoe iface vlan106 set link enable incoming create link template vlan107 common set link max-children 1000 set pppoe iface vlan107 set link enable incoming radius: set radius server 192.168.128.9 secret 1812 1813 set radius retries 1 set radius timeout 5 set radius me 192.168.128.14 set auth acct-update 600 set auth enable radius-auth set auth enable radius-acct set radius enable message-authentic помогите люди добрые. куда копать? работало же всё, бед не знало :(
  7. в прайм тайм у corequad9300 два ядра занято на 99% на обслуживание em0 и em1 , а два других прохлаждаются на 3-4%. роутер не имеет ната, работает мпд5 и шепит через ng_car. тонелей в прайм тайм уже 1000+ . посоветуйте как поделить нагрузку между 4 ядрами. попытались em0 и em1 в lagg, а входящий траф запустить на em2 и em3. несрослось. стоит ли идти дальше в этом направлении и искать в чем были ошибки? может быть существует более разумный путь которого я невижу? 1000 тонелей генерят почти 350мбит трафа, имеет ли смысл вообще выжимать чтото дальше из одного компа freebsd?
  8. у меня сейчас 670мбит на g1 при 85% нетфлоу не юзаем на нем. в той теме очень мало про ASR, а я как раз на него прицелился. про ASR никто ничего конкретного не знает? уж больно соблазнительно выглядит.
  9. плз посоветуйте, что выбрать для бордера.
  10. есть в наличии 3 штуки EXPI9402PT. используем. нареканий особых нету. очень редко (раз в пару месяцев) бывает em0: watchdog timeout -- resetting. нужно докупить еще 3-4 двух-портовых. похвалите/поругайте плз E1G42ET vs EXPI9402PT. PS есть у кого опыт использования их оптических вариантов E1G42EF / EXPI9402PF ?
  11. смотрел. есть куча примеров: блок бродкастов, блок виндовозных портов, пппое онли и т.д. и т.п. . это ответы на часто задаваемые вопросы пользователей. меня интересует что используют посетители этого форума для решения своих проблем/задач которые у них возникают на практике. спасибо.
  12. кто какие задачи/проблемы решает с помощью acl ? реализовали у себя пока только dhcp+o82 вот ломаем голову имеет ли смысл заморачиваться acl-ами. очень нехочется изобретать велосипед. на доступе у нас des-3526. поделитесь плз идеями и практическим опытом. если сами acl писать в лом - я буду очень признателен просто за идею с объяснением почему вы используете то или иное правило. в последний месяц много тем с обсуждением acl-ов, но в них больше просили советов по реализации своих конкретных идей, а я очень прошу поделиться именно идеями :) . заранее благодарен.
  13. подскажите как реализовать на edge-core такой порт? стык с циской 3508. исторически сложилось что native вынесен в отдельный неиспользуемый влан, менять поздно. это реально исполнить на edge-core? ! interface GigabitEthernet0/1 description TO BORDER switchport trunk encapsulation dot1q switchport trunk native vlan 2 switchport trunk allowed vlan 1,3,5,6,1002-1005 switchport mode trunk !
  14. Harry, я извиняюсь уезжал не закончив дела :( пропадание пакетов на пару секунд присутствует попрежнему, но это стало очень редко, примерно раз в час-полтора. пинг не скачет если на обоих точках установить руками 11мбпс, на расстоянии 3 км с 27дб антенами и двухсторонним 100мв усилком. все мбпс которые выше: 12 и т.д. НЕ УСТРАИВАЮТ! скачки пинга постоянные, в норму он не приходит.
  15. опс на столе мерили токо скорость - были чистые полтора мегабайта в секунду, попробую сегодня глянуть в офисе