Перейти к содержимому
Калькуляторы

tnega

Пользователи
  • Публикации

    60
  • Зарегистрирован

  • Посещение

Все публикации пользователя tnega


  1. Коллеги, ну все получилось, методом тыка :-) bgpd.conf сделали таким: ! ! Zebra configuration saved from vty ! 2010/10/09 14:32:09 ! hostname bgpd password test enable password test log file /var/log/quagga/bgpd.log ! router bgp 65131 bgp router-id 77.90.160.50 network 210.130.60.0/24 neighbor 77.90.160.49 remote-as 4186 ! router bgp 65131 bgp router-id 77.90.160.40 network 210.130.60.0/24 neighbor 77.90.160.39 remote-as 4186 ! line vty ! Все работает, переключается в момент падения основного на резервный. (сегодня как раз вышестоящий проводил работы плановые по основному каналу, и мы смогли как раз все оттестировать.) Вопрос, мы видим что входящий весь ходит через основной канал а исходящий через резервный, на резервном входящий вообще не используется, это нормально? :-)
  2. Мы выложили наши конфиги с правкой по IP адресам и AS. Вы меня не совсем поняли, это шаблон взятый из интернета и поправленный под нас.
  3. дак и просим помощи в правке нашего конфига. конфиг наш взятый из примера в интернете.
  4. коллеги, приветствую. прошу помощи, задача простая: нужно поднять две bgp сессии на кваге или на бирде (в нашем случае у нас квага) Debian 10 enp130s0f0 - интерфейс вышестоящего enp130s0f1 - наша внутренняя сеть 77.90.160.50 - сеть /30 для стыковки с вышестоящим на интерфейсе вышестоящего приватная AS между нами и вышестоящим 65131 bgpd.conf (конфиг по ип адресам и номером AS вышестоящего изменен) ! ! Zebra configuration saved from vty ! 2010/10/09 14:32:09 ! hostname bgpd password test enable password test log file /var/log/quagga/bgpd.log ! router bgp 65131 bgp router-id 77.90.160.50 network 210.130.60.0/24 neighbor 77.90.160.49 remote-as 4186 ! line vty ! ! ! Zebra configuration saved from vty ! 2010/10/08 17:18:57 ! hostname zebra password test enable password test ! log file /var/log/quagga/zebra.log ! interface enp130s0f0 interface enp130s0f1 ! ip forwarding ! line vty Вышестоящий выделил нам еще одну подсеть на его интерфейсе enp130s0f0- 77.90.160.40/32 для резервного канала, с еще одной bgp сессией Физически канал к вышестоящему один, но трафик ходит по этим двум сетям выше нас уже по разным физическим трассам. Помогите пожалуйста подправить конфиги для того чтобы были активны сразу две BGP сессии, так же вышестоящий попросил сделать приоритет по резервному каналу очень маленький, чтобы трафик ходил через основной канал - в основном. А то приходиться вручную банально менять конфиги и поднимать и опускать интерфейсе и службу bgpd. Спасибо!
  5. airfiber 5u vlan не пробрасывает тэги

    все перепроверяли по нескольку раз. все решилось просто с переключением в простой медный порт. я думаю, что это странность поведения самого коммутатора.
  6. airfiber 5u vlan не пробрасывает тэги

    Всем спасибо. Оказалась проблема видимо в DGS-1210-16 13 порт это был комбо порт, естественно тэги мы все прописали в него, но почему-то они не лились. Переставили airfiber в 10 порт - все завелось.
  7. привет всем. столкнулись со следующей проблемой. схема такая: DGS-1210-16 -> Airfiber 5u > DES-3526 не пробрасывает виланы с тэгом. первый нетегированный вилан видит, тэгированные не пробрасывает. релейка ставиться взамен mirkotik мостов, которые без проблем пропускали тэги, даже ничего прописывать не нужно было в них, когда они настроены бриджом. Здесь как я понимаю ситуация иная. Прошу помощи.
  8. приветствую всех. не подскажите, как данный проект нам подзаточить под аутсорминг? например: есть абонент с серым адресом, на которого мы делаем snat с одного белого ip. мы так делаем потому что так нам удобнее. хотелось бы потестировать данное решение и посмотреть на производительность.
  9. по замене оборудования проблем нет, оператор готов приобрести его сам, ответили, что нужно сеть перелапачивать из за такой модернизации. оператор крупный, не такой гибкий как хотелось бы. На том узле, от которого мы питаемся - черт ногу сломит. Бардак.   вижу у всех мнения расходятся, я как раз думал и о том, и о том :-) конечно удобней железный вариант, скрипты городить не хотелось бы :-)   можно и сразу от аплинка в сервер. Буду откровенен, смотря на разделение мнений, сам теперь не знаю к чему совету прислушаться :-)   Я забыл так же указать товарищи, что на сервере так же имеется I350-T4 с медными гигабитными портами.
  10. сегодня пришел к тому, что проще будет наверное использовать агрегацию не на сервере доступа, а на коммутаторе. то есть: два канала до коммутатора ядра, из этих двух переводим в 10G до сервера, а с сервера по другому порту возвращаем обратно на коммутатор так же в 10G. что скажете? в ядре стоит у нас snr s2990g-24fx
  11. вот о том, о чем Вы написали я и думал. Каким образом нам отдают эти адреса, допустим, у нас 4 пула /24. 42.172.10.0 42.172.11.0 42.172.12.0 42.172.13.0 в каждой подсети 254 адрес - адрес шлюза вышестоящего. мы поднимаем в каждом пуле соответственно для себя 253 раньше читал про бондинг, сейчас еще раз повторил, может быть проще правда будет обратиться к этому? но тут с ним другая проблема, мы естественно сразу два гигабита брать не будет, а возьмем для начала 1200. и вот в этом месте я вхожу в ступор! что делать?
  12. Всем привет. Буду краток. Имеем одного аплинка, работаем по схеме аутсорминга,сорм на стороне вышестоящего. Статический ип на каждого своего абонента. Ип адреса берем так же у вышестоящего. Никакого BGP, просто пробрасывают ип адреса статической маршрутизацией на наш канал в Интернет. Берем у них ип адреса подсетями /24. Берем гигабит, но уже и его стало мало. 10G дать нам не могут. (обещали, но не смогли). Очень обидно, так как мы со своей стороны уже подготовились в переходу, на сервере доступа стоит двухпортовая X520-DA2 и в ядро поставили SNR s2990g-24fx. Сервер с Debianом Работает ipset, accel-ppp, работает proxy-arp Часть клиентов авторизируются по PPPoE, другая работает по статике. Вышестоящий предложил дать еще один канал и сделать в них симметричную скорость, но к сожалению опыта большого у меня нет, и не знаю как по человечески все это заставить работать с двумя каналами. Прошу сильно не ругаться и не смеяться :-) набираюсь опыта по мере появления каких либо проблем. Прошу помощи и совета!
  13. подскажите пожалуйста оптимальное значение Storm Control, у нас почти везде коммутаторы D-Link. в сети работает и PPPoE сервер и DHCP. storm control везде с одним параметром использовать? только на коммутаторах доступа или везде? если можно поподробнее пожалуйста.
  14. в общем, как лучше сделать все же, создать отдельный vlan и перенести туда управление с каждого коммутатора? или все же на каждый коммутатор выделить под управление собственный/отдельный vlan для управления?
  15. как стоит сделать? почему не стоит? интересно ваше мнение.
  16. всем привет. нужен совет. правильно ли мы делаем или нет. используем схему vlan на коммутатор, коммутатор - это какой-то дом или объект. включаем сегментацию на аплинк порт. правильно ли мы делаем оставляя управление в первом vlane на всех коммутаторах ? в первом vlan нет абонентов, только наши железки. как лучше будет? дайте совет пожалуйста.
  17. Проблема со скоростью

    какое MTU у нас должно быть? стоит по умолчанию все, 1500
  18. Проблема со скоростью

    Вы очень невнимательны. Есть схема. 5 ГГц.
  19. Проблема со скоростью

    имеете виду timeout ? пингуем с первого моста до базы и одной и другой, посылаем 300 пакетов с тайаутом 100 мс. все ок, потерь нет. посылаем до клиента - видим потери. из 300 пакетов добрались только 282. 4% потерь. но если пингуем клиента из базы - все ок, потерь нет. спасибо за наводку конечно! но видимо какое-то есть узкое место где-то...
  20. Проблема со скоростью

    частоты далеко друг от друга, 400 мгц разница. Про тест имеете ввиду первый LHG который идет от центра к какой нибудь из базовых? - если да, то пробовали - 100 мегабит к базе приходит без проблем, а вот уже после базы в два раза падает. В этом весь прикол, и в чем дело непонятно. Если бы к базе не приходило бы нужное количество - само собой разумеющееся меняли бы коммутатор который на базах. а тут до баз приходит, а после баз уже нет, но при этом если тестировать напрямую с базы до абонента -к нему прилетает 100 мегабит в полосе 20 мгц, в полосе 40 - чуть больше 150, эфир не такой шумный. нормальный. ради интереса попробуем поменять на что-то управляемое. все настроено в режиме bridge, клиентский LHG в режиме роутера.
  21. привет всем. наблюдаю проблему со скоростью до абонентского устройства LHG5. Скорость режется раза в два. Делаю тест скорости с устройства "Мост LHG5 (1)" до Клиентского LHG5 стандартным тестом на микротике, UDP пакетами. Вижу падение скорости в два раза, то есть в 50 мегабит. При этом когда делаю тест до базовых станций mANTBox 15s и SXT SA5 - я вижу 100 мегабит. Когда делаю тест с моста на мост - вижу свыше 100 мегабит (мосты работают в полосе 40 мгц) Когда делаю тест от Базы к Клиенту - вижу 100 мегабит (полоса 20 мгц) Подскажите что нибудь. Почему теряются эти 50 мегабит. Схему прикрепляю.
  22. да, глюков со скоростью не наблюдаем. оказывается сколько проблем разных бывает с оборудованием.
  23. Включив все же принудительно flow control на ethernet порту приемного моста микротика - проблема решилась.
  24. Спасибо! включение flow control помогло, по факту выше 150 мегабит через него пролетать не будет, так как магистраль идет с радиомоста. Посмотрим как будет себя вести. UPD: спустя несколько минут начал проверять снова тестами, то нормально показывает, то снова 50 мегабит, но чувствуется большой приоритет по исходящей скорости от конечного устройства. расстроился)