Перейти к содержимому
Калькуляторы

roma33rus

Активный участник
  • Публикации

    819
  • Зарегистрирован

  • Посещение

Все публикации пользователя roma33rus


  1. Самое важное для меня, чтобы multipath работал и трафик балансился по этим трем железкам в середине.
  2. Коллеги, читая статейку СДСМ я понял, что мне будет необходимо сначала связать маршруты с Loopback адресов железок, используя OSPF, а уже поверх этого на Loopback адресах поднять iBGP и там анонсить свои внешние подсети. При этом multipath будет отрабатывать на стороне OSPF. Я все верно мысли выстроил?
  3. Спасибо, тоже будет интересно поизучать. Единственное я думаю, а реально ли будет реализовать мою схему, придется три bgp сессии поднять между R1 и R5, естественно эта связность будет на разных адресах. Будет ли при этом работать multipath, интересно конечно
  4. Update: Все, прочитав первый раздел, уже стало понятно, что я пошел немного неверным путем. Что ж, буду делать Full Mesh Спасибо :-) В общем случае хочу реализовать такую схему:
  5. Еще нет. Думаю сегодня-завтра осилю. Надо еще не просто прочитать, а понять смысл изложенного
  6. Не понимаю как мне Full Mesh поможет. Почему нельзя без этого сделать? У меня пока схема простая: И вот у меня вопрос по R2. R2 от R1 маршрут принимает, а в R3 не передает. Update: Понял как оно мне поможет, только можно ли такое организовать без Full Mesh.
  7. Всем привет. Имею машинку на FreeBSD: FreeBSD 14.0-RELEASE-p6 #0: Tue Mar 26 20:26:20 UTC 2024 На нем BIRD version 1.6.8. Никак не пойму почему у меня маршруты, принимаемые от одного соседа iBGP, не анонсируются другому iBGP соседу. Конфиг такой имею: Сейчас вышел из ситуации, добавив статический маршрут. Анонсить необходимо 1.1.1.0/24 (за этим скрывается реальная сеть). Сильно не пинайте, с Birdом второй раз в жизни сталкиваюсь. Как все-таки правильно в Bird транзитные анонсы прокидывать?
  8. Да, спасибо добрый человек :-) Плюс в карму. Теперь все логично и правильно работает.
  9. Сделал, так тоже работает, но в таблице BGP получаю такую картину: *>a192.168.100.0/24 0.0.0.0 100 32768 i s>l192.168.100.0/25 0.0.0.0 100 32768 i s r 0.0.0.0 0 100 32768 ? s>l192.168.100.128/25 0.0.0.0 100 32768 i s r 0.0.0.0 0 100 32768 ? Странные пропуски. Кстати, оно и без network работает. При этом в таблице bgp вижу: *>a192.168.100.0/24 0.0.0.0 100 32768 i s>r192.168.100.0/25 0.0.0.0 0 100 32768 ? s>r192.168.100.128/25 0.0.0.0 0 100 32768 ?
  10. Добавил редистрибьюцию маршрутов: redistribute direct route-map nas2_out Правильное ли это решение? Работать - заработало как надо теперь.
  11. Всем привет. Имею железку C9372PX На ней стоит NXOS: version 9.3(8). Настроена iBGP сессия: router bgp 11111 router-id 10.100.100.9 bestpath as-path multipath-relax log-neighbor-changes address-family ipv4 unicast network 192.168.100.0/24 aggregate-address 192.168.100.0/24 summary-only maximum-paths 3 neighbor 10.33.33.22 remote-as 11111 description NAS2 address-family ipv4 unicast send-community route-map nas2_in in route-map nas2_out out next-hop-self soft-reconfiguration inbound На ней настроено два SVI: 192.168.100.1/25 и 192.168.100.129/25. Пытаюсь заанонсировать iBGP соседу aggregate маршрут 192.168.100.0/24, настроил опцию для создания аггрегированного маршрута, а он у меня висит со статусом "path is invalid(invalid aggregate), no labeled nexthop" и соответственно не анонсится соседу. Где я ошибаюсь, что я упускаю?
  12. pppoe у меня нет. ipoe без ната. ipfw dummynet и роутинг. Машинка тестовая, поэтому трафик гонял через нее с помощью iperf3. Возможно iperf и генерит такую нагрузку. Надо попробовать юзерей туда запустить.
  13. Спасибо :-) Только при net.isr.dispatch=deferred у меня одно ядро прерывания грузит :-(, а при direct нормально раскидывается. На самом деле нашел соседнюю темку, где расписано это дело:
  14. Всем привет. Имеется машина: FreeBSD nas2-gh 14.0-RELEASE-p6 FreeBSD 14.0-RELEASE-p6 #0: Tue Mar 26 20:26:20 UTC 2024 С сетевой на борту: Apr 4 17:21:33 nas2-gh kernel: ix1: <Intel(R) X520 82599ES (SFI/SFP+)> port 0x4000-0x401f mem 0x50000000-0x5007ffff,0x50100000-0x50103fff at device 0.1 on pci1 Apr 4 17:21:33 nas2-gh kernel: ix1: Using 2048 TX descriptors and 2048 RX descriptors Apr 4 17:21:33 nas2-gh kernel: ix1: Using 8 RX queues 8 TX queues Apr 4 17:21:33 nas2-gh kernel: ix1: Using MSI-X interrupts with 9 vectors Apr 4 17:21:33 nas2-gh kernel: ix1: allocated for 8 queues Apr 4 17:21:33 nas2-gh kernel: ix1: allocated for 8 rx queues Apr 4 17:21:33 nas2-gh kernel: ix1: Ethernet address: a0:36:9f:77:f9:5d Apr 4 17:21:33 nas2-gh kernel: ix1: PCI Express Bus: Speed 5.0GT/s Width x8 Apr 4 17:21:33 nas2-gh kernel: ix1: eTrack 0x800004d0 PHY FW V65535 Apr 4 17:21:33 nas2-gh kernel: ix1: netmap queues/slots: TX 8/2048, RX 8/2048 Хотел cpuset'ом прибить очереди сетевухи по ядрам проца. НО, по procstat -at, не обнаружил прерывания от моей сетевой, хотя по vmstat -i | grep ix они есть: irq128: ix0:rxq0 1761 0 irq129: ix0:rxq1 18 0 irq130: ix0:rxq2 2633 0 irq131: ix0:rxq3 15 0 irq132: ix0:rxq4 9 0 irq133: ix0:rxq5 15 0 irq134: ix0:rxq6 18 0 irq135: ix0:rxq7 31 0 irq136: ix0:aq 9 0 irq137: ix1:rxq0 3930 0 irq138: ix1:rxq1 460 0 irq139: ix1:rxq2 2587 0 irq140: ix1:rxq3 3 0 irq141: ix1:rxq4 43 0 irq142: ix1:rxq5 3 0 irq143: ix1:rxq6 3059 0 irq145: ix1:aq 65 0 Уважаемы форумчане, подскажите, в 14 версии что-то менялось в этом плане? Как теперь правильно прибивать очереди? Есть старые машинки на 10.4 и 11.3, там у меня ручками очереди прибиты к ядрам.
  15. Заменили коммутатор на ревизию C1. Мультикаст сразу с порта пропал ну и я на всякий случай накинул правила.
  16. На А1 такая ж фича есть. DHCP в топе конечно у меня
  17. Точно dhcpv6. Выше кусок дампа показал. Прошивку последнюю поставил. 1.91.007. Даже добавленное правило со счетчиком не тикает. Че т здесь не то. список acl у меня пустой, эти (блокирующие) единственные правила. Завтра будем менять на C1 серию. Моя не понимать почему здесь acl не помогает.
  18. ага. Один клиент, правда юрлицо. Да и хочется такие конфузы решать, не беспокоя клиента. P.S.: штормконтроль вообще не спасает. Никак.
  19. Кстати, коллеги, а при этом на DES функцию safeguard отключить или включить?
  20. Да это DHCPv6. Странно, что по Ethertype 0x86dd не блочится. Попробую еще разок правила забить. storm.pcap
  21. К сожалению советы коллеги выше не помогли избавиться от нагрузки. Поплохеть кстати может даже при блокировке? ну может в порт и не dhcp v6 льется. Дамп трафика еще не сняли. @nixx коллега, в любом спасибо и плюсик в карму.
  22. о. Спасибо большое. Сейчас новое правило опробую. Честно говоря, никогда ничего не резал через packet content.
  23. его кстати нигде и не было, кроме этого 3 порта. даже на аплинке нет.
  24. Странненько. Вроде добавил в ACL: # ACL create access_profile ethernet ethernet_type profile_id 2 config access_profile profile_id 2 add access_id 1 ethernet ethernet_type 0x86DD port 3 deny create cpu access_profile profile_id 1 ethernet ethernet_type config cpu access_profile profile_id 1 add access_id 1 ethernet ethernet_type 0x86DD port 3 deny enable cpu_interface_filtering А загрузка CPU все равно не спала: Может A серия не умеет резать ipv6