Перейти к содержимому
Калькуляторы

roma33rus

Активный участник
  • Публикации

    819
  • Зарегистрирован

  • Посещение

О roma33rus

  • Звание
    Аспирант
    Аспирант

Информация

  • Пол
    Array

Посетители профиля

3342 просмотра профиля
  1. Самое важное для меня, чтобы multipath работал и трафик балансился по этим трем железкам в середине.
  2. Коллеги, читая статейку СДСМ я понял, что мне будет необходимо сначала связать маршруты с Loopback адресов железок, используя OSPF, а уже поверх этого на Loopback адресах поднять iBGP и там анонсить свои внешние подсети. При этом multipath будет отрабатывать на стороне OSPF. Я все верно мысли выстроил?
  3. Спасибо, тоже будет интересно поизучать. Единственное я думаю, а реально ли будет реализовать мою схему, придется три bgp сессии поднять между R1 и R5, естественно эта связность будет на разных адресах. Будет ли при этом работать multipath, интересно конечно
  4. Update: Все, прочитав первый раздел, уже стало понятно, что я пошел немного неверным путем. Что ж, буду делать Full Mesh Спасибо :-) В общем случае хочу реализовать такую схему:
  5. Еще нет. Думаю сегодня-завтра осилю. Надо еще не просто прочитать, а понять смысл изложенного
  6. Не понимаю как мне Full Mesh поможет. Почему нельзя без этого сделать? У меня пока схема простая: И вот у меня вопрос по R2. R2 от R1 маршрут принимает, а в R3 не передает. Update: Понял как оно мне поможет, только можно ли такое организовать без Full Mesh.
  7. Всем привет. Имею машинку на FreeBSD: FreeBSD 14.0-RELEASE-p6 #0: Tue Mar 26 20:26:20 UTC 2024 На нем BIRD version 1.6.8. Никак не пойму почему у меня маршруты, принимаемые от одного соседа iBGP, не анонсируются другому iBGP соседу. Конфиг такой имею: Сейчас вышел из ситуации, добавив статический маршрут. Анонсить необходимо 1.1.1.0/24 (за этим скрывается реальная сеть). Сильно не пинайте, с Birdом второй раз в жизни сталкиваюсь. Как все-таки правильно в Bird транзитные анонсы прокидывать?
  8. Да, спасибо добрый человек :-) Плюс в карму. Теперь все логично и правильно работает.
  9. Сделал, так тоже работает, но в таблице BGP получаю такую картину: *>a192.168.100.0/24 0.0.0.0 100 32768 i s>l192.168.100.0/25 0.0.0.0 100 32768 i s r 0.0.0.0 0 100 32768 ? s>l192.168.100.128/25 0.0.0.0 100 32768 i s r 0.0.0.0 0 100 32768 ? Странные пропуски. Кстати, оно и без network работает. При этом в таблице bgp вижу: *>a192.168.100.0/24 0.0.0.0 100 32768 i s>r192.168.100.0/25 0.0.0.0 0 100 32768 ? s>r192.168.100.128/25 0.0.0.0 0 100 32768 ?
  10. Добавил редистрибьюцию маршрутов: redistribute direct route-map nas2_out Правильное ли это решение? Работать - заработало как надо теперь.
  11. Всем привет. Имею железку C9372PX На ней стоит NXOS: version 9.3(8). Настроена iBGP сессия: router bgp 11111 router-id 10.100.100.9 bestpath as-path multipath-relax log-neighbor-changes address-family ipv4 unicast network 192.168.100.0/24 aggregate-address 192.168.100.0/24 summary-only maximum-paths 3 neighbor 10.33.33.22 remote-as 11111 description NAS2 address-family ipv4 unicast send-community route-map nas2_in in route-map nas2_out out next-hop-self soft-reconfiguration inbound На ней настроено два SVI: 192.168.100.1/25 и 192.168.100.129/25. Пытаюсь заанонсировать iBGP соседу aggregate маршрут 192.168.100.0/24, настроил опцию для создания аггрегированного маршрута, а он у меня висит со статусом "path is invalid(invalid aggregate), no labeled nexthop" и соответственно не анонсится соседу. Где я ошибаюсь, что я упускаю?
  12. pppoe у меня нет. ipoe без ната. ipfw dummynet и роутинг. Машинка тестовая, поэтому трафик гонял через нее с помощью iperf3. Возможно iperf и генерит такую нагрузку. Надо попробовать юзерей туда запустить.
  13. Спасибо :-) Только при net.isr.dispatch=deferred у меня одно ядро прерывания грузит :-(, а при direct нормально раскидывается. На самом деле нашел соседнюю темку, где расписано это дело:
  14. Всем привет. Имеется машина: FreeBSD nas2-gh 14.0-RELEASE-p6 FreeBSD 14.0-RELEASE-p6 #0: Tue Mar 26 20:26:20 UTC 2024 С сетевой на борту: Apr 4 17:21:33 nas2-gh kernel: ix1: <Intel(R) X520 82599ES (SFI/SFP+)> port 0x4000-0x401f mem 0x50000000-0x5007ffff,0x50100000-0x50103fff at device 0.1 on pci1 Apr 4 17:21:33 nas2-gh kernel: ix1: Using 2048 TX descriptors and 2048 RX descriptors Apr 4 17:21:33 nas2-gh kernel: ix1: Using 8 RX queues 8 TX queues Apr 4 17:21:33 nas2-gh kernel: ix1: Using MSI-X interrupts with 9 vectors Apr 4 17:21:33 nas2-gh kernel: ix1: allocated for 8 queues Apr 4 17:21:33 nas2-gh kernel: ix1: allocated for 8 rx queues Apr 4 17:21:33 nas2-gh kernel: ix1: Ethernet address: a0:36:9f:77:f9:5d Apr 4 17:21:33 nas2-gh kernel: ix1: PCI Express Bus: Speed 5.0GT/s Width x8 Apr 4 17:21:33 nas2-gh kernel: ix1: eTrack 0x800004d0 PHY FW V65535 Apr 4 17:21:33 nas2-gh kernel: ix1: netmap queues/slots: TX 8/2048, RX 8/2048 Хотел cpuset'ом прибить очереди сетевухи по ядрам проца. НО, по procstat -at, не обнаружил прерывания от моей сетевой, хотя по vmstat -i | grep ix они есть: irq128: ix0:rxq0 1761 0 irq129: ix0:rxq1 18 0 irq130: ix0:rxq2 2633 0 irq131: ix0:rxq3 15 0 irq132: ix0:rxq4 9 0 irq133: ix0:rxq5 15 0 irq134: ix0:rxq6 18 0 irq135: ix0:rxq7 31 0 irq136: ix0:aq 9 0 irq137: ix1:rxq0 3930 0 irq138: ix1:rxq1 460 0 irq139: ix1:rxq2 2587 0 irq140: ix1:rxq3 3 0 irq141: ix1:rxq4 43 0 irq142: ix1:rxq5 3 0 irq143: ix1:rxq6 3059 0 irq145: ix1:aq 65 0 Уважаемы форумчане, подскажите, в 14 версии что-то менялось в этом плане? Как теперь правильно прибивать очереди? Есть старые машинки на 10.4 и 11.3, там у меня ручками очереди прибиты к ядрам.
  15. Заменили коммутатор на ревизию C1. Мультикаст сразу с порта пропал ну и я на всякий случай накинул правила.