-
Публикации
819 -
Зарегистрирован
-
Посещение
О roma33rus
-
Звание
Аспирант
Информация
-
Пол
Array
Посетители профиля
-
Bird BGP транзитные маршруты
тему ответил в roma33rus пользователя roma33rus в Программное обеспечение, биллинг и *unix системы
Самое важное для меня, чтобы multipath работал и трафик балансился по этим трем железкам в середине. -
Bird BGP транзитные маршруты
тему ответил в roma33rus пользователя roma33rus в Программное обеспечение, биллинг и *unix системы
Коллеги, читая статейку СДСМ я понял, что мне будет необходимо сначала связать маршруты с Loopback адресов железок, используя OSPF, а уже поверх этого на Loopback адресах поднять iBGP и там анонсить свои внешние подсети. При этом multipath будет отрабатывать на стороне OSPF. Я все верно мысли выстроил? -
Bird BGP транзитные маршруты
тему ответил в roma33rus пользователя roma33rus в Программное обеспечение, биллинг и *unix системы
Спасибо, тоже будет интересно поизучать. Единственное я думаю, а реально ли будет реализовать мою схему, придется три bgp сессии поднять между R1 и R5, естественно эта связность будет на разных адресах. Будет ли при этом работать multipath, интересно конечно -
Bird BGP транзитные маршруты
тему ответил в roma33rus пользователя roma33rus в Программное обеспечение, биллинг и *unix системы
Update: Все, прочитав первый раздел, уже стало понятно, что я пошел немного неверным путем. Что ж, буду делать Full Mesh Спасибо :-) В общем случае хочу реализовать такую схему: -
Bird BGP транзитные маршруты
тему ответил в roma33rus пользователя roma33rus в Программное обеспечение, биллинг и *unix системы
Еще нет. Думаю сегодня-завтра осилю. Надо еще не просто прочитать, а понять смысл изложенного -
Bird BGP транзитные маршруты
тему ответил в roma33rus пользователя roma33rus в Программное обеспечение, биллинг и *unix системы
Не понимаю как мне Full Mesh поможет. Почему нельзя без этого сделать? У меня пока схема простая: И вот у меня вопрос по R2. R2 от R1 маршрут принимает, а в R3 не передает. Update: Понял как оно мне поможет, только можно ли такое организовать без Full Mesh. -
Всем привет. Имею машинку на FreeBSD: FreeBSD 14.0-RELEASE-p6 #0: Tue Mar 26 20:26:20 UTC 2024 На нем BIRD version 1.6.8. Никак не пойму почему у меня маршруты, принимаемые от одного соседа iBGP, не анонсируются другому iBGP соседу. Конфиг такой имею: Сейчас вышел из ситуации, добавив статический маршрут. Анонсить необходимо 1.1.1.0/24 (за этим скрывается реальная сеть). Сильно не пинайте, с Birdом второй раз в жизни сталкиваюсь. Как все-таки правильно в Bird транзитные анонсы прокидывать?
-
Cisco Nexus9000 C9372PX и аггрегированные маршруты
тему ответил в roma33rus пользователя roma33rus в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
Да, спасибо добрый человек :-) Плюс в карму. Теперь все логично и правильно работает. -
Cisco Nexus9000 C9372PX и аггрегированные маршруты
тему ответил в roma33rus пользователя roma33rus в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
Сделал, так тоже работает, но в таблице BGP получаю такую картину: *>a192.168.100.0/24 0.0.0.0 100 32768 i s>l192.168.100.0/25 0.0.0.0 100 32768 i s r 0.0.0.0 0 100 32768 ? s>l192.168.100.128/25 0.0.0.0 100 32768 i s r 0.0.0.0 0 100 32768 ? Странные пропуски. Кстати, оно и без network работает. При этом в таблице bgp вижу: *>a192.168.100.0/24 0.0.0.0 100 32768 i s>r192.168.100.0/25 0.0.0.0 0 100 32768 ? s>r192.168.100.128/25 0.0.0.0 0 100 32768 ? -
Cisco Nexus9000 C9372PX и аггрегированные маршруты
тему ответил в roma33rus пользователя roma33rus в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
Добавил редистрибьюцию маршрутов: redistribute direct route-map nas2_out Правильное ли это решение? Работать - заработало как надо теперь. -
Всем привет. Имею железку C9372PX На ней стоит NXOS: version 9.3(8). Настроена iBGP сессия: router bgp 11111 router-id 10.100.100.9 bestpath as-path multipath-relax log-neighbor-changes address-family ipv4 unicast network 192.168.100.0/24 aggregate-address 192.168.100.0/24 summary-only maximum-paths 3 neighbor 10.33.33.22 remote-as 11111 description NAS2 address-family ipv4 unicast send-community route-map nas2_in in route-map nas2_out out next-hop-self soft-reconfiguration inbound На ней настроено два SVI: 192.168.100.1/25 и 192.168.100.129/25. Пытаюсь заанонсировать iBGP соседу aggregate маршрут 192.168.100.0/24, настроил опцию для создания аггрегированного маршрута, а он у меня висит со статусом "path is invalid(invalid aggregate), no labeled nexthop" и соответственно не анонсится соседу. Где я ошибаюсь, что я упускаю?
-
FreeBSD 14 и прерывания сетевой
тему ответил в roma33rus пользователя roma33rus в Программное обеспечение, биллинг и *unix системы
pppoe у меня нет. ipoe без ната. ipfw dummynet и роутинг. Машинка тестовая, поэтому трафик гонял через нее с помощью iperf3. Возможно iperf и генерит такую нагрузку. Надо попробовать юзерей туда запустить. -
FreeBSD 14 и прерывания сетевой
тему ответил в roma33rus пользователя roma33rus в Программное обеспечение, биллинг и *unix системы
Спасибо :-) Только при net.isr.dispatch=deferred у меня одно ядро прерывания грузит :-(, а при direct нормально раскидывается. На самом деле нашел соседнюю темку, где расписано это дело: -
Всем привет. Имеется машина: FreeBSD nas2-gh 14.0-RELEASE-p6 FreeBSD 14.0-RELEASE-p6 #0: Tue Mar 26 20:26:20 UTC 2024 С сетевой на борту: Apr 4 17:21:33 nas2-gh kernel: ix1: <Intel(R) X520 82599ES (SFI/SFP+)> port 0x4000-0x401f mem 0x50000000-0x5007ffff,0x50100000-0x50103fff at device 0.1 on pci1 Apr 4 17:21:33 nas2-gh kernel: ix1: Using 2048 TX descriptors and 2048 RX descriptors Apr 4 17:21:33 nas2-gh kernel: ix1: Using 8 RX queues 8 TX queues Apr 4 17:21:33 nas2-gh kernel: ix1: Using MSI-X interrupts with 9 vectors Apr 4 17:21:33 nas2-gh kernel: ix1: allocated for 8 queues Apr 4 17:21:33 nas2-gh kernel: ix1: allocated for 8 rx queues Apr 4 17:21:33 nas2-gh kernel: ix1: Ethernet address: a0:36:9f:77:f9:5d Apr 4 17:21:33 nas2-gh kernel: ix1: PCI Express Bus: Speed 5.0GT/s Width x8 Apr 4 17:21:33 nas2-gh kernel: ix1: eTrack 0x800004d0 PHY FW V65535 Apr 4 17:21:33 nas2-gh kernel: ix1: netmap queues/slots: TX 8/2048, RX 8/2048 Хотел cpuset'ом прибить очереди сетевухи по ядрам проца. НО, по procstat -at, не обнаружил прерывания от моей сетевой, хотя по vmstat -i | grep ix они есть: irq128: ix0:rxq0 1761 0 irq129: ix0:rxq1 18 0 irq130: ix0:rxq2 2633 0 irq131: ix0:rxq3 15 0 irq132: ix0:rxq4 9 0 irq133: ix0:rxq5 15 0 irq134: ix0:rxq6 18 0 irq135: ix0:rxq7 31 0 irq136: ix0:aq 9 0 irq137: ix1:rxq0 3930 0 irq138: ix1:rxq1 460 0 irq139: ix1:rxq2 2587 0 irq140: ix1:rxq3 3 0 irq141: ix1:rxq4 43 0 irq142: ix1:rxq5 3 0 irq143: ix1:rxq6 3059 0 irq145: ix1:aq 65 0 Уважаемы форумчане, подскажите, в 14 версии что-то менялось в этом плане? Как теперь правильно прибивать очереди? Есть старые машинки на 10.4 и 11.3, там у меня ручками очереди прибиты к ядрам.
-
Заблокировать мультикаст DES-3200/A1
тему ответил в roma33rus пользователя roma33rus в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
Заменили коммутатор на ревизию C1. Мультикаст сразу с порта пропал ну и я на всякий случай накинул правила.