Перейти к содержимому
Калькуляторы

Два BGP аплинка на два border'a резервирование по отказоустойчивости

Есть ли практики реализации такой схемы резервирования BGP сессий на двух бордерах, которая позволит при падении одного из бордеров установить BGP сессию с аплинком на другом?

 

До failover'a

UP1  UP2
|     | <- EBGP
|     |
BR1--BR2

и после него

UP1  UP2
  \   | <- EBGP
    \ |
BR1  BR2

 

Или я странного хочу?

 

PS Поиск по форуму просветления не дал...

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Есть ли практики реализации такой схемы резервирования BGP сессий на двух бордерах, которая позволит при падении одного из бордеров установить BGP сессию с аплинком на другом?

 

До failover'a

UP1  UP2
|     | <- EBGP
|     |
BR1--BR2

и после него

UP1  UP2
  \   | <- EBGP
    \ |
BR1  BR2

 

Или я странного хочу?

 

PS Поиск по форуму просветления не дал...

 

Ну если только в рамках того, что вы озвучили, то advertise map и BGP сессия между бордерами, imho...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ну если только в рамках того, что вы озвучили, то advertise map и BGP сессия между бордерами, imho...
Больше похоже на vvrp или carp

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Кто мешает поднять по две сессии с каждого бордера?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

VVRP.

я тоже подозревал что это мог бы быть vrrp в сторону аплинков

 

а что можно сделать в сторону своей автономки ?

если, допустим на каждый бордер будет приходить несколько сотен ВЛАНов ?

или ставить между бордерами и сетью один роутер (L3 switch) ?

Не очень хотелось бы создавать такое узкое место.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Можно по 2 сессии с каждого бордера. На внутреннюю сеть carp-интефейс, если мы про FreeBSD.

L3 нужен, если в вашей сети много внутреннего межсегментного трафика.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ети две сессии будут одновременно работать на каждом из бордеров и балансировать нагрузку?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

у нас два бордера, два браса, два аплинка.

с каждого бордера до каждого аплинка поднята BGP сессия (/29-я сеть на стыке), с добавленым препендом на резервном бордере

между бордерами и брасами OSPF.

ну и уменьшены тайминги на определение потеряной связаности в BGP и в OSPF

 

так сказать горячий резерв.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А реально ли сделать load balancing & failover на BGP бордерах?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

От аплинков fullview ?

А между бордерами что, IBGP ?

 

у нас два бордера, два браса, два аплинка.

с каждого бордера до каждого аплинка поднята BGP сессия (/29-я сеть на стыке), с добавленым препендом на резервном бордере

между бордерами и брасами OSPF.

ну и уменьшены тайминги на определение потеряной связаности в BGP и в OSPF

 

так сказать горячий резерв.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Идея с /29 вполне элегантна.

 

А дальше всё просто. Делаете оспф от брас1 до асбр1 с меньшим весом, а от брас2 до асбр2.

на асбр1 прописываете препенды на сети брас2, а на асбр2 препенды на брас1.

 

В итоге исходящий трафик у вас рулится автоматом по двум сессиям.

Входящий трафик к вам рулится препендами.

 

Трафик на брас1 ходит через асбр1, на брас2 через асбр2.

 

Препенды можно заменить на MED.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Как сделать со стороны аплинков - это не проблема. Вот как быть со стороны локалки? У самого два роутера под FreeBSD, с локалки приходит несколько сотен вланов с /30 маской. Т.е. CARP уже никак не прикрутишь. Плюс адреса в локалке белые - значит подсети делать /29 ради CARP неоправданно. Была такая идея - один роутер в режиме ожидания пингует основной. Если основной не отвечает - поднимает все интерфейсы для локалки. Главный роутер возвращается - все локальные интерфейсы в даун. Даже скрипт на шеле написал, но в дело так и не ввел.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

  up1                 up2

    |                        |

bgp1   ----------  bgp2

\                           /

   \                    /

       \             /

       L2switch

 

Пытаюсь реализовать такую схему. 

Даны два разных аплинка, от которых беру fullview, bgp1 и bgp2 - попытка разделить нагрузку от абонентов на два бордера, каждый из которых анонсирует одинаково аплинкам мою asXXXX и несколько абонетских /22 сетей. между бордерами поднят линк с ibgp сессией.

хочу посадить половину абонентов на один бордер, половину - на другой, притом чтобы связность была хорошей, т.е. траффик шел по наилучшему пути.

Если все настраиваю и поднимаю сессию ibgp сессию между бордерами, они обмениваются полученными от аплинков маршрутами и вроде бы все должно прекрасно работать. Но вот интернет то у абонентов отваливается!(((

Предполагаю, что исходящий траффик идет как надо через родной бордер и первый аплинк, а возвращается через второй и вот на нем уже непонятно что происходит. Может быть он отдает его абоненту, а по сути через линк с первым должен уйти на первый.

В общем вот. 

Наверняка многие делали подобную схему и может быть подскажут как сконфигурировать quagga правильно???

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Возможно, не делаете redistribute static, ospf в bgp.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

1 hour ago, dignity said:

Возможно, не делаете redistribute static, ospf в bgp.

ospf не использую. Надо будет посмотреть. На самом деле мало опыта в настройке bgp, поэтому в настройке quagga что-то сильно упущено

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Конфиги серверов симметричные, вот конфиг первого бордера bgp1:

 

Spoiler



! Zebra configuration saved from vty

!
hostname gw1
password 12345
enable password 12345
log file /var/log/quagga/bgpd.log
!
router bgp 12345
 bgp router-id 1.2.3.1
 bgp log-neighbor-changes
 network a.b.c.0/22
 network d.e.f.0/22
 neighbor x.x.x.x remote-as XXXX
 neighbor x.x.x.x description UP1
 neighbor x.x.x.x update-source x.x.x.y

neighbor x.x.x.x next-hop-self
 neighbor x.x.x.x soft-reconfiguration inbound
 neighbor x.x.x.x route-map UP1-IN in
 neighbor x.x.x.x route-map UP1-OUT out
 neighbor a.a.a.a remote-as 12345
 neighbor a.a.a.a description iBGP_to_GW2
 neighbor a.a.a.a next-hop-self
 neighbor a.a.a.a soft-reconfiguration inbound
!
ip prefix-list MYNET seq 5 permit a.b.c.0/22
ip prefix-list MYNET seq 10 permit d.e.f.0/22
ip prefix-list bogons description bogus nets
ip prefix-list bogons seq 15 permit 0.0.0.0/8 le 32
ip prefix-list bogons seq 20 permit 127.0.0.0/8 le 32
ip prefix-list bogons seq 25 permit 192.0.2.0/24 le 32
ip prefix-list bogons seq 30 permit 10.0.0.0/8 le 32
ip prefix-list bogons seq 35 permit 172.16.0.0/12 le 32
ip prefix-list bogons seq 40 permit 192.168.0.0/16 le 32
ip prefix-list bogons seq 45 permit 169.254.0.0/16 le 32
ip prefix-list bogons seq 50 permit 192.42.172.0/24 le 32
ip prefix-list bogons seq 55 permit 198.18.0.0/15 le 32
ip prefix-list bogons seq 60 permit 192.88.99.0/24 le 32
ip prefix-list bogons seq 65 permit 224.0.0.0/4 le 32
ip prefix-list bogons seq 70 permit 240.0.0.0/4 le 32
!
ip as-path access-list 1 permit _6451[2-9]_
ip as-path access-list 1 permit _645[2-9][0-9]_
ip as-path access-list 1 permit _64[6-9][0-9][0-9]_
ip as-path access-list 1 permit _65[0-9][0-9][0-9]_
!
route-map UP1-IN deny 100
 description -- filter private ASs
 match as-path 1
!
route-map UP1-IN deny 110
 description -- -- filter bogons
 match ip address prefix-list bogons
!
route-map UP1-IN permit 200

set local-preference 100
!
route-map UP1-OUT permit 20

match ip address prefix-list MYNET
!
route-map iBGP-IN deny 100
 description -- filter private ASs
 match as-path 1
!
route-map iBGP-IN deny 110
 description -- -- filter bogons
 match ip address prefix-list bogons
!
route-map iBGP-IN permit 200
 set local-preference 100
!
route-map iBGP-OUT permit 20
 match ip address prefix-list MYNET
!
line vty

 


 

 

 

Изменено пользователем ikoctya

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Я такую схему с двумя Cisco 1002x рассмотрел бы в реальной работе 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

14 часов назад, Odissey сказал:

ему с двумя Cisco 1002x рассмотрел бы в

Синтаксис не особо отличается! Для расширения для меня это идеальный вариант

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Так то некую схему я вижу и даже тестовую площадку собирал, только туда ещё dpi надо воткнуть на второй узел, чтобы он смог работать независимо в случае аварии

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Только что, Odissey сказал:

Так то некую схему я вижу и даже тестовую площадку собирал, только туда ещё dpi надо воткнуть на второй узел, чтобы он смог работать независимо в случае аварии

Как шёл траффик на тестовой площадке, всмысле все ОК? Может быть поделишься конфигом

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Подключал к центральному узлу на живую, поэтому кроме ibgp между роутерами и списком vlan не пускал клиентов с одного на другой. На столе 7609 долго не простоял как тестовый и убрал на склад до лучших времён. Так что рабочей схемы и с dpi на обоих не запускал

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.