caz Опубликовано 13 января, 2012 · Жалоба Если не ошибаюсь - из постов выше, у автора L3 Core - 3610, а балансировку надо делать именно там. На Supxxx проще сделать SLB. да, что-то прозевал, про d-link =) а с SLB могут вылезти всякие High CPU problem.. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vurd Опубликовано 13 января, 2012 · Жалоба Можно сделать на PBR с костылем резервированием на cisco sup2/sup32/sup720 и т.д., сам route-map выглядит приблизительно так route-map 33 permit 20 match ip address nat_№ set ip next-hop 1.1.1.1 2.2.2.2 3.3.3.3 по умолчанию трафик идет на 1.1.1.1, запускаем на каком-нибудь сервере, по крону раз в минуту какой-нибудь скрипт, который будет пинговать или еще как мониторить доступность NAT и если что с ним не так, то отключать порт с интерфейсом 1.1.1.1, после отключения. трафик начинает идти на 2.2.2.2 такой вариант работал с 11 NAT, но и 20 NATов легко потянет. Сейчас так и сделано. Была бы циска, вынес бы в отдельные VRF и не мучался. Если не ошибаюсь - из постов выше, у автора L3 Core - 3610, а балансировку надо делать именно там. На Supxxx проще сделать SLB. Именно. Ваш вариант с more specific мне понятен, но это снова ручное разбрасывание. Я видел себе вариант с ospf как два дефолта в rib, типа того: #show ip route 0.0.0.0 Routing entry for 0.0.0.0/0, supernet Known via "ospf 1", distance 110, metric 1, candidate default path Tag 1, type extern 2, forward metric 2 Last update from 10.10.10.2 on FastEthernet0/0, 00:01:04 ago Routing Descriptor Blocks: * 10.10.10.6, from 10.10.10.13, 00:01:04 ago, via FastEthernet0/1 Route metric is 1, traffic share count is 1 Route tag 1 10.10.10.2, from 10.10.10.9, 00:01:04 ago, via FastEthernet0/0 Route metric is 1, traffic share count is 1 Route tag 1 Я тему создал, чтобы узнать, если вообще теоретическая возможность сделать балансинг на 0.0.0.0/0 скажем в зависимости от source ip. Я так понял iBGP multipath как раз выполняет такую функцию, но в моем случае (dlink головного мозга) такой вариант не заработал. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Alex/AT Опубликовано 13 января, 2012 (изменено) · Жалоба Я в начале темы писал, почему однозначно в заданном случае не будет работать multipath хоть с OSPF, хоть с BGP. Если бы у Вас не было NAT - чистый роутинг, пертурбации в кеше маршрутов приводили бы к небольшому и редкому разовому реордерингу пакетов. Но у Вас NAT, и любая пертурбация приведет к тому, что пакеты некоторых сессий уйдут на сервер, о данных сессиях не знающий. это снова ручное разбрасывание Если всё-таки решите анонсить с серверов и умеете готовить какой-нибудь ЯП - проще написать скрипт, который будет считать метрики автоматом (это надо делать всего лишь 1 раз при постоянном изменении состава серверов, временное выпадение сервера таковым не является). Изменено 13 января, 2012 пользователем Alex/AT Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vurd Опубликовано 13 января, 2012 · Жалоба Ваша правда. Действительно же NAT. Значит спецификами разрулю в итоге или отдельным свитчем вообще. Всем спасибо. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
pfexec Опубликовано 14 января, 2012 · Жалоба для небольших масштабов - тоже вполне вариант. тут уже смотря сколько трансляций. если по полмиллиона на сервер - исход очевиденну можно же и три сервера поставить. :)Вы хотели сказать, ECMP?ой Ж) Equal Cost жеж. главно расшифровку специально вспомнил, но всё равно напейсал eqmp. да чтож ты будеш делать, видимо equal влияет мне на мозг. :'(pfsync на больших количествах сессий ведёт себя плохо.ну режим работы с сессиями выставить агрессивный и должно полегчать.Во FreeBSD pfsync не регулируется никак (ну если только в сырцы не залезать), фигачит мелкими пакетами и начинает тем самым сам по себе генерировать абсолютно ненужную нагрузку даже на выделенном интерфейсе с jumbo frames.еще пичаль в том что libalias вообще не умеет синкать трансляции. возможно в этом ключе стоит посмотреть на линукс с conntrackd, который вроде тоже умеет синкать трансляции.Как LACP поможет раскидать трафик на разные машины? Никак.есть жеж MC LAG. правда делинк вряд ли умеет. имхо, синк трансляций надо в любом случае делать. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dyr Опубликовано 16 января, 2012 · Жалоба еще пичаль в том что libalias вообще не умеет синкать трансляции Угу. :( Вроде glebius что-то обещал сделать в этом направлении. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...