tsolodov Posted August 31, 2010 Posted August 31, 2010 Идея проста, сделать кластер балансировки нагрузки из шейперов под фрей, в данный момент имеется грубо говоря по шейперу на микрорайон, какой то загружен сильно, какой то наоборот. Иногда если один шейпер падает, то юзеры одного из микрорайонов посасывают. Хочется сделать кластер с балансировкой нагрузки. Для шейпинга используется pipes+ipfw. Балансировка ИП трафика сделать несложно, но вот незадача: как расшарить между всеми нодами использование pipe'ов пользователями, т.к. если этого не сделать, то получится что полоса будет равна (количество нод * BW). Или нет? Кто делал подобные вещи, отзовитесь пожалуйста!!! Комментируем, делимся опытом! Вставить ник Quote
tsolodov Posted August 31, 2010 Author Posted August 31, 2010 Сложно сказать ну на вскидку в пик получается 3-4 Гб/с Вставить ник Quote
jab Posted August 31, 2010 Posted August 31, 2010 Справится один шейпирующий бридж. Никакие кластеры не нужны. Вставить ник Quote
kapa Posted August 31, 2010 Posted August 31, 2010 (edited) можно ниже на L3 сделать 2 маршрута на разные NAT-ы, если шейпер между ними упал - трафик бежит через другой шейпер. распределения нагрузки не получится, но резервирование - вполне Edited August 31, 2010 by kapa Вставить ник Quote
Abram Posted August 31, 2010 Posted August 31, 2010 Для распределения нужен route balancing по source-ip. Которого лично я не нашёл ни у кого. Вставить ник Quote
tsolodov Posted August 31, 2010 Author Posted August 31, 2010 Справится один шейпирующий бридж. Никакие кластеры не нужны. Как показывает практика-не справится, иначе зачем нам плодить шейперы? Вставить ник Quote
jab Posted August 31, 2010 Posted August 31, 2010 Как показывает практика-не справится, иначе зачем нам плодить шейперы? Смените прокладку. У меня справляется. Вставить ник Quote
tsolodov Posted August 31, 2010 Author Posted August 31, 2010 Как показывает практика-не справится, иначе зачем нам плодить шейперы? Смените прокладку. У меня справляется. Очень смешно) Вставить ник Quote
cmhungry Posted August 31, 2010 Posted August 31, 2010 линуксовый ящик, интеловская серверная карточка на 4 гиговых дырки (можно интеловскую с 10ге) - и на полисинге это все вытянет 3-4 гига фулл-дуплекса. Вставить ник Quote
nic_stav Posted August 31, 2010 Posted August 31, 2010 линуксовый ящик, интеловская серверная карточка на 4 гиговых дырки (можно интеловскую с 10ге) - и на полисинге это все вытянет 3-4 гига фулл-дуплекса. А на шейпинге? Вставить ник Quote
mikevlz Posted September 1, 2010 Posted September 1, 2010 а зачем вам шейпинг? Мы полисили в свое время и 128к. Недовольных не было. Вставить ник Quote
tsolodov Posted September 1, 2010 Author Posted September 1, 2010 а зачем вам шейпинг? Мы полисили в свое время и 128к. Недовольных не было. наша циска умрет, давайте по теме, про кластеры лучше) Вставить ник Quote
_INF_ Posted September 1, 2010 Posted September 1, 2010 линуксовый ящик, интеловская серверная карточка на 4 гиговых дырки (можно интеловскую с 10ге) - и на полисинге это все вытянет 3-4 гига фулл-дуплекса. Конфиг для "обрезания" :) одного клиента приведите если вас не затруднит. Заранее премного благодарен. Вставить ник Quote
cmhungry Posted September 1, 2010 Posted September 1, 2010 линуксовый ящик, интеловская серверная карточка на 4 гиговых дырки (можно интеловскую с 10ге) - и на полисинге это все вытянет 3-4 гига фулл-дуплекса. Конфиг для "обрезания" :) одного клиента приведите если вас не затруднит. Заранее премного благодарен. Было на форуме, как и скрипт конфигурячинья на многие тыщи клиентов.через tc делалось Вставить ник Quote
Умник Posted September 1, 2010 Posted September 1, 2010 (edited) линуксовый ящикЯщики разные бывают. И вообще лучше здесь трафик не в мегабитах считать, а в PPS. 4 Гигабита тоже разные бывают. Зависит от паттерна трафика. Edited September 1, 2010 by Умник Вставить ник Quote
alex_001 Posted September 1, 2010 Posted September 1, 2010 Насчет кластера тема действительно интересня , но imho там служебного траффика между узламу будет слишком много (для распределенных пайпов/классов надо будет обмениваться количеством bucket's в буферах и подобной инфой (в зависимости от дисципллины очереди) . очень накладно) Если принять что 1 клиент режется только на 1 шейпере и никак не управляем общим потоком - тут проще конечно , но все равно встает вопрос как его перенаправить на нужный узел шейпирования (хотя если есть возможность подсовывать разный default на роутеры/L3 свитчи агрегации , за которыми и расположить этот кластер , если конечно таких L3 железок достаточно много и траффик относительно равномерно распределен). Также border (ну или что там дальше) тоже должен симметрично отдавать на нужный шейпер , но тут вобщем тоже решаемо. А вот как весь этот бардак синхронизировать - самый главный вопрос , готового ответа на который нет (по крайней мере у меня :) ) Вставить ник Quote
jab Posted September 2, 2010 Posted September 2, 2010 Если принять что 1 клиент режется только на 1 шейпере и никак не управляем общим потоком - тут проще конечно , но все равно встает вопрос как его перенаправить на нужный узел шейпирования (хотя если есть возможность подсовывать разный default на роутеры/L3 свитчи агрегации , за которыми и расположить этот кластер , если конечно таких L3 железок достаточно много и траффик относительно равномерно распределен). Достаточно раз в секунду сбрасывать показатели загрузки с шейперов на балансеры в качестве path cost. Вставить ник Quote
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.