Перейти к содержимому
Калькуляторы

Выбор бордера при модарнизации сети

Всем здравствуйте. Так получилось, что меня поставили администрировать сеть небольшого оператора. 400 Мбит канал, порядка 800 душ. Сейчас схема подключения у нас выглядит так. Один аплинк на интернет и один на пиринг. Все приходит на L3 (D-link DGS), а от туда на машину под Ubuntu. На машине крутится биллинг и вся маршрутизация (NAT, Firewall, BGP), сервер считает трафик, работает с БД. После сервака снова попадаем на L3 и отправляем всё на второй L3, к которому подключены коммутаторы доступа (L2). Сейчас стоит вопрос небольшой модернизации, дабы немного повысить отказоустойчивость сети (хотя бы немного). Получить второй аплинк возможности нет, но хочется как-то разгрузить сервер. Снять например с него маршрутизацию. Посмотрел в сторону маршрутизаторов, оборудование дорогое, а на грабли наступать не хочется. Сначала думали брать микротик CCR1072-1G-8S+, но почитав немного форум как-то стал очень сильно сомневаться. Поэтому прошу советов бывалых подскажите, что лучше взять (аппаратное решение или оставить софтовое, но например машину в кластер загнать и зазеркалить). Может кто-то поделится своей реализацией или натолкнет на мысль. Буду благодарен за любую информацию. Возможно уже где-то обсуждалось, но что-то толкового ничего не нашел.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Лучше всего нарисовать схему текущих подключений, что бы было понятно о чем идет речь. Возможно ваш первый коммутатор L3 и вовсе не нужен, да и не совсем ясно, зачем тут и какой-то второй коммутатор между оператором. Вообще покупка L3 коммутаторов длинка обычно выброс денег, т.к. практической пользы от их применения нет, функционал очень скудный.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

если до гига можно рулить и так дальше, тут надо смотреть на нагрузку на машине, если там всё свободно в пике, то копить)))

тут смотря сколько денег есть, оттуда толкаться. я бы следующим шагом поставил второй тазик (а лучше два). на один бгп, нат. на второй биллинг. шейпер оставить на третьем. опять же тут индивидуально выбирать Вам. разница существенна от тарифной сетки, и абонентов.

 

коммутатор нужен, можно статус и прочее увидеть по оптике (если она у него приходит от оператора) на медюке ты только лампочки увидишь

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Не прикрепил файл. Извините. Схематично всё выглядит так.

post-131532-072436600 1453293635_thumb.jpg

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Не озвучен планируемый бюджет, сложно давать рекомендации так как разброс советов достаточно велик.

Биллинг однозначно вынести на отдельную машину.

Ubuntu, если менять на железо, можно по сносной цене заменить на Cisco 7301 или 7206-NPE-G2 - должны прожевать ваш канал и BGP. Под NATом может загнуться.

Лучшим и оптимальным решением по железному бордеру может явиться Redback SE100.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А почему два DGS после DES ?

Изменено пользователем Diamont

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Просто взять сервак, хоть самосборный, главное хорошие сетевухи поставить и организовать на нем бордер. Сам билинг на отдельной машине.

Лично я, для большей масштабируемости, легкого переноса данных и резервирования, поставил один сервер с openvz, на который в контейнеры поставил отдельно билинг, отдельно базу данных, отдельно хостинг с сайтом и личном кабинетом пользователя, отдельно машинку под иные потребности и отдельно сервер выполняющий функционал бордера.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

поставил один сервер с openvz, на который в контейнеры поставил отдельно билинг, отдельно базу данных, отдельно хостинг с сайтом и личном кабинетом пользователя, отдельно машинку под иные потребности

Плюс такого решения в том, что если ваш тазик крашнется (а он обязательно крашнется), то не придётся проверять, что из перечисленного работает, а что нет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Плюс такого решения в том, что если ваш тазик крашнется (а он обязательно крашнется), то не придётся проверять, что из перечисленного работает, а что нет.

а чем это кардинально лучше текущего варианта? :) в чем отличие, кроме гемора с администрированием? :)

 

по сабжу - берется пара бюджетных интел комплектов с нормальными сетевухами (на текущий трафик даже атомов хватит, если рост не предвидится), поднимается на них бгп/нат, линкуются между собой, синхронизируется коннтрак через conntrackd и по ospf/rip анонсят дефолт (можно - с разными приоритетами, можно - ECMP). ессно с аплинком договориться о двух бгп сессиях с ихней AS.

 

после чего - можно спать спокойно, падение одного из бордеров практически никто не заметит...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

второй писюк добавить и всё.

один умрёт - нагрузка перельётся на оставшийся

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

второй писюк добавить и всё.

А лучше ещё и третий. Писюков, как и микротиков, мало не бывает.

 

а чем это кардинально лучше текущего варианта?

Тем, что ты не понял сарказм.

 

ессно с аплинком договориться о двух бгп сессиях с ихней AS.

И тем, что ты уже ***ал менять условия задачи.
Изменено пользователем Diamont

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

И тем, что ты уже ***ал менять условия задачи.

о да, второй пир с аплинком - невыполнимая задача, лол...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

поставил один сервер с openvz

 

 

Опенвз фтопку с древним 2.6 ядром.

Либо FreeBSD с jail, либо Linux с LXC или KVM.

А по резервируемости - два коммутатора в кластер и два BRAS сервера.

Схемs Master-Master каждого из компонентов ищется в гугле - BGP, NAT, shaper, billing, Mysql.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Все спасибо. Решили поставить ещё один комп. А пока буду изучать кластеры.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

поставил один сервер с openvz, на который в контейнеры поставил отдельно билинг, отдельно базу данных, отдельно хостинг с сайтом и личном кабинетом пользователя, отдельно машинку под иные потребности

 

Плюс такого решения в том, что если ваш тазик крашнется (а он обязательно крашнется), то не придётся проверять, что из перечисленного работает, а что нет.

 

Для этого у меня полный образ всего и по отдельности скидывает в резерв.

 

поставил один сервер с openvz

 

 

Опенвз фтопку с древним 2.6 ядром.

Либо FreeBSD с jail, либо Linux с LXC или KVM.

А по резервируемости - два коммутатора в кластер и два BRAS сервера.

Схемs Master-Master каждого из компонентов ищется в гугле - BGP, NAT, shaper, billing, Mysql.

 

 

ядро за основу взято не новое, но от старого там очень мало осталось. Не надо сравнивать с голым 2.6 ядром. Пашет просто замечательно. Ресурсы все распределяют равномерно. Вы видимо никогда не работали с этим опенвз

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

ядро за основу взято не новое, но от старого там очень мало осталось. Не надо сравнивать с голым 2.6 ядром. Пашет просто замечательно. Ресурсы все распределяют равномерно. Вы видимо никогда не работали с этим опенвз

 

 

Я с опенвз работаю с 2007 года.

Если у вас пару виртуалок, то вы проблем на хосте не видите, когда их с 10-к то косяки становится все больше и заметнее.

 

То, что вы напихали патчей от Parallels в ванильнее ядро - не делает продукт лучше.

Вашим коллегам по суппорту продукта потом придется вспоминать, как закрыть уязвимости и не поломать Опенвз.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

ядро за основу взято не новое, но от старого там очень мало осталось. Не надо сравнивать с голым 2.6 ядром. Пашет просто замечательно. Ресурсы все распределяют равномерно. Вы видимо никогда не работали с этим опенвз

 

Я с опенвз работаю с 2007 года.

Если у вас пару виртуалок, то вы проблем на хосте не видите, когда их с 10-к то косяки становится все больше и заметнее.

 

То, что вы напихали патчей от Parallels в ванильнее ядро - не делает продукт лучше.

Вашим коллегам по суппорту продукта потом придется вспоминать, как закрыть уязвимости и не поломать Опенвз.

Коллега, а как же документирование каждого своего шага? Я вот своих дрочу.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А пока буду изучать кластеры.

ничего в них страшного нет.

 

единственный совет - стройте сразу 3-нодовый кластер (треть ноду можно либо что чисто для кворума, хоть hdmi свисток на атоме завести). как минимум - нет головняка со split brain при обрыве связи между нодами. ну и о fencing подумать.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Угу, а лучше купите вмварь и не ебите нам мозг =))

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

 

Коллега, а как же документирование каждого своего шага? Я вот своих дрочу.

 

Это не у всех организаций хватает ресурсов для ведения рабочих журналов и документации.

Я-то себе пишу, но вбивать всем руководителям азы работы не имею желания. Пусть живут сегодняшним днем.

 

Угу, а лучше купите вмварь и не ебите нам мозг =))

 

И будет компостировать мозги на других ресурсах за свои же деньги :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

То, что вы напихали патчей от Parallels в ванильнее ядро - не делает продукт лучше.

там не ванильное ядро ни разу. там ядро от rhel 6.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.