Jump to content
Калькуляторы

Собираем тазик для MPD PPPoE

Коллеги, приходится срочно искать чем заменить сдыхающий терминатор. Подскажите, кто работает с MPD PPPoE - какой современный проц/сетевые сейчас оптимальны? Нужно 3Гбита прокачать, как минимум. Два сервера, на одном должны быть порты 1Гбит (наверное 6шт), на втором 10Гбит (1 или 2шт).

Share this post


Link to post
Share on other sites

Тазик на замену SE? А ты умеешь найти себе занятие ;)

Share this post


Link to post
Share on other sites

Когда SE100 уже мало, а на SE600(и на ЗИП к нему) ещё жалко денег, то промежуточное решение, как ни странно опять же x86 сервер

Share this post


Link to post
Share on other sites

Тазик на замену SE? А ты умеешь найти себе занятие ;)

А умирает SE потихоньку...

Share this post


Link to post
Share on other sites

Вот у меня конфигурация для примера. У меня таких 4 браса и 1 бордер на 12 ядрах(linux 10 Гбит на DA-520 2-х портовая). NAT-НЕТ, flow-НЕТ, тупо роутинг, нат на отдельной машине, но с натом + 10-15 процентов к загрузке добавьте

Сервер HP ProLiant DL120 G7 part number 628692-421

FreeBSD 9.2 MPD5.7 , rate-limit (cisco like))))

-Intel® Xeon® CPU E3-1240 @ 3.30GHz 1шт

- Сетевые Intel 82576 2 порта -2 шт. 2 в lacp на выход и 2 в lacp на вход . Думаю поянтно, 4CPU=4 порта по 1гбит.

 

Результат в час-пик

2К сессий , RX 1.3Гбит TX 0.4 Гбит

CPU 4 ядра по 50% макс

Uptime 160 дней, был только рестарт mpd в связи новой версией и свои патчи для функционала

Edited by roysbike

Share this post


Link to post
Share on other sites

До SE у меня стяло 4 штуки SuperMicro SYS-5017C-LF и они без какого либо тюнинга спокойно молотили и аплинк и локалку в среднем пропуская сквозь себя по 500++ Мбит/с трафика.

Серваков было 4 ради резерва, а не потому что хоть один из них испытывал хоть какие то напряги.

 

 

redback - хлам

 

Пожалуйста, обоснуйте аргументированно.

 

 

Таки хлам?

 

Лично я так не считаю и его работой вполне доволен, но, как сами понимаете, на вкус и цвет ...

Share this post


Link to post
Share on other sites

orlik (Сегодня, 09:19) писал:

redback - хлам

 

Пожалуйста, обоснуйте аргументированно.

 

 

Есть опыт работы с ними (4 года), больше полутора десятка девайсов, карты дохли регулярно (1-2 в месяц) баги никогда не фиксились (предлагали только обновить софт, без гарантии что баг получится).

 

P.S. Тех поддержка официальная , от Эриксона

Share this post


Link to post
Share on other sites

По поводу карт - да, совершенно не понятно почему дохнут и поэтому кто-то работает годами, а кто-то отсылает поставщику "только что" (день/неделя/месяц/ХЗ) распакованный SE.

Насчет багов софта могу сказать только то, что меня пока пронесло (тьфу, тьфу! тук, тук!), но возможно это из за того, что я, обычно, не хочу от железа чего-то сверхестественного.

Share this post


Link to post
Share on other sites

Хотя я еще не эксплуатировал SE100 (но уже приобрел), подхожу все же к выводу, что сервера с Ubuntu за те же деньги (за 345000 можно собрать около 10 штук)совершенно точно отказоустойчивее, не сложнее в настройке и обладают не меньшим функционалом. Это заключение, по-моему, 100% правильно, если необходимо реализовывать функции PPPoE BRAS+Shaper+NAT. Да, и этими серверами легко можно обслуживать 10000 PPPoE пользователей, SE100 вытянет же максимум 8000. Имеющиеся сейчас сервера на ubuntu держат каждый 900-1000 сессий без напряга, трафик около 500-700 Мбит в каждую сторону.

Edited by vadimus

Share this post


Link to post
Share on other sites

Зачем тогда купили? Если 10 серверов, которые жрут в 10 раз больше электричества, настраиваются десять раз каждый и создают в десять раз больше проблем, решают все задачи.

Особенно мне нравятся эти рассуждения в контексте BRAS. Что выполняет задачи radius-клиента на этих серверах? Linux ISG и mpd5?

Share this post


Link to post
Share on other sites

А с 10Гб картами кто-то делает pppoe терминаторы?

А какой смысл? Ну смотрит у вас 10 гбит на вход и на выход, 4 проца например, по 4 очереди на каждую сетевуху. Так вот, не будет балансировки , сетевуха , которая слушает pppoe , все свалится на одну очередь и забьет один cpu до 100процентов . Остальные будут курить . Только на выходе будет балансировать http://www.intel.com/support/network/adapter/pro100/sb/CS-027574.htm . Сколько процов , стольико и портов нужно делать. 4 проца , значит 4 порта. по 2 порта в аггрегацию. Каждый проц , будет обрабатывать свой порт.

Edited by roysbike

Share this post


Link to post
Share on other sites

PPPoE прекрасно масштабируется на кучу серверов. Теми же вланами например.

Поэтому у тпикстартера не должно быть проблем.

Не справится одна железка - можно поставить 2, 3,4...10 серверов.

Поэтому и проблемы то нет.

Share this post


Link to post
Share on other sites

А с 10Гб картами кто-то делает pppoe терминаторы?

А какой смысл? Ну смотрит у вас 10 гбит на вход и на выход, 4 проца например, по 4 очереди на каждую сетевуху. Так вот, не будет балансировки , сетевуха , которая слушает pppoe , все свалится на одну очередь и забьет один cpu до 100процентов . Остальные будут курить . Только на выходе будет балансировать http://www.intel.com/support/network/adapter/pro100/sb/CS-027574.htm . Сколько процов , стольико и портов нужно делать. 4 проца , значит 4 порта. по 2 порта в аггрегацию. Каждый проц , будет обрабатывать свой порт.

не соглашусь... современные карты (особенно x520) поддерживают несколько очередей. по умолчанию создается столько же очереей, сколько ядер в системе. после этого прерывания карточки раскладываются на все ядра. http://forum.nag.ru/forum/index.php?showtopic=81814&hl=soft&st=0

 

Но я за аппаратные решения BRAS - это не только железо, а еще и готовый софт.

Share this post


Link to post
Share on other sites

Зачем тогда купили? Если 10 серверов, которые жрут в 10 раз больше электричества, настраиваются десять раз каждый и создают в десять раз больше проблем, решают все задачи.

Особенно мне нравятся эти рассуждения в контексте BRAS. Что выполняет задачи radius-клиента на этих серверах? Linux ISG и mpd5?

 

Жалею что купили. Настраиваются один раз, потом меняются только IP. Проблем вообще не создают! Стандартный radius-клиент из пакета ppp. По электричеству - ну да, 220 ватт каждый, 10 штук 2.2 киловатта. Для нас это не проблема. Проблема то в том с SE100, что покупать их надо сразу 2, второй для резерва, это уже 700000. А в случае потери одного IBM PC маршрутизатора нагрузка автоматически перераспределится между остальными, не будет ни простоя, ни тормозов у клиентов (1000 пользователей будет на каждом, или 1100 - в принципе, без разницы).

Share this post


Link to post
Share on other sites

не соглашусь... современные карты (особенно x520) поддерживают несколько очередей. по умолчанию создается столько же очереей, сколько ядер в системе. после этого прерывания карточки раскладываются на все ядра. http://forum.nag.ru/forum/index.php?showtopic=81814&hl=soft&st=0

 

Но я за аппаратные решения BRAS - это не только железо, а еще и готовый софт.

 

вопрос как раз который меня мучал по поводу карты intel-x520-da2, используем такую карту на bgp машине, т.е. 1 порт приход 2ой порт на абонентов, сколько Гбит можно реально отдать абонентам? учитывая что столько же будет на 2ом порту, просто стоит вопрос сбора новой железки, и задумался над тем хватит ли одной карты, или искать платформу которая поддержит установку 2ой карты.

 

заранее спасибо за ответ!

Share this post


Link to post
Share on other sites

Смотря что будет делать сервер. Если только BGP то, вероятно, пропустит без проблем 10 Гигабит.

Share this post


Link to post
Share on other sites

только bgp, в общем то как я понимаю получится пропустить только 5 на вход и на 5 выход (в сумме 2х портов 10Г) или 10 и 10?

Share this post


Link to post
Share on other sites

10 и 10 - хотя на всякий случай нужно посмотреть, не упрется ли в пропускную способность шины PCI, нужно чтобы материнская плата поддерживала PCI Express 2.0 (5 ГТ/с).

Share this post


Link to post
Share on other sites

Добрый день! Помогите решить непонятку, имеется тазик на FreeBSD 10.1 на нем крутится mpd(pppoe) все стабильно и все довольны. Непонятка возникает при подключении роутеров а-ля TOTO_link, Huawey, Netgear, Upvel и т.п. , причем подключение есть, сессия активна и на некоторых даже можно мир пропинговать, а вот страницы не открываются. Роутеры от д-линк, тп-линк, микротик, асус работают стабильно и без танцев с бубном.

Share this post


Link to post
Share on other sites

мту?

Не понял. Если Вы про "set iface enable tcpmssfix", то оно есть.

Edited by toropyga

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this