Перейти к содержимому
Калькуляторы

Собираем тазик для MPD PPPoE

Коллеги, приходится срочно искать чем заменить сдыхающий терминатор. Подскажите, кто работает с MPD PPPoE - какой современный проц/сетевые сейчас оптимальны? Нужно 3Гбита прокачать, как минимум. Два сервера, на одном должны быть порты 1Гбит (наверное 6шт), на втором 10Гбит (1 или 2шт).

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Тазик на замену SE? А ты умеешь найти себе занятие ;)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Когда SE100 уже мало, а на SE600(и на ЗИП к нему) ещё жалко денег, то промежуточное решение, как ни странно опять же x86 сервер

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Тазик на замену SE? А ты умеешь найти себе занятие ;)

А умирает SE потихоньку...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Вот у меня конфигурация для примера. У меня таких 4 браса и 1 бордер на 12 ядрах(linux 10 Гбит на DA-520 2-х портовая). NAT-НЕТ, flow-НЕТ, тупо роутинг, нат на отдельной машине, но с натом + 10-15 процентов к загрузке добавьте

Сервер HP ProLiant DL120 G7 part number 628692-421

FreeBSD 9.2 MPD5.7 , rate-limit (cisco like))))

-Intel® Xeon® CPU E3-1240 @ 3.30GHz 1шт

- Сетевые Intel 82576 2 порта -2 шт. 2 в lacp на выход и 2 в lacp на вход . Думаю поянтно, 4CPU=4 порта по 1гбит.

 

Результат в час-пик

2К сессий , RX 1.3Гбит TX 0.4 Гбит

CPU 4 ядра по 50% макс

Uptime 160 дней, был только рестарт mpd в связи новой версией и свои патчи для функционала

Изменено пользователем roysbike

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

О, люди начинают понимать что redback - хлам.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Таки хлам? А то я всё подумываю о нём =)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

До SE у меня стяло 4 штуки SuperMicro SYS-5017C-LF и они без какого либо тюнинга спокойно молотили и аплинк и локалку в среднем пропуская сквозь себя по 500++ Мбит/с трафика.

Серваков было 4 ради резерва, а не потому что хоть один из них испытывал хоть какие то напряги.

 

 

redback - хлам

 

Пожалуйста, обоснуйте аргументированно.

 

 

Таки хлам?

 

Лично я так не считаю и его работой вполне доволен, но, как сами понимаете, на вкус и цвет ...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

orlik (Сегодня, 09:19) писал:

redback - хлам

 

Пожалуйста, обоснуйте аргументированно.

 

 

Есть опыт работы с ними (4 года), больше полутора десятка девайсов, карты дохли регулярно (1-2 в месяц) баги никогда не фиксились (предлагали только обновить софт, без гарантии что баг получится).

 

P.S. Тех поддержка официальная , от Эриксона

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

По поводу карт - да, совершенно не понятно почему дохнут и поэтому кто-то работает годами, а кто-то отсылает поставщику "только что" (день/неделя/месяц/ХЗ) распакованный SE.

Насчет багов софта могу сказать только то, что меня пока пронесло (тьфу, тьфу! тук, тук!), но возможно это из за того, что я, обычно, не хочу от железа чего-то сверхестественного.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Хотя я еще не эксплуатировал SE100 (но уже приобрел), подхожу все же к выводу, что сервера с Ubuntu за те же деньги (за 345000 можно собрать около 10 штук)совершенно точно отказоустойчивее, не сложнее в настройке и обладают не меньшим функционалом. Это заключение, по-моему, 100% правильно, если необходимо реализовывать функции PPPoE BRAS+Shaper+NAT. Да, и этими серверами легко можно обслуживать 10000 PPPoE пользователей, SE100 вытянет же максимум 8000. Имеющиеся сейчас сервера на ubuntu держат каждый 900-1000 сессий без напряга, трафик около 500-700 Мбит в каждую сторону.

Изменено пользователем vadimus

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Зачем тогда купили? Если 10 серверов, которые жрут в 10 раз больше электричества, настраиваются десять раз каждый и создают в десять раз больше проблем, решают все задачи.

Особенно мне нравятся эти рассуждения в контексте BRAS. Что выполняет задачи radius-клиента на этих серверах? Linux ISG и mpd5?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А с 10Гб картами кто-то делает pppoe терминаторы?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А с 10Гб картами кто-то делает pppoe терминаторы?

А какой смысл? Ну смотрит у вас 10 гбит на вход и на выход, 4 проца например, по 4 очереди на каждую сетевуху. Так вот, не будет балансировки , сетевуха , которая слушает pppoe , все свалится на одну очередь и забьет один cpu до 100процентов . Остальные будут курить . Только на выходе будет балансировать http://www.intel.com/support/network/adapter/pro100/sb/CS-027574.htm . Сколько процов , стольико и портов нужно делать. 4 проца , значит 4 порта. по 2 порта в аггрегацию. Каждый проц , будет обрабатывать свой порт.

Изменено пользователем roysbike

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

PPPoE прекрасно масштабируется на кучу серверов. Теми же вланами например.

Поэтому у тпикстартера не должно быть проблем.

Не справится одна железка - можно поставить 2, 3,4...10 серверов.

Поэтому и проблемы то нет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А с 10Гб картами кто-то делает pppoe терминаторы?

А какой смысл? Ну смотрит у вас 10 гбит на вход и на выход, 4 проца например, по 4 очереди на каждую сетевуху. Так вот, не будет балансировки , сетевуха , которая слушает pppoe , все свалится на одну очередь и забьет один cpu до 100процентов . Остальные будут курить . Только на выходе будет балансировать http://www.intel.com/support/network/adapter/pro100/sb/CS-027574.htm . Сколько процов , стольико и портов нужно делать. 4 проца , значит 4 порта. по 2 порта в аггрегацию. Каждый проц , будет обрабатывать свой порт.

не соглашусь... современные карты (особенно x520) поддерживают несколько очередей. по умолчанию создается столько же очереей, сколько ядер в системе. после этого прерывания карточки раскладываются на все ядра. http://forum.nag.ru/forum/index.php?showtopic=81814&hl=soft&st=0

 

Но я за аппаратные решения BRAS - это не только железо, а еще и готовый софт.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Зачем тогда купили? Если 10 серверов, которые жрут в 10 раз больше электричества, настраиваются десять раз каждый и создают в десять раз больше проблем, решают все задачи.

Особенно мне нравятся эти рассуждения в контексте BRAS. Что выполняет задачи radius-клиента на этих серверах? Linux ISG и mpd5?

 

Жалею что купили. Настраиваются один раз, потом меняются только IP. Проблем вообще не создают! Стандартный radius-клиент из пакета ppp. По электричеству - ну да, 220 ватт каждый, 10 штук 2.2 киловатта. Для нас это не проблема. Проблема то в том с SE100, что покупать их надо сразу 2, второй для резерва, это уже 700000. А в случае потери одного IBM PC маршрутизатора нагрузка автоматически перераспределится между остальными, не будет ни простоя, ни тормозов у клиентов (1000 пользователей будет на каждом, или 1100 - в принципе, без разницы).

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

не соглашусь... современные карты (особенно x520) поддерживают несколько очередей. по умолчанию создается столько же очереей, сколько ядер в системе. после этого прерывания карточки раскладываются на все ядра. http://forum.nag.ru/forum/index.php?showtopic=81814&hl=soft&st=0

 

Но я за аппаратные решения BRAS - это не только железо, а еще и готовый софт.

 

вопрос как раз который меня мучал по поводу карты intel-x520-da2, используем такую карту на bgp машине, т.е. 1 порт приход 2ой порт на абонентов, сколько Гбит можно реально отдать абонентам? учитывая что столько же будет на 2ом порту, просто стоит вопрос сбора новой железки, и задумался над тем хватит ли одной карты, или искать платформу которая поддержит установку 2ой карты.

 

заранее спасибо за ответ!

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Смотря что будет делать сервер. Если только BGP то, вероятно, пропустит без проблем 10 Гигабит.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

только bgp, в общем то как я понимаю получится пропустить только 5 на вход и на 5 выход (в сумме 2х портов 10Г) или 10 и 10?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

10 и 10 - хотя на всякий случай нужно посмотреть, не упрется ли в пропускную способность шины PCI, нужно чтобы материнская плата поддерживала PCI Express 2.0 (5 ГТ/с).

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Добрый день! Помогите решить непонятку, имеется тазик на FreeBSD 10.1 на нем крутится mpd(pppoe) все стабильно и все довольны. Непонятка возникает при подключении роутеров а-ля TOTO_link, Huawey, Netgear, Upvel и т.п. , причем подключение есть, сессия активна и на некоторых даже можно мир пропинговать, а вот страницы не открываются. Роутеры от д-линк, тп-линк, микротик, асус работают стабильно и без танцев с бубном.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

мту?

Не понял. Если Вы про "set iface enable tcpmssfix", то оно есть.

Изменено пользователем toropyga

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.