SmokerMan Опубликовано 23 декабря, 2013 · Жалоба Коллеги, приходится срочно искать чем заменить сдыхающий терминатор. Подскажите, кто работает с MPD PPPoE - какой современный проц/сетевые сейчас оптимальны? Нужно 3Гбита прокачать, как минимум. Два сервера, на одном должны быть порты 1Гбит (наверное 6шт), на втором 10Гбит (1 или 2шт). Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
snark Опубликовано 23 декабря, 2013 · Жалоба Тазик на замену SE? А ты умеешь найти себе занятие ;) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
srg555 Опубликовано 23 декабря, 2013 · Жалоба Когда SE100 уже мало, а на SE600(и на ЗИП к нему) ещё жалко денег, то промежуточное решение, как ни странно опять же x86 сервер Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
SmokerMan Опубликовано 23 декабря, 2013 · Жалоба Тазик на замену SE? А ты умеешь найти себе занятие ;) А умирает SE потихоньку... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roysbike Опубликовано 24 декабря, 2013 (изменено) · Жалоба Вот у меня конфигурация для примера. У меня таких 4 браса и 1 бордер на 12 ядрах(linux 10 Гбит на DA-520 2-х портовая). NAT-НЕТ, flow-НЕТ, тупо роутинг, нат на отдельной машине, но с натом + 10-15 процентов к загрузке добавьте Сервер HP ProLiant DL120 G7 part number 628692-421 FreeBSD 9.2 MPD5.7 , rate-limit (cisco like)))) -Intel® Xeon® CPU E3-1240 @ 3.30GHz 1шт - Сетевые Intel 82576 2 порта -2 шт. 2 в lacp на выход и 2 в lacp на вход . Думаю поянтно, 4CPU=4 порта по 1гбит. Результат в час-пик 2К сессий , RX 1.3Гбит TX 0.4 Гбит CPU 4 ядра по 50% макс Uptime 160 дней, был только рестарт mpd в связи новой версией и свои патчи для функционала Изменено 24 декабря, 2013 пользователем roysbike Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
orlik Опубликовано 25 декабря, 2013 · Жалоба О, люди начинают понимать что redback - хлам. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Butch3r Опубликовано 25 декабря, 2013 · Жалоба Таки хлам? А то я всё подумываю о нём =) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
snark Опубликовано 25 декабря, 2013 · Жалоба До SE у меня стяло 4 штуки SuperMicro SYS-5017C-LF и они без какого либо тюнинга спокойно молотили и аплинк и локалку в среднем пропуская сквозь себя по 500++ Мбит/с трафика. Серваков было 4 ради резерва, а не потому что хоть один из них испытывал хоть какие то напряги. redback - хлам Пожалуйста, обоснуйте аргументированно. Таки хлам? Лично я так не считаю и его работой вполне доволен, но, как сами понимаете, на вкус и цвет ... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
orlik Опубликовано 25 декабря, 2013 · Жалоба orlik (Сегодня, 09:19) писал: redback - хлам Пожалуйста, обоснуйте аргументированно. Есть опыт работы с ними (4 года), больше полутора десятка девайсов, карты дохли регулярно (1-2 в месяц) баги никогда не фиксились (предлагали только обновить софт, без гарантии что баг получится). P.S. Тех поддержка официальная , от Эриксона Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
snark Опубликовано 25 декабря, 2013 · Жалоба По поводу карт - да, совершенно не понятно почему дохнут и поэтому кто-то работает годами, а кто-то отсылает поставщику "только что" (день/неделя/месяц/ХЗ) распакованный SE. Насчет багов софта могу сказать только то, что меня пока пронесло (тьфу, тьфу! тук, тук!), но возможно это из за того, что я, обычно, не хочу от железа чего-то сверхестественного. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vadimus Опубликовано 25 декабря, 2013 (изменено) · Жалоба Хотя я еще не эксплуатировал SE100 (но уже приобрел), подхожу все же к выводу, что сервера с Ubuntu за те же деньги (за 345000 можно собрать около 10 штук)совершенно точно отказоустойчивее, не сложнее в настройке и обладают не меньшим функционалом. Это заключение, по-моему, 100% правильно, если необходимо реализовывать функции PPPoE BRAS+Shaper+NAT. Да, и этими серверами легко можно обслуживать 10000 PPPoE пользователей, SE100 вытянет же максимум 8000. Имеющиеся сейчас сервера на ubuntu держат каждый 900-1000 сессий без напряга, трафик около 500-700 Мбит в каждую сторону. Изменено 25 декабря, 2013 пользователем vadimus Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vurd Опубликовано 25 декабря, 2013 · Жалоба Зачем тогда купили? Если 10 серверов, которые жрут в 10 раз больше электричества, настраиваются десять раз каждый и создают в десять раз больше проблем, решают все задачи. Особенно мне нравятся эти рассуждения в контексте BRAS. Что выполняет задачи radius-клиента на этих серверах? Linux ISG и mpd5? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
SmokerMan Опубликовано 25 декабря, 2013 · Жалоба А с 10Гб картами кто-то делает pppoe терминаторы? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
roysbike Опубликовано 25 декабря, 2013 (изменено) · Жалоба А с 10Гб картами кто-то делает pppoe терминаторы? А какой смысл? Ну смотрит у вас 10 гбит на вход и на выход, 4 проца например, по 4 очереди на каждую сетевуху. Так вот, не будет балансировки , сетевуха , которая слушает pppoe , все свалится на одну очередь и забьет один cpu до 100процентов . Остальные будут курить . Только на выходе будет балансировать http://www.intel.com/support/network/adapter/pro100/sb/CS-027574.htm . Сколько процов , стольико и портов нужно делать. 4 проца , значит 4 порта. по 2 порта в аггрегацию. Каждый проц , будет обрабатывать свой порт. Изменено 25 декабря, 2013 пользователем roysbike Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Negator Опубликовано 25 декабря, 2013 · Жалоба PPPoE прекрасно масштабируется на кучу серверов. Теми же вланами например. Поэтому у тпикстартера не должно быть проблем. Не справится одна железка - можно поставить 2, 3,4...10 серверов. Поэтому и проблемы то нет. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
dmvy Опубликовано 26 декабря, 2013 · Жалоба А с 10Гб картами кто-то делает pppoe терминаторы? А какой смысл? Ну смотрит у вас 10 гбит на вход и на выход, 4 проца например, по 4 очереди на каждую сетевуху. Так вот, не будет балансировки , сетевуха , которая слушает pppoe , все свалится на одну очередь и забьет один cpu до 100процентов . Остальные будут курить . Только на выходе будет балансировать http://www.intel.com/support/network/adapter/pro100/sb/CS-027574.htm . Сколько процов , стольико и портов нужно делать. 4 проца , значит 4 порта. по 2 порта в аггрегацию. Каждый проц , будет обрабатывать свой порт. не соглашусь... современные карты (особенно x520) поддерживают несколько очередей. по умолчанию создается столько же очереей, сколько ядер в системе. после этого прерывания карточки раскладываются на все ядра. http://forum.nag.ru/forum/index.php?showtopic=81814&hl=soft&st=0 Но я за аппаратные решения BRAS - это не только железо, а еще и готовый софт. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vadimus Опубликовано 26 декабря, 2013 · Жалоба Зачем тогда купили? Если 10 серверов, которые жрут в 10 раз больше электричества, настраиваются десять раз каждый и создают в десять раз больше проблем, решают все задачи. Особенно мне нравятся эти рассуждения в контексте BRAS. Что выполняет задачи radius-клиента на этих серверах? Linux ISG и mpd5? Жалею что купили. Настраиваются один раз, потом меняются только IP. Проблем вообще не создают! Стандартный radius-клиент из пакета ppp. По электричеству - ну да, 220 ватт каждый, 10 штук 2.2 киловатта. Для нас это не проблема. Проблема то в том с SE100, что покупать их надо сразу 2, второй для резерва, это уже 700000. А в случае потери одного IBM PC маршрутизатора нагрузка автоматически перераспределится между остальными, не будет ни простоя, ни тормозов у клиентов (1000 пользователей будет на каждом, или 1100 - в принципе, без разницы). Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xxxupg Опубликовано 26 декабря, 2013 · Жалоба не соглашусь... современные карты (особенно x520) поддерживают несколько очередей. по умолчанию создается столько же очереей, сколько ядер в системе. после этого прерывания карточки раскладываются на все ядра. http://forum.nag.ru/forum/index.php?showtopic=81814&hl=soft&st=0 Но я за аппаратные решения BRAS - это не только железо, а еще и готовый софт. вопрос как раз который меня мучал по поводу карты intel-x520-da2, используем такую карту на bgp машине, т.е. 1 порт приход 2ой порт на абонентов, сколько Гбит можно реально отдать абонентам? учитывая что столько же будет на 2ом порту, просто стоит вопрос сбора новой железки, и задумался над тем хватит ли одной карты, или искать платформу которая поддержит установку 2ой карты. заранее спасибо за ответ! Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vadimus Опубликовано 27 декабря, 2013 · Жалоба Смотря что будет делать сервер. Если только BGP то, вероятно, пропустит без проблем 10 Гигабит. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xxxupg Опубликовано 27 декабря, 2013 · Жалоба только bgp, в общем то как я понимаю получится пропустить только 5 на вход и на 5 выход (в сумме 2х портов 10Г) или 10 и 10? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vadimus Опубликовано 27 декабря, 2013 · Жалоба 10 и 10 - хотя на всякий случай нужно посмотреть, не упрется ли в пропускную способность шины PCI, нужно чтобы материнская плата поддерживала PCI Express 2.0 (5 ГТ/с). Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xxxupg Опубликовано 27 декабря, 2013 · Жалоба понял, спасибо! Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
toropyga Опубликовано 28 декабря, 2016 · Жалоба Добрый день! Помогите решить непонятку, имеется тазик на FreeBSD 10.1 на нем крутится mpd(pppoe) все стабильно и все довольны. Непонятка возникает при подключении роутеров а-ля TOTO_link, Huawey, Netgear, Upvel и т.п. , причем подключение есть, сессия активна и на некоторых даже можно мир пропинговать, а вот страницы не открываются. Роутеры от д-линк, тп-линк, микротик, асус работают стабильно и без танцев с бубном. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
myth Опубликовано 28 декабря, 2016 · Жалоба мту? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
toropyga Опубликовано 28 декабря, 2016 (изменено) · Жалоба мту? Не понял. Если Вы про "set iface enable tcpmssfix", то оно есть. Изменено 28 декабря, 2016 пользователем toropyga Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...