Jump to content
Калькуляторы

Железо для Linux шлюза

Нужно собрать БЮДЖЕТНЫЙ Linux роутер, который будет маршрутизировать локальный и внешний трафик. На нём будет крутиться quagga (bgpd (2 full view) и ripd), dhcpd, tc с хэш таблицами (шейпинг) и iptables. (NAT НЕ НУЖЕН).

В данный момент стоит десктопное железо (i5), зависающее раз в 3 месяца (в логах ничего необычного). Хотелось бы взять серверную мать с ECC памятью. Смотрю в сторону supermicro, у которого есть IPMI. На каком сокете брать? Какой камень брать? Какие сетевые брать? Есть несколько I350 (с двумя гбитными портами). Может лучше взять одну 10гбитную сетевую (в коммутаторах имеются 10г порты) ?

В данный момент десктопный роутер пропускает до 30к p/s внешнего трафика и до 40к p/s локального трафика. Нагрузка со временем будет расти.

Edited by syster

Share this post


Link to post
Share on other sites

Средний десктопный и5 по идее должен прожевать никак не меньше 100-150кппс, даже не поперхнувшись. Что у вас не то с софтами на вашем рутере.

Share this post


Link to post
Share on other sites

В данный момент стоит десктопное железо (i5), зависающее раз в 3 месяца (в логах ничего необычного).

Виснуть какбы не должно. Я бы начал с чистки со спиртом контактов, и замены БП на какой-то нормальный, к примеру FSP (не PNR), мощность роли не играет (потребление там до 150Вт в пике). Ну и лог ядра на ком-порт вывести и смотреть на соседнем тазике что отсыхает.

 

А в идеале - если там нет ничего, что требует RW файловой системы, сменить дистр на какой-то эмбеддед/роутерный (мы к примеру LEAF юзаем). Минус точка отказа в виде ненадежного HDD.

 

В данный момент десктопный роутер пропускает до 30к p/s внешнего трафика и до 40к p/s локального трафика. Нагрузка со временем будет расти.

На такую "нагрузку" и атома хватит.

 

Если хотите серверное - тута продаются дешевые б/у 1156 комплекты, с IPMI. Хватит надолго.

Share this post


Link to post
Share on other sites

Виснуть какбы не должно. Я бы начал с чистки со спиртом контактов, и замены БП на какой-то нормальный, к примеру FSP (не PNR), мощность роли не играет (потребление там до 150Вт в пике).

+1

Потрите ластиком (обычная школьная стирательная резинка) контакты на модулях памяти.

Share this post


Link to post
Share on other sites

У меня стоит 2 практически идентичных PPPoE сервера самосборных на i5-2500. Один не вис ни разу с момента сборки(сейчас аптайм порядка 500 дней, кулера меняли), второй где-то раз в 2-3 месяца крашится.

Софт идентичный(тупо клонированы диски), железо +- идентично. Тут видимо от памяти зависит, удачные или неудачные модули попались.

Для PPPoE эти краши значения не имеют, потому и не парюсь с исправлением, пусть себе доживают.

P.S. при 200к PPS и 0.7G трафика загрузка серверов околонулевая, 5-7%. Задачи в точности те же что и у ТС.

P.S.S. ни один из стоящих в той же стойке 'нормальных' серверов с ECC памятью по вине железа в жизни не глючил, только по багам софта.

Share this post


Link to post
Share on other sites

а кто вам мешает проверять память серверов memtest'ом, раз уж самосбор делаете?

зависание раз в 2-3 месяца не то, чтобы совсем плохо, но я бы заменил уже после первого.

к тому же битая память означает, что трафик ваш тоже будет биться, и клиент запросто может получать битый файл. у некоторых протоколов есть проверка crc, а у некоторых - нет.

но случай, когда 700мб iso-шник все время качался битый (и каждый раз по-разному), я хорошо помню.

Share this post


Link to post
Share on other sites

к примеру FSP (не PNR)

А что не так с PNR серией можно осветить немного?

Share this post


Link to post
Share on other sites

Дешевые бюджетные БП (хоть и лучше по надежности термалтейков/хайперов ИМХО). Бывает брак. HCN к примеру серия куда лучше, хоть и тоже недорогие.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this