Jump to content
Калькуляторы

Linux роутер 2Gbps, карта 10G или link aggregation

Собственно задача поток 2Gbps прогнать через роутер на LINUX.

 

Есть два варианта:

1. Поставить две Ethernet 1Gbps карты во внутрь сети, две наружу и link aggregation cо свичём.

2. Поставить одну карту 10G(естествено mci-x плюс очереди по прерываниям) и разрулить vlan'ами.

 

Что правильнее.

Какую 10G карту посоветуете.

Share this post


Link to post
Share on other sites

Вариант три - четырехголовую гигабитную карту с бондингом по 2 не рассматриваете?

Share this post


Link to post
Share on other sites
Вариант три - четырехголовую гигабитную карту с бондингом по 2 не рассматриваете?
Если честно не подумал.

Тогда ещё и третий вариант:

четырехголовую гигабитную карту с бондингом по 2.

Хотя очень хочется заложится на ростбольше 2Gbps (если роутер потянет конечно).

Edited by nickD

Share this post


Link to post
Share on other sites

я бы 10Гб ставил, и возможность роста есть и проводочков меньше, с другой стороны у первого варианта надёжность повыше

Share this post


Link to post
Share on other sites

У меня вопрос - Вы хотите как именно "прогнать"? Явно же хотите его как-то "обработать", а не банально смаршрутизировать.

 

Огласите что именно собираетесь делать, какой в целом сервер будет. И люди, решающие подобные задачи на серверах скажут потянет или нет.

Share this post


Link to post
Share on other sites
У меня вопрос - Вы хотите как именно "прогнать"? Явно же хотите его как-то "обработать", а не банально смаршрутизировать.

 

Огласите что именно собираетесь делать, какой в целом сервер будет. И люди, решающие подобные задачи на серверах скажут потянет или нет.

Задачи Маршрутизация: BGP от двух провадеров, OSPF cо свей сети, ipt_netflow

Сервер: Supermicro SYS-6016T-UF(chipset Intel 5520) + Два X5650

 

Share this post


Link to post
Share on other sites

Вы посчитайте сначала бюджет оборудования для этой десятки. Выйдет в несколько раз дороже транков, тем более 10Г-оборудование сейчас дешевеет довольно быстро, может потом проапгрейдится выйдет дешевле, чем сразу поставить 10Г, и хорошие гигабитные сетевушки легко потом использовать в другом месте. А так то 10 оно перспективнее конечно.

Edited by Valaskor

Share this post


Link to post
Share on other sites
Вы посчитайте сначала бюджет оборудования для этой десятки. Выйдет в несколько раз дороже транков, тем более 10Г-оборудование сейчас дешевеет довольно быстро, может потом проапгрейдится выйдет дешевле, чем сразу поставить 10Г, и хорошие гигабитные сетевушки легко потом использовать в другом месте. А так то 10 оно перспективнее конечно.

Посчитал.

Сервер есть и сейчас работает. 10G порт на свиче имеется.

карта Intel 10 Gigabit AT2 E10G42AFDA(82598EB) 24503р плюс SFP+ модуль у нага 10000р.

Итого 35000р в принципе приемлемо.

 

Итересует как более правильно с точки зрения производительности.

 

Share this post


Link to post
Share on other sites

А сервер потянет 10Г трафика?

PCI-E 8 может прокачать 8Г, если я не ошибаюсь.

netflow локально собирать будете или по сети передавать?

 

UPD. Сорри, не заметил, что надо всего 2Г прогнать

Edited by marikoda

Share this post


Link to post
Share on other sites
PCI-E 8 может прокачать 8Г, если я не ошибаюсь.
Ошибаетесь, pci-e 1x может 2.5гбит в дуплексе, соответственно 20гбит/с дуплесных у pci-e 8x заведомо достаточно для 10Ge сетевок, даже двухголовых..

 

update: даже не так. Там pci-e 2.0, а значит цифирь надо еще на 2 умножить. 40гбит на сегодня достаточно всему и всем.

Edited by kayot

Share this post


Link to post
Share on other sites

Ошибаетесь, pci-e 1x может 2.5гбит в дуплексе, соответственно 20гбит/с дуплесных у pci-e 8x заведомо достаточно для 10Ge сетевок, даже двухголовых..

2.5 это полудуплекс. /2 (дуплекс) *0.8 (накладные расходы передачи) = 1 Гбит дуплекса

Share this post


Link to post
Share on other sites
Ошибаетесь, pci-e 1x может 2.5гбит в дуплексе, соответственно 20гбит/с дуплесных у pci-e 8x заведомо достаточно для 10Ge сетевок, даже двухголовых..
2.5 это полудуплекс. /2 (дуплекс) *0.8 (накладные расходы передачи) = 1 Гбит дуплекса

Почти. Только в дуплексе как раз нужно не делить на 2, а умножать(возможны одновременный прием и передача). Итого 2.5гбит/с в одну сторону, 5гбит в дуплексе. Или 4гбит/с с учетом избыточности, не суть важно :)

Share this post


Link to post
Share on other sites

Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kpps

Edited by jameel

Share this post


Link to post
Share on other sites

Кто применяет bonding в Linux,

в mode=4 большую нагрузку создаёт?

Share this post


Link to post
Share on other sites
Посчитал.

Сервер есть и сейчас работает. 10G порт на свиче имеется.

карта Intel 10 Gigabit AT2 E10G42AFDA(82598EB) 24503р плюс SFP+ модуль у нага 10000р.

Итого 35000р в принципе приемлемо.

эта карта только для direct attached (DA) подключения.

SFP+ стандартные там не должны работать.

 

Вам нужна такая http://shop.nag.ru/catalog/item/05123 или myricom

Share this post


Link to post
Share on other sites

Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kpps

Обновите прошивку на 4626

Share this post


Link to post
Share on other sites
Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kpps
Обновите прошивку на 4626

Дело в том, что на тестовых серверах (без нагрузки в 100kpps) все работало просто отлично - между ними тест скорости показывал 1,85 Г/с и никаких проблем не было.

 

Share this post


Link to post
Share on other sites
Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kpps
Обновите прошивку на 4626

Дело в том, что на тестовых серверах (без нагрузки в 100kpps) все работало просто отлично - между ними тест скорости показывал 1,85 Г/с и никаких проблем не было.

Обновите прошивку на 4626

Share this post


Link to post
Share on other sites
Кто применяет bonding в Linux,

в mode=4 большую нагрузку создаёт?

использую этот режим на 4-х высоконагруженных серверах, 80% загрузки CPU в пике при 6Гиг/с из 8 возможных (2* 4ports-82576 Intel). По мне так не заметно что бы именно этот режим давал "сверхнагрузку" на систему.

Share this post


Link to post
Share on other sites
Кто применяет bonding в Linux,

в mode=4 большую нагрузку создаёт?

использую этот режим на 4-х высоконагруженных серверах, 80% загрузки CPU в пике при 6Гиг/с из 8 возможных (2* 4ports-82576 Intel). По мне так не заметно что бы именно этот режим давал "сверхнагрузку" на систему.

А что за процесоры?

Share this post


Link to post
Share on other sites

Не могу не спросить в этой теме, раз уж напомнило. :)

 

Дома стоит файловый сервачок под FreeBSD с ZFS RAID10, соответственно выдаёт на чтении заведомо больше пропускной способности гигабитной сетки (раза эдак в два).

Вопрос следующий - можно удвоить пропускную способность между сервером и рабочей машиной, имея по две гигабитки в каждой и опционально Miktotik между ними?

Я так понимаю, что LACP и его варианты не пройдут по причине неработоспособности алгоритмов распределения, основанных на src/mac MAC или IP адресах, между двумя машинами с бондингом.

Или нет?

Share this post


Link to post
Share on other sites

НА

http://www.linuxfoundation.org/collaborate...working/bonding

http://wiki.mikrotik.com/wiki/Manual:Inter...g#Bonding_modes

описаны 2 режима работы: balance-tlb и balance-alb , по-моему это ваш вар-т, правда я лично не пробовал, ну думаю непродолжительный тест выявит наилучший режим.

Share this post


Link to post
Share on other sites

Здравствуйте!

Извиняюсь что беспокою вас, моя задача конечно куда скромней чем 10 гигабит на линуксе но всеже,

не могли бы вы поддержать мою тему своим советом. Сам глубоких познаний в linux не имею но передо мной стала задача, поставить на сервер AquaServer T222 линуксовый роутер а именно vyatta и сразу возникли проблемы.

 

Вот ссылка на тему http://forum.nag.ru/forum/index.php?showto...mp;#entry570580

Заранее спасибо!!!

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this