Jump to content

Recommended Posts

Posted

Собственно задача поток 2Gbps прогнать через роутер на LINUX.

 

Есть два варианта:

1. Поставить две Ethernet 1Gbps карты во внутрь сети, две наружу и link aggregation cо свичём.

2. Поставить одну карту 10G(естествено mci-x плюс очереди по прерываниям) и разрулить vlan'ами.

 

Что правильнее.

Какую 10G карту посоветуете.

Posted (edited)
Вариант три - четырехголовую гигабитную карту с бондингом по 2 не рассматриваете?
Если честно не подумал.

Тогда ещё и третий вариант:

четырехголовую гигабитную карту с бондингом по 2.

Хотя очень хочется заложится на ростбольше 2Gbps (если роутер потянет конечно).

Edited by nickD
Posted

я бы 10Гб ставил, и возможность роста есть и проводочков меньше, с другой стороны у первого варианта надёжность повыше

Posted

У меня вопрос - Вы хотите как именно "прогнать"? Явно же хотите его как-то "обработать", а не банально смаршрутизировать.

 

Огласите что именно собираетесь делать, какой в целом сервер будет. И люди, решающие подобные задачи на серверах скажут потянет или нет.

Posted
У меня вопрос - Вы хотите как именно "прогнать"? Явно же хотите его как-то "обработать", а не банально смаршрутизировать.

 

Огласите что именно собираетесь делать, какой в целом сервер будет. И люди, решающие подобные задачи на серверах скажут потянет или нет.

Задачи Маршрутизация: BGP от двух провадеров, OSPF cо свей сети, ipt_netflow

Сервер: Supermicro SYS-6016T-UF(chipset Intel 5520) + Два X5650

 

Posted (edited)

Вы посчитайте сначала бюджет оборудования для этой десятки. Выйдет в несколько раз дороже транков, тем более 10Г-оборудование сейчас дешевеет довольно быстро, может потом проапгрейдится выйдет дешевле, чем сразу поставить 10Г, и хорошие гигабитные сетевушки легко потом использовать в другом месте. А так то 10 оно перспективнее конечно.

Edited by Valaskor
Posted
Вы посчитайте сначала бюджет оборудования для этой десятки. Выйдет в несколько раз дороже транков, тем более 10Г-оборудование сейчас дешевеет довольно быстро, может потом проапгрейдится выйдет дешевле, чем сразу поставить 10Г, и хорошие гигабитные сетевушки легко потом использовать в другом месте. А так то 10 оно перспективнее конечно.

Посчитал.

Сервер есть и сейчас работает. 10G порт на свиче имеется.

карта Intel 10 Gigabit AT2 E10G42AFDA(82598EB) 24503р плюс SFP+ модуль у нага 10000р.

Итого 35000р в принципе приемлемо.

 

Итересует как более правильно с точки зрения производительности.

 

Posted (edited)

А сервер потянет 10Г трафика?

PCI-E 8 может прокачать 8Г, если я не ошибаюсь.

netflow локально собирать будете или по сети передавать?

 

UPD. Сорри, не заметил, что надо всего 2Г прогнать

Edited by marikoda
Posted (edited)
PCI-E 8 может прокачать 8Г, если я не ошибаюсь.
Ошибаетесь, pci-e 1x может 2.5гбит в дуплексе, соответственно 20гбит/с дуплесных у pci-e 8x заведомо достаточно для 10Ge сетевок, даже двухголовых..

 

update: даже не так. Там pci-e 2.0, а значит цифирь надо еще на 2 умножить. 40гбит на сегодня достаточно всему и всем.

Edited by kayot
Posted

Ошибаетесь, pci-e 1x может 2.5гбит в дуплексе, соответственно 20гбит/с дуплесных у pci-e 8x заведомо достаточно для 10Ge сетевок, даже двухголовых..

2.5 это полудуплекс. /2 (дуплекс) *0.8 (накладные расходы передачи) = 1 Гбит дуплекса

Posted
Ошибаетесь, pci-e 1x может 2.5гбит в дуплексе, соответственно 20гбит/с дуплесных у pci-e 8x заведомо достаточно для 10Ge сетевок, даже двухголовых..
2.5 это полудуплекс. /2 (дуплекс) *0.8 (накладные расходы передачи) = 1 Гбит дуплекса

Почти. Только в дуплексе как раз нужно не делить на 2, а умножать(возможны одновременный прием и передача). Итого 2.5гбит/с в одну сторону, 5гбит в дуплексе. Или 4гбит/с с учетом избыточности, не суть важно :)
Posted (edited)

Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kpps

Edited by jameel
Posted
Посчитал.

Сервер есть и сейчас работает. 10G порт на свиче имеется.

карта Intel 10 Gigabit AT2 E10G42AFDA(82598EB) 24503р плюс SFP+ модуль у нага 10000р.

Итого 35000р в принципе приемлемо.

эта карта только для direct attached (DA) подключения.

SFP+ стандартные там не должны работать.

 

Вам нужна такая http://shop.nag.ru/catalog/item/05123 или myricom

Posted

Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kpps

Обновите прошивку на 4626

Posted
Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kpps
Обновите прошивку на 4626

Дело в том, что на тестовых серверах (без нагрузки в 100kpps) все работало просто отлично - между ними тест скорости показывал 1,85 Г/с и никаких проблем не было.

 

Posted
Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kpps
Обновите прошивку на 4626

Дело в том, что на тестовых серверах (без нагрузки в 100kpps) все работало просто отлично - между ними тест скорости показывал 1,85 Г/с и никаких проблем не было.

Обновите прошивку на 4626
Posted
Кто применяет bonding в Linux,

в mode=4 большую нагрузку создаёт?

использую этот режим на 4-х высоконагруженных серверах, 80% загрузки CPU в пике при 6Гиг/с из 8 возможных (2* 4ports-82576 Intel). По мне так не заметно что бы именно этот режим давал "сверхнагрузку" на систему.
Posted
Кто применяет bonding в Linux,

в mode=4 большую нагрузку создаёт?

использую этот режим на 4-х высоконагруженных серверах, 80% загрузки CPU в пике при 6Гиг/с из 8 возможных (2* 4ports-82576 Intel). По мне так не заметно что бы именно этот режим давал "сверхнагрузку" на систему.

А что за процесоры?
Posted

Не могу не спросить в этой теме, раз уж напомнило. :)

 

Дома стоит файловый сервачок под FreeBSD с ZFS RAID10, соответственно выдаёт на чтении заведомо больше пропускной способности гигабитной сетки (раза эдак в два).

Вопрос следующий - можно удвоить пропускную способность между сервером и рабочей машиной, имея по две гигабитки в каждой и опционально Miktotik между ними?

Я так понимаю, что LACP и его варианты не пройдут по причине неработоспособности алгоритмов распределения, основанных на src/mac MAC или IP адресах, между двумя машинами с бондингом.

Или нет?

Posted

НА

http://www.linuxfoundation.org/collaborate...working/bonding

http://wiki.mikrotik.com/wiki/Manual:Inter...g#Bonding_modes

описаны 2 режима работы: balance-tlb и balance-alb , по-моему это ваш вар-т, правда я лично не пробовал, ну думаю непродолжительный тест выявит наилучший режим.

  • 2 months later...
Posted

Здравствуйте!

Извиняюсь что беспокою вас, моя задача конечно куда скромней чем 10 гигабит на линуксе но всеже,

не могли бы вы поддержать мою тему своим советом. Сам глубоких познаний в linux не имею но передо мной стала задача, поставить на сервер AquaServer T222 линуксовый роутер а именно vyatta и сразу возникли проблемы.

 

Вот ссылка на тему http://forum.nag.ru/forum/index.php?showto...mp;#entry570580

Заранее спасибо!!!

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...
На сайте используются файлы cookie и сервисы аналитики для корректной работы форума и улучшения качества обслуживания. Продолжая использовать сайт, вы соглашаетесь с использованием файлов cookie и с Политикой конфиденциальности.