Перейти к содержимому
Калькуляторы

Linux роутер 2Gbps, карта 10G или link aggregation

Собственно задача поток 2Gbps прогнать через роутер на LINUX.

 

Есть два варианта:

1. Поставить две Ethernet 1Gbps карты во внутрь сети, две наружу и link aggregation cо свичём.

2. Поставить одну карту 10G(естествено mci-x плюс очереди по прерываниям) и разрулить vlan'ами.

 

Что правильнее.

Какую 10G карту посоветуете.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Вариант три - четырехголовую гигабитную карту с бондингом по 2 не рассматриваете?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Вариант три - четырехголовую гигабитную карту с бондингом по 2 не рассматриваете?
Если честно не подумал.

Тогда ещё и третий вариант:

четырехголовую гигабитную карту с бондингом по 2.

Хотя очень хочется заложится на ростбольше 2Gbps (если роутер потянет конечно).

Изменено пользователем nickD

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

я бы 10Гб ставил, и возможность роста есть и проводочков меньше, с другой стороны у первого варианта надёжность повыше

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

У меня вопрос - Вы хотите как именно "прогнать"? Явно же хотите его как-то "обработать", а не банально смаршрутизировать.

 

Огласите что именно собираетесь делать, какой в целом сервер будет. И люди, решающие подобные задачи на серверах скажут потянет или нет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

У меня вопрос - Вы хотите как именно "прогнать"? Явно же хотите его как-то "обработать", а не банально смаршрутизировать.

 

Огласите что именно собираетесь делать, какой в целом сервер будет. И люди, решающие подобные задачи на серверах скажут потянет или нет.

Задачи Маршрутизация: BGP от двух провадеров, OSPF cо свей сети, ipt_netflow

Сервер: Supermicro SYS-6016T-UF(chipset Intel 5520) + Два X5650

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Вы посчитайте сначала бюджет оборудования для этой десятки. Выйдет в несколько раз дороже транков, тем более 10Г-оборудование сейчас дешевеет довольно быстро, может потом проапгрейдится выйдет дешевле, чем сразу поставить 10Г, и хорошие гигабитные сетевушки легко потом использовать в другом месте. А так то 10 оно перспективнее конечно.

Изменено пользователем Valaskor

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Вы посчитайте сначала бюджет оборудования для этой десятки. Выйдет в несколько раз дороже транков, тем более 10Г-оборудование сейчас дешевеет довольно быстро, может потом проапгрейдится выйдет дешевле, чем сразу поставить 10Г, и хорошие гигабитные сетевушки легко потом использовать в другом месте. А так то 10 оно перспективнее конечно.

Посчитал.

Сервер есть и сейчас работает. 10G порт на свиче имеется.

карта Intel 10 Gigabit AT2 E10G42AFDA(82598EB) 24503р плюс SFP+ модуль у нага 10000р.

Итого 35000р в принципе приемлемо.

 

Итересует как более правильно с точки зрения производительности.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А сервер потянет 10Г трафика?

PCI-E 8 может прокачать 8Г, если я не ошибаюсь.

netflow локально собирать будете или по сети передавать?

 

UPD. Сорри, не заметил, что надо всего 2Г прогнать

Изменено пользователем marikoda

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

PCI-E 8 может прокачать 8Г, если я не ошибаюсь.
Ошибаетесь, pci-e 1x может 2.5гбит в дуплексе, соответственно 20гбит/с дуплесных у pci-e 8x заведомо достаточно для 10Ge сетевок, даже двухголовых..

 

update: даже не так. Там pci-e 2.0, а значит цифирь надо еще на 2 умножить. 40гбит на сегодня достаточно всему и всем.

Изменено пользователем kayot

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ну насчет потенет вот это можно посмотреть

http://www.vyatta.com/downloads/whitepaper...olBrief_r04.pdf

 

Netflow льётся на внешний сервак через модуль ipt_netflow.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ошибаетесь, pci-e 1x может 2.5гбит в дуплексе, соответственно 20гбит/с дуплесных у pci-e 8x заведомо достаточно для 10Ge сетевок, даже двухголовых..

2.5 это полудуплекс. /2 (дуплекс) *0.8 (накладные расходы передачи) = 1 Гбит дуплекса

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ошибаетесь, pci-e 1x может 2.5гбит в дуплексе, соответственно 20гбит/с дуплесных у pci-e 8x заведомо достаточно для 10Ge сетевок, даже двухголовых..
2.5 это полудуплекс. /2 (дуплекс) *0.8 (накладные расходы передачи) = 1 Гбит дуплекса

Почти. Только в дуплексе как раз нужно не делить на 2, а умножать(возможны одновременный прием и передача). Итого 2.5гбит/с в одну сторону, 5гбит в дуплексе. Или 4гбит/с с учетом избыточности, не суть важно :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kpps

Изменено пользователем jameel

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Кто применяет bonding в Linux,

в mode=4 большую нагрузку создаёт?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Посчитал.

Сервер есть и сейчас работает. 10G порт на свиче имеется.

карта Intel 10 Gigabit AT2 E10G42AFDA(82598EB) 24503р плюс SFP+ модуль у нага 10000р.

Итого 35000р в принципе приемлемо.

эта карта только для direct attached (DA) подключения.

SFP+ стандартные там не должны работать.

 

Вам нужна такая http://shop.nag.ru/catalog/item/05123 или myricom

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kpps

Обновите прошивку на 4626

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kpps
Обновите прошивку на 4626

Дело в том, что на тестовых серверах (без нагрузки в 100kpps) все работало просто отлично - между ними тест скорости показывал 1,85 Г/с и никаких проблем не было.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kpps
Обновите прошивку на 4626

Дело в том, что на тестовых серверах (без нагрузки в 100kpps) все работало просто отлично - между ними тест скорости показывал 1,85 Г/с и никаких проблем не было.

Обновите прошивку на 4626

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Кто применяет bonding в Linux,

в mode=4 большую нагрузку создаёт?

использую этот режим на 4-х высоконагруженных серверах, 80% загрузки CPU в пике при 6Гиг/с из 8 возможных (2* 4ports-82576 Intel). По мне так не заметно что бы именно этот режим давал "сверхнагрузку" на систему.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Кто применяет bonding в Linux,

в mode=4 большую нагрузку создаёт?

использую этот режим на 4-х высоконагруженных серверах, 80% загрузки CPU в пике при 6Гиг/с из 8 возможных (2* 4ports-82576 Intel). По мне так не заметно что бы именно этот режим давал "сверхнагрузку" на систему.

А что за процесоры?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Не могу не спросить в этой теме, раз уж напомнило. :)

 

Дома стоит файловый сервачок под FreeBSD с ZFS RAID10, соответственно выдаёт на чтении заведомо больше пропускной способности гигабитной сетки (раза эдак в два).

Вопрос следующий - можно удвоить пропускную способность между сервером и рабочей машиной, имея по две гигабитки в каждой и опционально Miktotik между ними?

Я так понимаю, что LACP и его варианты не пройдут по причине неработоспособности алгоритмов распределения, основанных на src/mac MAC или IP адресах, между двумя машинами с бондингом.

Или нет?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

НА

http://www.linuxfoundation.org/collaborate...working/bonding

http://wiki.mikrotik.com/wiki/Manual:Inter...g#Bonding_modes

описаны 2 режима работы: balance-tlb и balance-alb , по-моему это ваш вар-т, правда я лично не пробовал, ну думаю непродолжительный тест выявит наилучший режим.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Здравствуйте!

Извиняюсь что беспокою вас, моя задача конечно куда скромней чем 10 гигабит на линуксе но всеже,

не могли бы вы поддержать мою тему своим советом. Сам глубоких познаний в linux не имею но передо мной стала задача, поставить на сервер AquaServer T222 линуксовый роутер а именно vyatta и сразу возникли проблемы.

 

Вот ссылка на тему http://forum.nag.ru/forum/index.php?showto...mp;#entry570580

Заранее спасибо!!!

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.