nickD Posted October 1, 2010 Posted October 1, 2010 Собственно задача поток 2Gbps прогнать через роутер на LINUX. Есть два варианта: 1. Поставить две Ethernet 1Gbps карты во внутрь сети, две наружу и link aggregation cо свичём. 2. Поставить одну карту 10G(естествено mci-x плюс очереди по прерываниям) и разрулить vlan'ами. Что правильнее. Какую 10G карту посоветуете. Вставить ник Quote
chrom Posted October 1, 2010 Posted October 1, 2010 Вариант три - четырехголовую гигабитную карту с бондингом по 2 не рассматриваете? Вставить ник Quote
nickD Posted October 1, 2010 Author Posted October 1, 2010 (edited) Вариант три - четырехголовую гигабитную карту с бондингом по 2 не рассматриваете?Если честно не подумал.Тогда ещё и третий вариант: четырехголовую гигабитную карту с бондингом по 2. Хотя очень хочется заложится на ростбольше 2Gbps (если роутер потянет конечно). Edited October 1, 2010 by nickD Вставить ник Quote
f13 Posted October 1, 2010 Posted October 1, 2010 я бы 10Гб ставил, и возможность роста есть и проводочков меньше, с другой стороны у первого варианта надёжность повыше Вставить ник Quote
Tosha Posted October 1, 2010 Posted October 1, 2010 У меня вопрос - Вы хотите как именно "прогнать"? Явно же хотите его как-то "обработать", а не банально смаршрутизировать. Огласите что именно собираетесь делать, какой в целом сервер будет. И люди, решающие подобные задачи на серверах скажут потянет или нет. Вставить ник Quote
nickD Posted October 1, 2010 Author Posted October 1, 2010 У меня вопрос - Вы хотите как именно "прогнать"? Явно же хотите его как-то "обработать", а не банально смаршрутизировать. Огласите что именно собираетесь делать, какой в целом сервер будет. И люди, решающие подобные задачи на серверах скажут потянет или нет. Задачи Маршрутизация: BGP от двух провадеров, OSPF cо свей сети, ipt_netflow Сервер: Supermicro SYS-6016T-UF(chipset Intel 5520) + Два X5650 Вставить ник Quote
Valaskor Posted October 1, 2010 Posted October 1, 2010 (edited) Вы посчитайте сначала бюджет оборудования для этой десятки. Выйдет в несколько раз дороже транков, тем более 10Г-оборудование сейчас дешевеет довольно быстро, может потом проапгрейдится выйдет дешевле, чем сразу поставить 10Г, и хорошие гигабитные сетевушки легко потом использовать в другом месте. А так то 10 оно перспективнее конечно. Edited October 1, 2010 by Valaskor Вставить ник Quote
nickD Posted October 1, 2010 Author Posted October 1, 2010 Вы посчитайте сначала бюджет оборудования для этой десятки. Выйдет в несколько раз дороже транков, тем более 10Г-оборудование сейчас дешевеет довольно быстро, может потом проапгрейдится выйдет дешевле, чем сразу поставить 10Г, и хорошие гигабитные сетевушки легко потом использовать в другом месте. А так то 10 оно перспективнее конечно. Посчитал. Сервер есть и сейчас работает. 10G порт на свиче имеется. карта Intel 10 Gigabit AT2 E10G42AFDA(82598EB) 24503р плюс SFP+ модуль у нага 10000р. Итого 35000р в принципе приемлемо. Итересует как более правильно с точки зрения производительности. Вставить ник Quote
marikoda Posted October 1, 2010 Posted October 1, 2010 (edited) А сервер потянет 10Г трафика? PCI-E 8 может прокачать 8Г, если я не ошибаюсь. netflow локально собирать будете или по сети передавать? UPD. Сорри, не заметил, что надо всего 2Г прогнать Edited October 1, 2010 by marikoda Вставить ник Quote
kayot Posted October 1, 2010 Posted October 1, 2010 (edited) PCI-E 8 может прокачать 8Г, если я не ошибаюсь.Ошибаетесь, pci-e 1x может 2.5гбит в дуплексе, соответственно 20гбит/с дуплесных у pci-e 8x заведомо достаточно для 10Ge сетевок, даже двухголовых.. update: даже не так. Там pci-e 2.0, а значит цифирь надо еще на 2 умножить. 40гбит на сегодня достаточно всему и всем. Edited October 1, 2010 by kayot Вставить ник Quote
nickD Posted October 1, 2010 Author Posted October 1, 2010 Ну насчет потенет вот это можно посмотреть http://www.vyatta.com/downloads/whitepaper...olBrief_r04.pdf Netflow льётся на внешний сервак через модуль ipt_netflow. Вставить ник Quote
Tosha Posted October 2, 2010 Posted October 2, 2010 Ошибаетесь, pci-e 1x может 2.5гбит в дуплексе, соответственно 20гбит/с дуплесных у pci-e 8x заведомо достаточно для 10Ge сетевок, даже двухголовых.. 2.5 это полудуплекс. /2 (дуплекс) *0.8 (накладные расходы передачи) = 1 Гбит дуплекса Вставить ник Quote
kayot Posted October 2, 2010 Posted October 2, 2010 Ошибаетесь, pci-e 1x может 2.5гбит в дуплексе, соответственно 20гбит/с дуплесных у pci-e 8x заведомо достаточно для 10Ge сетевок, даже двухголовых..2.5 это полудуплекс. /2 (дуплекс) *0.8 (накладные расходы передачи) = 1 Гбит дуплекса Почти. Только в дуплексе как раз нужно не делить на 2, а умножать(возможны одновременный прием и передача). Итого 2.5гбит/с в одну сторону, 5гбит в дуплексе. Или 4гбит/с с учетом избыточности, не суть важно :) Вставить ник Quote
jameel Posted October 3, 2010 Posted October 3, 2010 (edited) Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kpps Edited October 3, 2010 by jameel Вставить ник Quote
nickD Posted October 4, 2010 Author Posted October 4, 2010 Кто применяет bonding в Linux, в mode=4 большую нагрузку создаёт? Вставить ник Quote
D^2 Posted October 4, 2010 Posted October 4, 2010 Посчитал.Сервер есть и сейчас работает. 10G порт на свиче имеется. карта Intel 10 Gigabit AT2 E10G42AFDA(82598EB) 24503р плюс SFP+ модуль у нага 10000р. Итого 35000р в принципе приемлемо. эта карта только для direct attached (DA) подключения.SFP+ стандартные там не должны работать. Вам нужна такая http://shop.nag.ru/catalog/item/05123 или myricom Вставить ник Quote
stelsik Posted October 4, 2010 Posted October 4, 2010 Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kpps Обновите прошивку на 4626 Вставить ник Quote
jameel Posted October 4, 2010 Posted October 4, 2010 Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kppsОбновите прошивку на 4626 Дело в том, что на тестовых серверах (без нагрузки в 100kpps) все работало просто отлично - между ними тест скорости показывал 1,85 Г/с и никаких проблем не было. Вставить ник Quote
stelsik Posted October 5, 2010 Posted October 5, 2010 Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kppsОбновите прошивку на 4626 Дело в том, что на тестовых серверах (без нагрузки в 100kpps) все работало просто отлично - между ними тест скорости показывал 1,85 Г/с и никаких проблем не было. Обновите прошивку на 4626 Вставить ник Quote
allexch Posted October 5, 2010 Posted October 5, 2010 Кто применяет bonding в Linux,в mode=4 большую нагрузку создаёт? использую этот режим на 4-х высоконагруженных серверах, 80% загрузки CPU в пике при 6Гиг/с из 8 возможных (2* 4ports-82576 Intel). По мне так не заметно что бы именно этот режим давал "сверхнагрузку" на систему. Вставить ник Quote
nickD Posted October 5, 2010 Author Posted October 5, 2010 Кто применяет bonding в Linux,в mode=4 большую нагрузку создаёт? использую этот режим на 4-х высоконагруженных серверах, 80% загрузки CPU в пике при 6Гиг/с из 8 возможных (2* 4ports-82576 Intel). По мне так не заметно что бы именно этот режим давал "сверхнагрузку" на систему. А что за процесоры? Вставить ник Quote
Dyr Posted October 12, 2010 Posted October 12, 2010 Не могу не спросить в этой теме, раз уж напомнило. :) Дома стоит файловый сервачок под FreeBSD с ZFS RAID10, соответственно выдаёт на чтении заведомо больше пропускной способности гигабитной сетки (раза эдак в два). Вопрос следующий - можно удвоить пропускную способность между сервером и рабочей машиной, имея по две гигабитки в каждой и опционально Miktotik между ними? Я так понимаю, что LACP и его варианты не пройдут по причине неработоспособности алгоритмов распределения, основанных на src/mac MAC или IP адресах, между двумя машинами с бондингом. Или нет? Вставить ник Quote
allexch Posted October 13, 2010 Posted October 13, 2010 НА http://www.linuxfoundation.org/collaborate...working/bonding http://wiki.mikrotik.com/wiki/Manual:Inter...g#Bonding_modes описаны 2 режима работы: balance-tlb и balance-alb , по-моему это ваш вар-т, правда я лично не пробовал, ну думаю непродолжительный тест выявит наилучший режим. Вставить ник Quote
radids Posted December 24, 2010 Posted December 24, 2010 Здравствуйте! Извиняюсь что беспокою вас, моя задача конечно куда скромней чем 10 гигабит на линуксе но всеже, не могли бы вы поддержать мою тему своим советом. Сам глубоких познаний в linux не имею но передо мной стала задача, поставить на сервер AquaServer T222 линуксовый роутер а именно vyatta и сразу возникли проблемы. Вот ссылка на тему http://forum.nag.ru/forum/index.php?showto...mp;#entry570580 Заранее спасибо!!! Вставить ник Quote
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.