nickD Опубликовано 1 октября, 2010 Собственно задача поток 2Gbps прогнать через роутер на LINUX. Есть два варианта: 1. Поставить две Ethernet 1Gbps карты во внутрь сети, две наружу и link aggregation cо свичём. 2. Поставить одну карту 10G(естествено mci-x плюс очереди по прерываниям) и разрулить vlan'ами. Что правильнее. Какую 10G карту посоветуете. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
chrom Опубликовано 1 октября, 2010 Вариант три - четырехголовую гигабитную карту с бондингом по 2 не рассматриваете? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nickD Опубликовано 1 октября, 2010 (изменено) Вариант три - четырехголовую гигабитную карту с бондингом по 2 не рассматриваете?Если честно не подумал.Тогда ещё и третий вариант: четырехголовую гигабитную карту с бондингом по 2. Хотя очень хочется заложится на ростбольше 2Gbps (если роутер потянет конечно). Изменено 1 октября, 2010 пользователем nickD Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
f13 Опубликовано 1 октября, 2010 я бы 10Гб ставил, и возможность роста есть и проводочков меньше, с другой стороны у первого варианта надёжность повыше Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Tosha Опубликовано 1 октября, 2010 У меня вопрос - Вы хотите как именно "прогнать"? Явно же хотите его как-то "обработать", а не банально смаршрутизировать. Огласите что именно собираетесь делать, какой в целом сервер будет. И люди, решающие подобные задачи на серверах скажут потянет или нет. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nickD Опубликовано 1 октября, 2010 У меня вопрос - Вы хотите как именно "прогнать"? Явно же хотите его как-то "обработать", а не банально смаршрутизировать. Огласите что именно собираетесь делать, какой в целом сервер будет. И люди, решающие подобные задачи на серверах скажут потянет или нет. Задачи Маршрутизация: BGP от двух провадеров, OSPF cо свей сети, ipt_netflow Сервер: Supermicro SYS-6016T-UF(chipset Intel 5520) + Два X5650 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Valaskor Опубликовано 1 октября, 2010 (изменено) Вы посчитайте сначала бюджет оборудования для этой десятки. Выйдет в несколько раз дороже транков, тем более 10Г-оборудование сейчас дешевеет довольно быстро, может потом проапгрейдится выйдет дешевле, чем сразу поставить 10Г, и хорошие гигабитные сетевушки легко потом использовать в другом месте. А так то 10 оно перспективнее конечно. Изменено 1 октября, 2010 пользователем Valaskor Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nickD Опубликовано 1 октября, 2010 Вы посчитайте сначала бюджет оборудования для этой десятки. Выйдет в несколько раз дороже транков, тем более 10Г-оборудование сейчас дешевеет довольно быстро, может потом проапгрейдится выйдет дешевле, чем сразу поставить 10Г, и хорошие гигабитные сетевушки легко потом использовать в другом месте. А так то 10 оно перспективнее конечно. Посчитал. Сервер есть и сейчас работает. 10G порт на свиче имеется. карта Intel 10 Gigabit AT2 E10G42AFDA(82598EB) 24503р плюс SFP+ модуль у нага 10000р. Итого 35000р в принципе приемлемо. Итересует как более правильно с точки зрения производительности. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
marikoda Опубликовано 1 октября, 2010 (изменено) А сервер потянет 10Г трафика? PCI-E 8 может прокачать 8Г, если я не ошибаюсь. netflow локально собирать будете или по сети передавать? UPD. Сорри, не заметил, что надо всего 2Г прогнать Изменено 1 октября, 2010 пользователем marikoda Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 1 октября, 2010 (изменено) PCI-E 8 может прокачать 8Г, если я не ошибаюсь.Ошибаетесь, pci-e 1x может 2.5гбит в дуплексе, соответственно 20гбит/с дуплесных у pci-e 8x заведомо достаточно для 10Ge сетевок, даже двухголовых.. update: даже не так. Там pci-e 2.0, а значит цифирь надо еще на 2 умножить. 40гбит на сегодня достаточно всему и всем. Изменено 1 октября, 2010 пользователем kayot Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nickD Опубликовано 1 октября, 2010 Ну насчет потенет вот это можно посмотреть http://www.vyatta.com/downloads/whitepaper...olBrief_r04.pdf Netflow льётся на внешний сервак через модуль ipt_netflow. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Tosha Опубликовано 2 октября, 2010 Ошибаетесь, pci-e 1x может 2.5гбит в дуплексе, соответственно 20гбит/с дуплесных у pci-e 8x заведомо достаточно для 10Ge сетевок, даже двухголовых.. 2.5 это полудуплекс. /2 (дуплекс) *0.8 (накладные расходы передачи) = 1 Гбит дуплекса Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
kayot Опубликовано 2 октября, 2010 Ошибаетесь, pci-e 1x может 2.5гбит в дуплексе, соответственно 20гбит/с дуплесных у pci-e 8x заведомо достаточно для 10Ge сетевок, даже двухголовых..2.5 это полудуплекс. /2 (дуплекс) *0.8 (накладные расходы передачи) = 1 Гбит дуплекса Почти. Только в дуплексе как раз нужно не делить на 2, а умножать(возможны одновременный прием и передача). Итого 2.5гбит/с в одну сторону, 5гбит в дуплексе. Или 4гбит/с с учетом избыточности, не суть важно :) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jameel Опубликовано 3 октября, 2010 (изменено) Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kpps Изменено 3 октября, 2010 пользователем jameel Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nickD Опубликовано 4 октября, 2010 Кто применяет bonding в Linux, в mode=4 большую нагрузку создаёт? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
D^2 Опубликовано 4 октября, 2010 Посчитал.Сервер есть и сейчас работает. 10G порт на свиче имеется. карта Intel 10 Gigabit AT2 E10G42AFDA(82598EB) 24503р плюс SFP+ модуль у нага 10000р. Итого 35000р в принципе приемлемо. эта карта только для direct attached (DA) подключения.SFP+ стандартные там не должны работать. Вам нужна такая http://shop.nag.ru/catalog/item/05123 или myricom Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
stelsik Опубликовано 4 октября, 2010 Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kpps Обновите прошивку на 4626 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jameel Опубликовано 4 октября, 2010 Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kppsОбновите прошивку на 4626 Дело в том, что на тестовых серверах (без нагрузки в 100kpps) все работало просто отлично - между ними тест скорости показывал 1,85 Г/с и никаких проблем не было. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
stelsik Опубликовано 5 октября, 2010 Аналогичный вопрос. В сторону локалки смотрит 2 портовый Intel 82575. Необходимо через него пропустить 2 гига. Пробовали сбивать их в бондинг (options bond0 miimon=100 mode=4 lacp_rate=fast xmit_hash_policy=1) - сразу очень быстро вырастает LA и работать становится невозможно. С другой стороны стоит Edgecore ES4626 с включенным port-group (mode active) на портах в сторону сервера. Кто нибудь может подсказать как в данном случае настроить сервер и свич что бы можно было на сервер 2 Гига прогонять (если это вообще возможно в данном случае)? Сервер Linux, IntelCore 2Duo (E8600) 3.33GHz., трафик из локалки до 1 Г/с, 100kppsОбновите прошивку на 4626 Дело в том, что на тестовых серверах (без нагрузки в 100kpps) все работало просто отлично - между ними тест скорости показывал 1,85 Г/с и никаких проблем не было. Обновите прошивку на 4626 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
allexch Опубликовано 5 октября, 2010 Кто применяет bonding в Linux,в mode=4 большую нагрузку создаёт? использую этот режим на 4-х высоконагруженных серверах, 80% загрузки CPU в пике при 6Гиг/с из 8 возможных (2* 4ports-82576 Intel). По мне так не заметно что бы именно этот режим давал "сверхнагрузку" на систему. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nickD Опубликовано 5 октября, 2010 Кто применяет bonding в Linux,в mode=4 большую нагрузку создаёт? использую этот режим на 4-х высоконагруженных серверах, 80% загрузки CPU в пике при 6Гиг/с из 8 возможных (2* 4ports-82576 Intel). По мне так не заметно что бы именно этот режим давал "сверхнагрузку" на систему. А что за процесоры? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
allexch Опубликовано 6 октября, 2010 2 по 4 core X5550 @ 2.67GHz Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dyr Опубликовано 12 октября, 2010 Не могу не спросить в этой теме, раз уж напомнило. :) Дома стоит файловый сервачок под FreeBSD с ZFS RAID10, соответственно выдаёт на чтении заведомо больше пропускной способности гигабитной сетки (раза эдак в два). Вопрос следующий - можно удвоить пропускную способность между сервером и рабочей машиной, имея по две гигабитки в каждой и опционально Miktotik между ними? Я так понимаю, что LACP и его варианты не пройдут по причине неработоспособности алгоритмов распределения, основанных на src/mac MAC или IP адресах, между двумя машинами с бондингом. Или нет? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
allexch Опубликовано 13 октября, 2010 НА http://www.linuxfoundation.org/collaborate...working/bonding http://wiki.mikrotik.com/wiki/Manual:Inter...g#Bonding_modes описаны 2 режима работы: balance-tlb и balance-alb , по-моему это ваш вар-т, правда я лично не пробовал, ну думаю непродолжительный тест выявит наилучший режим. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
radids Опубликовано 24 декабря, 2010 Здравствуйте! Извиняюсь что беспокою вас, моя задача конечно куда скромней чем 10 гигабит на линуксе но всеже, не могли бы вы поддержать мою тему своим советом. Сам глубоких познаний в linux не имею но передо мной стала задача, поставить на сервер AquaServer T222 линуксовый роутер а именно vyatta и сразу возникли проблемы. Вот ссылка на тему http://forum.nag.ru/forum/index.php?showto...mp;#entry570580 Заранее спасибо!!! Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...