AlKov Опубликовано 4 июня, 2010 (изменено) · Жалоба CentOS 5.5. Двухпортовая PCI-ex сетевая карта на Intel 82576. "Родной" драйвер (при установке ОС). [root@border /]# modinfo igb filename: /lib/modules/2.6.18-194.el5/kernel/drivers/net/igb/igb.ko version: 2.1.0-k2 license: GPL description: Intel(R) Gigabit Ethernet Network Driver author: Intel Corporation, <e1000-devel@lists.sourceforge.net> srcversion: 682974A1B5C764B2AC3D6A5 alias: pci:v00008086d000010D6sv*sd*bc*sc*i* alias: pci:v00008086d000010A9sv*sd*bc*sc*i* alias: pci:v00008086d000010A7sv*sd*bc*sc*i* alias: pci:v00008086d000010E8sv*sd*bc*sc*i* alias: pci:v00008086d0000150Dsv*sd*bc*sc*i* alias: pci:v00008086d000010E7sv*sd*bc*sc*i* alias: pci:v00008086d000010E6sv*sd*bc*sc*i* alias: pci:v00008086d00001518sv*sd*bc*sc*i* alias: pci:v00008086d0000150Asv*sd*bc*sc*i* alias: pci:v00008086d000010C9sv*sd*bc*sc*i* alias: pci:v00008086d00001516sv*sd*bc*sc*i* alias: pci:v00008086d00001511sv*sd*bc*sc*i* alias: pci:v00008086d00001510sv*sd*bc*sc*i* alias: pci:v00008086d0000150Fsv*sd*bc*sc*i* alias: pci:v00008086d0000150Esv*sd*bc*sc*i* depends: dca,8021q vermagic: 2.6.18-194.el5 SMP mod_unload gcc-4.1 parm: max_vfs:Maximum number of virtual functions to allocate per physical function (uint) module_sig: 883f3504bb6455c596239a507de7fd112f6209f5f88b9e2c5f4d457a3f6dc0e096d12085a363109f 6ab44494697046d5e16f15f35b89a79aabc5b20 [root@border /]# cat /proc/interrupts | grep eth2 51: 81 5 49 0 PCI-MSI-X eth2-rx-0 59: 68 0 60 5 PCI-MSI-X eth2-rx-1 67: 44 5 84 0 PCI-MSI-X eth2-rx-2 75: 48 0 81 5 PCI-MSI-X eth2-rx-3 83: 0 0 0 0 PCI-MSI-X eth2 234: 53 3 2 0 PCI-MSI-X eth2-tx-0 Собираю, устанавливаю самый "свежий" драйвер с сайта Intel (2.2.9) [root@border /]# modinfo igb filename: /lib/modules/2.6.18-194.el5/kernel/drivers/net/igb/igb.ko version: 2.2.9 license: GPL description: Intel(R) Gigabit Ethernet Network Driver author: Intel Corporation, <e1000-devel@lists.sourceforge.net> srcversion: D7A604F5946B6EDAA542EA6 alias: pci:v00008086d000010D6sv*sd*bc*sc*i* alias: pci:v00008086d000010A9sv*sd*bc*sc*i* alias: pci:v00008086d000010A7sv*sd*bc*sc*i* alias: pci:v00008086d000010E8sv*sd*bc*sc*i* alias: pci:v00008086d0000150Dsv*sd*bc*sc*i* alias: pci:v00008086d000010E7sv*sd*bc*sc*i* alias: pci:v00008086d000010E6sv*sd*bc*sc*i* alias: pci:v00008086d00001518sv*sd*bc*sc*i* alias: pci:v00008086d0000150Asv*sd*bc*sc*i* alias: pci:v00008086d000010C9sv*sd*bc*sc*i* alias: pci:v00008086d00001516sv*sd*bc*sc*i* alias: pci:v00008086d00001511sv*sd*bc*sc*i* alias: pci:v00008086d00001510sv*sd*bc*sc*i* alias: pci:v00008086d0000150Fsv*sd*bc*sc*i* alias: pci:v00008086d0000150Esv*sd*bc*sc*i* depends: dca,8021q vermagic: 2.6.18-194.el5 SMP mod_unload gcc-4.1 parm: InterruptThrottleRate:Interrupt Throttling Rate (array of int) parm: IntMode:Interrupt Mode (array of int) parm: LLIPort:Low Latency Interrupt TCP Port (array of int) parm: LLIPush:Low Latency Interrupt on TCP Push flag (array of int) parm: LLISize:Low Latency Interrupt on Packet Size (array of int) parm: RSS:RSS - multiqueue receive count (array of int) parm: VMDQ:VMDQ - VMDq multiqueue receive (array of int) parm: max_vfs:max_vfs - SR-IOV VF devices (array of int) parm: QueuePairs:QueuePairs - TX/RX queue pairs for interrupt handling (array of int) parm: debug:Debug level (0=none, ..., 16=all) (int) [root@border /]# cat /proc/interrupts | grep eth2 170: 1 0 0 0 PCI-MSI-X eth2 178: 27 0 99 63 PCI-MSI-X eth2-TxRx-0 Три очереди, как корова языком слизнула... :( Вопрос - нафига козе бОян?? Или я что-то не понимаю? И еще - вот тут товарищ пишет, что на этом чипе поддерживается 8 rx очередей. У меня выше 4-х (на родном драйвере) не показывалось, не смотря на успешное выполнение modprobe igb IntMode=3,3 RSS=8,8 Ну и последний вопрос - что делать? Не выёживаться и оставить родной драйвер, или все же есть варианты? Изменено 4 июня, 2010 пользователем AlKov Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
SokolovS Опубликовано 4 июня, 2010 (изменено) · Жалоба Опции загрузки драйвера одинаковые? Обрати внимание на доп. параметры загрузки которые появляются в случае загрузки интеловского драйвера. Обрати внимание так же на разницу в размере бинарника. Зачем тебе несколько очередей, у тебя VLAN-ы терминируются серваком? Изменено 4 июня, 2010 пользователем SokolovS Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
AlKov Опубликовано 4 июня, 2010 · Жалоба Опции загрузки драйвера одинаковые? Обрати внимание на доп. параметры загрузки которые появляются в случае загрузки интеловского драйвера. Обрати внимание так же на разницу в размере бинарника.Эмм.. А что за опции загрузки? Вот эти? parm: InterruptThrottleRate:Interrupt Throttling Rate (array of int) parm: IntMode:Interrupt Mode (array of int) ..etc.. Где они задаются и конкретно на какие необходимо обратить внимание? И причем здесь разница в размере бинарника?? Зачем тебе несколько очередей, у тебя VLAN-ы терминируются серваком?Да, именно так. Это роутер почти "всея сети". :) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Zaqwr Опубликовано 4 июня, 2010 (изменено) · Жалоба изначально тоже странно cat /proc/interrupts | grep eth1|awk -F " " {'print $6 " " $7'} PCI-MSI-edge eth1-tx-0 PCI-MSI-edge eth1-tx-1 PCI-MSI-edge eth1-tx-2 PCI-MSI-edge eth1-tx-3 PCI-MSI-edge eth1-rx-0 PCI-MSI-edge eth1-rx-1 PCI-MSI-edge eth1-rx-2 PCI-MSI-edge eth1-rx-3 PCI-MSI-edge eth1 ещё есть сетевые карты ? отключить пробовали? может у вас на другой eth повисла ? grep -i igb /var/log/dmesg ??? Изменено 4 июня, 2010 пользователем Zaqwr Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
AlKov Опубликовано 4 июня, 2010 (изменено) · Жалоба изначально тоже странноcat /proc/interrupts | grep eth1|awk -F " " {'print $6 " " $7'} PCI-MSI-edge eth1-tx-0 PCI-MSI-edge eth1-tx-1 PCI-MSI-edge eth1-tx-2 PCI-MSI-edge eth1-tx-3 PCI-MSI-edge eth1-rx-0 PCI-MSI-edge eth1-rx-1 PCI-MSI-edge eth1-rx-2 PCI-MSI-edge eth1-rx-3 PCI-MSI-edge eth1 ещё есть сетевые карты ? отключить пробовали? может у вас на другой eth повисла ? grep -i igb /var/log/dmesg ??? А что именно странного? Вот с родным драйвером[root@border /]# cat /proc/interrupts | grep eth2|awk -F " " {'print $6 " " $7'} PCI-MSI-X eth2-rx-0 PCI-MSI-X eth2-rx-1 PCI-MSI-X eth2-rx-2 PCI-MSI-X eth2-rx-3 PCI-MSI-X eth2 PCI-MSI-X eth2-tx-0 [root@border /]# grep -i igb /var/log/dmesg igb 0000:01:00.0: Disabling ASPM L0s upstream switch port 0000:00:01.0 igb 0000:01:00.0: Intel(R) Gigabit Ethernet Network Connection igb 0000:01:00.0: eth0: (PCIe:2.5Gb/s:Width x4) 00:XX:XX:XX:XX:XX igb 0000:01:00.0: eth0: PBA No: 1030ff-0ff igb 0000:01:00.0: Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s) igb 0000:01:00.1: Disabling ASPM L0s upstream switch port 0000:00:01.0 igb 0000:01:00.1: Intel(R) Gigabit Ethernet Network Connection igb 0000:01:00.1: eth1: (PCIe:2.5Gb/s:Width x4) 00:XX:XX:XX:XX:XX igb 0000:01:00.1: eth1: PBA No: 1030ff-0ff igb 0000:01:00.1: Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s) igb 0000:02:00.0: Intel(R) Gigabit Ethernet Network Connection igb 0000:02:00.0: eth2: (PCIe:2.5Gb/s:Width x4) 00:XX:XX:XX:XX:XX igb 0000:02:00.0: eth2: PBA No: e43709-004 igb 0000:02:00.0: Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s) igb 0000:02:00.1: Intel(R) Gigabit Ethernet Network Connection igb 0000:02:00.1: eth3: (PCIe:2.5Gb/s:Width x4) 00:XX:XX:XX:XX:XX igb 0000:02:00.1: eth3: PBA No: e43709-004 igb 0000:02:00.1: Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s) Сетевых всего 4 - две "на борту" (82575) и одна (двухпортовая 82576) на PCI-EX eth1 и eth3 отключены. Изменено 4 июня, 2010 пользователем AlKov Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Zaqwr Опубликовано 5 июня, 2010 (изменено) · Жалоба PCI-MSI-X eth2-rx-0PCI-MSI-X eth2-rx-1 PCI-MSI-X eth2-rx-2 PCI-MSI-X eth2-rx-3 PCI-MSI-X eth2 PCI-MSI-X eth2-tx-0 странно вот что, где ещё 3 tx-* и вот Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s) , а по идее должно быть Using MSI-X interrupts. 4 rx queue(s), 4 tx queue(s)попробуйте бортовые в биосе отключить... Изменено 5 июня, 2010 пользователем Zaqwr Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
AlKov Опубликовано 5 июня, 2010 · Жалоба странно вот что, где ещё 3 tx-* и вот Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s) , а по идее должно быть Using MSI-X interrupts. 4 rx queue(s), 4 tx queue(s) А откуда такие данные? В смысле, что должно быть именно так (выделено)...попробуйте бортовые в биосе отключить...Гм.. А на кОй, извините, дъявол, я её (двухголовую PCI-EX + к имеющимся 2-м "набортным") тогда приобретал дополнительно?? Мне надо ИМЕННО 4 шт. сетевых, которые будут разруливать тО, чтО мне надо! Собственно отсюда и возник этот пост, смысл которого, НАДО, или НЕ НАДО устанавливать дополнительные драйвера (в альтернативу тем, что встали с ОС) ?? Или это уже "предел возможного" и не стОит "рвать жилы" для достижения чего-либо более "сверхестественного"?? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Zaqwr Опубликовано 5 июня, 2010 · Жалоба А откуда такие данные? В смысле, что должно быть именно так (выделено)...ну собственно именно для этого эти карты и используют.. на нескольких серверах они именно так и распараллеливают потоки... http://download.intel.com/design/network/d...6_Datasheet.pdf 1.6.5 Rx and Tx Queues The number of Tx and Rx queues in the 82576 was increased to 16 queues. пролистайте ещё вот что... http://forum.nag.ru/forum/lofiversion/inde...t46335-100.html Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
AlKov Опубликовано 6 июня, 2010 · Жалоба Установил драйвер из elrepo (2.1.9), разницы практически никакой. 8-ми rx/tx очередей удалось добиться установкой options igb IntMode=2,2,2,2 VMDQ=4,4,8,8 в modprobe.conf. Кстати, если совместно с VMDQ использовать RSS=4,4,8,8 драйвер ругается на инвалид RSS. Если без VMDQ (только RSS), то требуемое кол-во очередей встаёт только на rx.. Вот так получилось с options igb IntMode=2,2,2,2 VMDQ=4,4,8,8 в modprobe.conf [root@border /]# cat /proc/interrupts | grep eth2|awk -F " " {'print $6 " " $7'} PCI-MSI-X eth2-TxRx-2 PCI-MSI-X eth2-TxRx-3 PCI-MSI-X eth2-TxRx-4 PCI-MSI-X eth2-TxRx-5 PCI-MSI-X eth2-TxRx-6 PCI-MSI-X eth2-TxRx-7 PCI-MSI-X eth2 PCI-MSI-X eth2-TxRx-0 PCI-MSI-X eth2-TxRx-1 [root@border /]# grep -i igb /var/log/dmesg igb: 0000:01:00.0: igb_validate_option: Interrupt Mode set to 2 igb: 0000:01:00.0: igb_validate_option: VMDQ - VMDq multiqueue receive count set to 4 igb 0000:01:00.0: Intel(R) Gigabit Ethernet Network Connection igb 0000:01:00.0: eth0: (PCIe:2.5Gb/s:Width x4)00:XX:XX:XX:XX:XX igb 0000:01:00.0: Using MSI-X interrupts. 4 rx queue(s), 4 tx queue(s) igb: 0000:01:00.1: igb_validate_option: Interrupt Mode set to 2 igb: 0000:01:00.1: igb_validate_option: VMDQ - VMDq multiqueue receive count set to 4 igb 0000:01:00.1: Intel(R) Gigabit Ethernet Network Connection igb 0000:01:00.1: eth1: (PCIe:2.5Gb/s:Width x4)00:XX:XX:XX:XX:XX igb 0000:01:00.1: Using MSI-X interrupts. 4 rx queue(s), 4 tx queue(s) igb: 0000:02:00.0: igb_validate_option: Interrupt Mode set to 2 igb: 0000:02:00.0: igb_validate_option: VMDQ - VMDq multiqueue receive count set to 8 igb 0000:02:00.0: Intel(R) Gigabit Ethernet Network Connection igb 0000:02:00.0: eth2: (PCIe:2.5Gb/s:Width x4)00:XX:XX:XX:XX:XX igb 0000:02:00.0: Using MSI-X interrupts. 8 rx queue(s), 8 tx queue(s) igb: 0000:02:00.1: igb_validate_option: Interrupt Mode set to 2 igb: 0000:02:00.1: igb_validate_option: VMDQ - VMDq multiqueue receive count set to 8 igb 0000:02:00.1: Intel(R) Gigabit Ethernet Network Connection igb 0000:02:00.1: eth3: (PCIe:2.5Gb/s:Width x4)00:XX:XX:XX:XX:XX igb 0000:02:00.1: Using MSI-X interrupts. 8 rx queue(s), 8 tx queue(s) Пока не могу понять, что предпочтительнее - VMDQ, или RSS.. Кстати, настройки из ком. строки ничего не меняют, modprobe их просто проглатывает (даже не ругаясь на заведомо ошибочные) и все.. Результат = "0".. Работает только из modprobe.conf после перезагрузки.. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Zaqwr Опубликовано 6 июня, 2010 · Жалоба AlKov а со всеми остальными сетевухами что творится, и кстати на борту что за сетевая? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
drv_sevstar Опубликовано 7 июня, 2010 · Жалоба # cat /etc/initramfs-tools/modules igb IntMode=3,3,3,3 RSS=4,4,4,4 QueuePairs=0,0,0,0 #update-initramfs -u #reboot в дебиане по крайней мере Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
StSphinx Опубликовано 7 июня, 2010 · Жалоба # cat /etc/initramfs-tools/modules igb IntMode=3,3,3,3 RSS=4,4,4,4 QueuePairs=0,0,0,0 #update-initramfs -u #reboot в дебиане по крайней мере А позвольте узнать, что за режим такой - 3? Вот из README последнего igb: IntMode------- Valid Range: 0-2 Default Value: 2 0 - Legacy Interrupts, single queue 1 - MSI interrupts, single queue 2 - MSI-X interrupts, single queue (default) Allows changing interrupt mode and MQ status at load time, without requiring a recompile. If the driver fails to enable a specific interrupt mode, it will fail back to lesser capabilities. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
AlKov Опубликовано 7 июня, 2010 · Жалоба AlKov а со всеми остальными сетевухами что творится, Так видно же из dmesg. Все, как доктор прописал.и кстати на борту что за сетевая?Дык тут(последняя строка). Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Jugernault Опубликовано 7 июня, 2010 · Жалоба Да, именно так. Это роутер почти "всея сети". :)Именно роутер? - Т.е. не pppoe-nas? Какой проц? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
AlKov Опубликовано 7 июня, 2010 · Жалоба Да, именно так. Это роутер почти "всея сети". :)Именно роутер? - Т.е. не pppoe-nas? Какой проц? Именно роутер + фаервол + NAT. NAS-ы (2шт. PPTP) живут на FreeBSD машинах (mpd5+ng_car). Основная задача обсуждаемого железа (%90) - разрулить все это (пользовательские туннели) в Интернет. Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного. Проц(ы) - Два двухядерных Intel Xenon E5503. Все будет крутиться на CentOS 5.5 2.6.18-194.el5 #1 SMP Fri Apr 2 14:58:14 EDT 2010 x86_64 x86_64 x86_64 GNU/Linux. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
andriko Опубликовано 8 июня, 2010 · Жалоба Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного.Проц(ы) - Два двухядерных Intel Xenon E5503. в таком случае "тюнинг" явно лишний..... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
AlKov Опубликовано 8 июня, 2010 · Жалоба Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного.Проц(ы) - Два двухядерных Intel Xenon E5503. в таком случае "тюнинг" явно лишний..... А NAT? Ему придется тянуть от 600 до 1000 (и более в перспективе) IP. Ну и 200Мбит это тоже далеко "не насовсем", имеет шанс вырасти раза в два за год.Или тогда и тюнить? Просто хочется заранее соломку подстелить, ну хотя бы на год вперед. :) И собственно по теме - каким образом (RSS, или VMDQ) все же распределять очереди на сетевых и какой драйвер предпочтительнее? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Jugernault Опубликовано 8 июня, 2010 · Жалоба Именно роутер + фаервол + NAT. NAS-ы (2шт. PPTP) живут на FreeBSD машинах (mpd5+ng_car). Основная задача обсуждаемого железа (%90) - разрулить все это (пользовательские туннели) в Интернет. Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного. Проц(ы) - Два двухядерных Intel Xenon E5503. Все будет крутиться на CentOS 5.5 2.6.18-194.el5 #1 SMP Fri Apr 2 14:58:14 EDT 2010 x86_64 x86_64 x86_64 GNU/Linux. У вас 4 ядра и 4 сетевых карты - нет смысла разводить очереди по ядрам, потому как ядер мало. Прибейте по одной сетевой карте (т.е. одной очереди) к одному ядру.С подобной нагрузкой подобный сервер справится легко, даже с учетом роста. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
AlKov Опубликовано 8 июня, 2010 · Жалоба У вас 4 ядра и 4 сетевых карты - нет смысла разводить очереди по ядрам, потому как ядер мало.Вообще-то в "железе" я не очень.. Поэтому попрошу уточнить, сколько же всего ядер у двух E5503?Вопрос собственно по причине того, что на другом форуме, где я обсуждаю весь сервер, была получена такая информация Таким образом при восьми ядрах (помним, что в реале E5503 это два ядра с HT)Кому верим? ;) P.S. И все же хотелось увидеть ответ по теме - насчет драйверов и конфигурации сетевых.. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
andriko Опубликовано 8 июня, 2010 · Жалоба Цитата(andriko @ 8.6.2010, 12:38) *Цитата(AlKov @ 7.6.2010, 20:48) * Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного. Проц(ы) - Два двухядерных Intel Xenon E5503. в таком случае "тюнинг" явно лишний..... А NAT? Ему придется тянуть от 600 до 1000 (и более в перспективе) IP. Ну и 200Мбит это тоже далеко "не насовсем", имеет шанс вырасти раза в два за год. Или тогда и тюнить? Просто хочется заранее соломку подстелить, ну хотя бы на год вперед. :) угу а к тому времени драйвера и софт еще 10 раз перепишут Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Jugernault Опубликовано 8 июня, 2010 · Жалоба У вас 4 ядра и 4 сетевых карты - нет смысла разводить очереди по ядрам, потому как ядер мало.Вообще-то в "железе" я не очень.. Поэтому попрошу уточнить, сколько же всего ядер у двух E5503?Вопрос собственно по причине того, что на другом форуме, где я обсуждаю весь сервер, была получена такая информация Таким образом при восьми ядрах (помним, что в реале E5503 это два ядра с HT)Кому верим? ;)Наверное все же Интелу. Т.е. 2 ядра на процессор, гипертрейдинга нет - в итоге 4 ядра на систему.P.S. И все же хотелось увидеть ответ по теме - насчет драйверов и конфигурации сетевых..Вам чисто теоретически что ли? Ну тогда ставьте два E5520 (16 со включенным гепертрейдингом) + ванильное ядро (выше 2.6.27 - в нем MultiQueueTX реализовано было) + последние интеловские дрова (RSS - 4 совмещенные очереди на один интерфейс) - и будет Вам счастье. Такой аппарат 2Г в дуплексе прожует и не подавится... А возможно и больше. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
AlKov Опубликовано 8 июня, 2010 · Жалоба Вопрос собственно по причине того, что на другом форуме, где я обсуждаю весь сервер, была получена такая информация Таким образом при восьми ядрах (помним, что в реале E5503 это два ядра с HT)Кому верим? ;)Наверное все же Интелу. Т.е. 2 ядра на процессор, гипертрейдинга нет - в итоге 4 ядра на систему. Вот и верь после этого людям! :) P.S. И все же хотелось увидеть ответ по теме - насчет драйверов и конфигурации сетевых..Вам чисто теоретически что ли? Ну тогда ставьте два E5520 (16 со включенным гепертрейдингом) + ванильное ядро (выше 2.6.27 - в нем MultiQueueTX реализовано было) + последние интеловские дрова (RSS - 4 совмещенные очереди на один интерфейс) - и будет Вам счастье. Такой аппарат 2Г в дуплексе прожует и не подавится... А возможно и больше. Да какая теория!! Машине через две недели "на работу", а я в "дровах" никак не разберусь..Jugernault, ну вот что бы Вы посоветовали в данном случае? Оставить "родной" драйвер без всяких RSS и VMDQ, или все же покрутить текущий установленный? Если второе, то чтО конкретно? Кстати, немного уточню - две "набортные" сетевые (82575) будут практически отдыхать, основная нагрузка ляжет именно на 82576-е. В этом контексте что-то меняется? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
cfiffc Опубликовано 8 июня, 2010 · Жалоба А позвольте узнать, что за режим такой - 3?Вот из README последнего igb: September 15, 2009 igb-2.1.1.tar.gz README IntMode ------- Valid Range: 0-2 Default Value: 2 0 - Legacy Interrupts, single queue 1 - MSI interrupts, single queue 2 - MSI-X interrupts, single queue (default) 3 - MSI-X interrupts, multiple queues igb.h /* Interrupt modes, as used by the IntMode paramter */ #define IGB_INT_MODE_LEGACY 0 #define IGB_INT_MODE_MSI 1 #define IGB_INT_MODE_MSIX 2 igb_param.c #define MAX_INTMODE IGB_INT_MODE_MSIX #define MIN_INTMODE IGB_INT_MODE_LEGACY хотя в README есть описание(3 - MSI-X interrupts, multiple queues), валидация параметра не должна пройти Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Jugernault Опубликовано 8 июня, 2010 · Жалоба Начну с конца... Кстати, немного уточню - две "набортные" сетевые (82575) будут практически отдыхать, основная нагрузка ляжет именно на 82576-е. В этом контексте что-то меняется?Но Вы же вроде бы говорили что необходимо именно четыре гигабитных интерфейса? А теперь получается что два будут курить? Конечно меняется... В таком случае вы можете сплясать вот так - options igb IntMode=2,2,2,2 RSS=2,2,2,2 QueuePairs=1,1 И положить на каждый поцессор (два ядра) по две очереди с двух интерфейсов - сильно + слабо загруженного и сильно + слабо загруженного. Да какая теория!! Машине через две недели "на работу", а я в "дровах" никак не разберусь..Jugernault, ну вот что бы Вы посоветовали в данном случае? Оставить "родной" драйвер без всяких RSS и VMDQ, или все же покрутить текущий установленный? Если второе, то чтО конкретно? Собрать ванильное ядро 2.6.31, взять последнюю версию ibg с соурсфоржа, сконструировать как написано выше.VMDQ несколько не из той оперы. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Zaqwr Опубликовано 8 июня, 2010 (изменено) · Жалоба Собрать ванильное ядро 2.6.31, взять последнюю версию ibg с соурсфоржа, сконструировать как написано выше.Centos нормально переварит 31 ядро?AlKov может чтонить отличное от Centos ? Изменено 8 июня, 2010 пользователем Zaqwr Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...