AlKov Posted June 4, 2010 Posted June 4, 2010 (edited) CentOS 5.5. Двухпортовая PCI-ex сетевая карта на Intel 82576. "Родной" драйвер (при установке ОС). [root@border /]# modinfo igb filename: /lib/modules/2.6.18-194.el5/kernel/drivers/net/igb/igb.ko version: 2.1.0-k2 license: GPL description: Intel(R) Gigabit Ethernet Network Driver author: Intel Corporation, <e1000-devel@lists.sourceforge.net> srcversion: 682974A1B5C764B2AC3D6A5 alias: pci:v00008086d000010D6sv*sd*bc*sc*i* alias: pci:v00008086d000010A9sv*sd*bc*sc*i* alias: pci:v00008086d000010A7sv*sd*bc*sc*i* alias: pci:v00008086d000010E8sv*sd*bc*sc*i* alias: pci:v00008086d0000150Dsv*sd*bc*sc*i* alias: pci:v00008086d000010E7sv*sd*bc*sc*i* alias: pci:v00008086d000010E6sv*sd*bc*sc*i* alias: pci:v00008086d00001518sv*sd*bc*sc*i* alias: pci:v00008086d0000150Asv*sd*bc*sc*i* alias: pci:v00008086d000010C9sv*sd*bc*sc*i* alias: pci:v00008086d00001516sv*sd*bc*sc*i* alias: pci:v00008086d00001511sv*sd*bc*sc*i* alias: pci:v00008086d00001510sv*sd*bc*sc*i* alias: pci:v00008086d0000150Fsv*sd*bc*sc*i* alias: pci:v00008086d0000150Esv*sd*bc*sc*i* depends: dca,8021q vermagic: 2.6.18-194.el5 SMP mod_unload gcc-4.1 parm: max_vfs:Maximum number of virtual functions to allocate per physical function (uint) module_sig: 883f3504bb6455c596239a507de7fd112f6209f5f88b9e2c5f4d457a3f6dc0e096d12085a363109f 6ab44494697046d5e16f15f35b89a79aabc5b20 [root@border /]# cat /proc/interrupts | grep eth2 51: 81 5 49 0 PCI-MSI-X eth2-rx-0 59: 68 0 60 5 PCI-MSI-X eth2-rx-1 67: 44 5 84 0 PCI-MSI-X eth2-rx-2 75: 48 0 81 5 PCI-MSI-X eth2-rx-3 83: 0 0 0 0 PCI-MSI-X eth2 234: 53 3 2 0 PCI-MSI-X eth2-tx-0 Собираю, устанавливаю самый "свежий" драйвер с сайта Intel (2.2.9) [root@border /]# modinfo igb filename: /lib/modules/2.6.18-194.el5/kernel/drivers/net/igb/igb.ko version: 2.2.9 license: GPL description: Intel(R) Gigabit Ethernet Network Driver author: Intel Corporation, <e1000-devel@lists.sourceforge.net> srcversion: D7A604F5946B6EDAA542EA6 alias: pci:v00008086d000010D6sv*sd*bc*sc*i* alias: pci:v00008086d000010A9sv*sd*bc*sc*i* alias: pci:v00008086d000010A7sv*sd*bc*sc*i* alias: pci:v00008086d000010E8sv*sd*bc*sc*i* alias: pci:v00008086d0000150Dsv*sd*bc*sc*i* alias: pci:v00008086d000010E7sv*sd*bc*sc*i* alias: pci:v00008086d000010E6sv*sd*bc*sc*i* alias: pci:v00008086d00001518sv*sd*bc*sc*i* alias: pci:v00008086d0000150Asv*sd*bc*sc*i* alias: pci:v00008086d000010C9sv*sd*bc*sc*i* alias: pci:v00008086d00001516sv*sd*bc*sc*i* alias: pci:v00008086d00001511sv*sd*bc*sc*i* alias: pci:v00008086d00001510sv*sd*bc*sc*i* alias: pci:v00008086d0000150Fsv*sd*bc*sc*i* alias: pci:v00008086d0000150Esv*sd*bc*sc*i* depends: dca,8021q vermagic: 2.6.18-194.el5 SMP mod_unload gcc-4.1 parm: InterruptThrottleRate:Interrupt Throttling Rate (array of int) parm: IntMode:Interrupt Mode (array of int) parm: LLIPort:Low Latency Interrupt TCP Port (array of int) parm: LLIPush:Low Latency Interrupt on TCP Push flag (array of int) parm: LLISize:Low Latency Interrupt on Packet Size (array of int) parm: RSS:RSS - multiqueue receive count (array of int) parm: VMDQ:VMDQ - VMDq multiqueue receive (array of int) parm: max_vfs:max_vfs - SR-IOV VF devices (array of int) parm: QueuePairs:QueuePairs - TX/RX queue pairs for interrupt handling (array of int) parm: debug:Debug level (0=none, ..., 16=all) (int) [root@border /]# cat /proc/interrupts | grep eth2 170: 1 0 0 0 PCI-MSI-X eth2 178: 27 0 99 63 PCI-MSI-X eth2-TxRx-0 Три очереди, как корова языком слизнула... :( Вопрос - нафига козе бОян?? Или я что-то не понимаю? И еще - вот тут товарищ пишет, что на этом чипе поддерживается 8 rx очередей. У меня выше 4-х (на родном драйвере) не показывалось, не смотря на успешное выполнение modprobe igb IntMode=3,3 RSS=8,8 Ну и последний вопрос - что делать? Не выёживаться и оставить родной драйвер, или все же есть варианты? Edited June 4, 2010 by AlKov Вставить ник Quote
SokolovS Posted June 4, 2010 Posted June 4, 2010 (edited) Опции загрузки драйвера одинаковые? Обрати внимание на доп. параметры загрузки которые появляются в случае загрузки интеловского драйвера. Обрати внимание так же на разницу в размере бинарника. Зачем тебе несколько очередей, у тебя VLAN-ы терминируются серваком? Edited June 4, 2010 by SokolovS Вставить ник Quote
AlKov Posted June 4, 2010 Author Posted June 4, 2010 Опции загрузки драйвера одинаковые? Обрати внимание на доп. параметры загрузки которые появляются в случае загрузки интеловского драйвера. Обрати внимание так же на разницу в размере бинарника.Эмм.. А что за опции загрузки? Вот эти? parm: InterruptThrottleRate:Interrupt Throttling Rate (array of int) parm: IntMode:Interrupt Mode (array of int) ..etc.. Где они задаются и конкретно на какие необходимо обратить внимание? И причем здесь разница в размере бинарника?? Зачем тебе несколько очередей, у тебя VLAN-ы терминируются серваком?Да, именно так. Это роутер почти "всея сети". :) Вставить ник Quote
Zaqwr Posted June 4, 2010 Posted June 4, 2010 (edited) изначально тоже странно cat /proc/interrupts | grep eth1|awk -F " " {'print $6 " " $7'} PCI-MSI-edge eth1-tx-0 PCI-MSI-edge eth1-tx-1 PCI-MSI-edge eth1-tx-2 PCI-MSI-edge eth1-tx-3 PCI-MSI-edge eth1-rx-0 PCI-MSI-edge eth1-rx-1 PCI-MSI-edge eth1-rx-2 PCI-MSI-edge eth1-rx-3 PCI-MSI-edge eth1 ещё есть сетевые карты ? отключить пробовали? может у вас на другой eth повисла ? grep -i igb /var/log/dmesg ??? Edited June 4, 2010 by Zaqwr Вставить ник Quote
AlKov Posted June 4, 2010 Author Posted June 4, 2010 (edited) изначально тоже странноcat /proc/interrupts | grep eth1|awk -F " " {'print $6 " " $7'} PCI-MSI-edge eth1-tx-0 PCI-MSI-edge eth1-tx-1 PCI-MSI-edge eth1-tx-2 PCI-MSI-edge eth1-tx-3 PCI-MSI-edge eth1-rx-0 PCI-MSI-edge eth1-rx-1 PCI-MSI-edge eth1-rx-2 PCI-MSI-edge eth1-rx-3 PCI-MSI-edge eth1 ещё есть сетевые карты ? отключить пробовали? может у вас на другой eth повисла ? grep -i igb /var/log/dmesg ??? А что именно странного? Вот с родным драйвером[root@border /]# cat /proc/interrupts | grep eth2|awk -F " " {'print $6 " " $7'} PCI-MSI-X eth2-rx-0 PCI-MSI-X eth2-rx-1 PCI-MSI-X eth2-rx-2 PCI-MSI-X eth2-rx-3 PCI-MSI-X eth2 PCI-MSI-X eth2-tx-0 [root@border /]# grep -i igb /var/log/dmesg igb 0000:01:00.0: Disabling ASPM L0s upstream switch port 0000:00:01.0 igb 0000:01:00.0: Intel(R) Gigabit Ethernet Network Connection igb 0000:01:00.0: eth0: (PCIe:2.5Gb/s:Width x4) 00:XX:XX:XX:XX:XX igb 0000:01:00.0: eth0: PBA No: 1030ff-0ff igb 0000:01:00.0: Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s) igb 0000:01:00.1: Disabling ASPM L0s upstream switch port 0000:00:01.0 igb 0000:01:00.1: Intel(R) Gigabit Ethernet Network Connection igb 0000:01:00.1: eth1: (PCIe:2.5Gb/s:Width x4) 00:XX:XX:XX:XX:XX igb 0000:01:00.1: eth1: PBA No: 1030ff-0ff igb 0000:01:00.1: Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s) igb 0000:02:00.0: Intel(R) Gigabit Ethernet Network Connection igb 0000:02:00.0: eth2: (PCIe:2.5Gb/s:Width x4) 00:XX:XX:XX:XX:XX igb 0000:02:00.0: eth2: PBA No: e43709-004 igb 0000:02:00.0: Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s) igb 0000:02:00.1: Intel(R) Gigabit Ethernet Network Connection igb 0000:02:00.1: eth3: (PCIe:2.5Gb/s:Width x4) 00:XX:XX:XX:XX:XX igb 0000:02:00.1: eth3: PBA No: e43709-004 igb 0000:02:00.1: Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s) Сетевых всего 4 - две "на борту" (82575) и одна (двухпортовая 82576) на PCI-EX eth1 и eth3 отключены. Edited June 4, 2010 by AlKov Вставить ник Quote
Zaqwr Posted June 5, 2010 Posted June 5, 2010 (edited) PCI-MSI-X eth2-rx-0PCI-MSI-X eth2-rx-1 PCI-MSI-X eth2-rx-2 PCI-MSI-X eth2-rx-3 PCI-MSI-X eth2 PCI-MSI-X eth2-tx-0 странно вот что, где ещё 3 tx-* и вот Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s) , а по идее должно быть Using MSI-X interrupts. 4 rx queue(s), 4 tx queue(s)попробуйте бортовые в биосе отключить... Edited June 5, 2010 by Zaqwr Вставить ник Quote
AlKov Posted June 5, 2010 Author Posted June 5, 2010 странно вот что, где ещё 3 tx-* и вот Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s) , а по идее должно быть Using MSI-X interrupts. 4 rx queue(s), 4 tx queue(s) А откуда такие данные? В смысле, что должно быть именно так (выделено)...попробуйте бортовые в биосе отключить...Гм.. А на кОй, извините, дъявол, я её (двухголовую PCI-EX + к имеющимся 2-м "набортным") тогда приобретал дополнительно?? Мне надо ИМЕННО 4 шт. сетевых, которые будут разруливать тО, чтО мне надо! Собственно отсюда и возник этот пост, смысл которого, НАДО, или НЕ НАДО устанавливать дополнительные драйвера (в альтернативу тем, что встали с ОС) ?? Или это уже "предел возможного" и не стОит "рвать жилы" для достижения чего-либо более "сверхестественного"?? Вставить ник Quote
Zaqwr Posted June 5, 2010 Posted June 5, 2010 А откуда такие данные? В смысле, что должно быть именно так (выделено)...ну собственно именно для этого эти карты и используют.. на нескольких серверах они именно так и распараллеливают потоки... http://download.intel.com/design/network/d...6_Datasheet.pdf 1.6.5 Rx and Tx Queues The number of Tx and Rx queues in the 82576 was increased to 16 queues. пролистайте ещё вот что... http://forum.nag.ru/forum/lofiversion/inde...t46335-100.html Вставить ник Quote
AlKov Posted June 6, 2010 Author Posted June 6, 2010 Установил драйвер из elrepo (2.1.9), разницы практически никакой. 8-ми rx/tx очередей удалось добиться установкой options igb IntMode=2,2,2,2 VMDQ=4,4,8,8 в modprobe.conf. Кстати, если совместно с VMDQ использовать RSS=4,4,8,8 драйвер ругается на инвалид RSS. Если без VMDQ (только RSS), то требуемое кол-во очередей встаёт только на rx.. Вот так получилось с options igb IntMode=2,2,2,2 VMDQ=4,4,8,8 в modprobe.conf [root@border /]# cat /proc/interrupts | grep eth2|awk -F " " {'print $6 " " $7'} PCI-MSI-X eth2-TxRx-2 PCI-MSI-X eth2-TxRx-3 PCI-MSI-X eth2-TxRx-4 PCI-MSI-X eth2-TxRx-5 PCI-MSI-X eth2-TxRx-6 PCI-MSI-X eth2-TxRx-7 PCI-MSI-X eth2 PCI-MSI-X eth2-TxRx-0 PCI-MSI-X eth2-TxRx-1 [root@border /]# grep -i igb /var/log/dmesg igb: 0000:01:00.0: igb_validate_option: Interrupt Mode set to 2 igb: 0000:01:00.0: igb_validate_option: VMDQ - VMDq multiqueue receive count set to 4 igb 0000:01:00.0: Intel(R) Gigabit Ethernet Network Connection igb 0000:01:00.0: eth0: (PCIe:2.5Gb/s:Width x4)00:XX:XX:XX:XX:XX igb 0000:01:00.0: Using MSI-X interrupts. 4 rx queue(s), 4 tx queue(s) igb: 0000:01:00.1: igb_validate_option: Interrupt Mode set to 2 igb: 0000:01:00.1: igb_validate_option: VMDQ - VMDq multiqueue receive count set to 4 igb 0000:01:00.1: Intel(R) Gigabit Ethernet Network Connection igb 0000:01:00.1: eth1: (PCIe:2.5Gb/s:Width x4)00:XX:XX:XX:XX:XX igb 0000:01:00.1: Using MSI-X interrupts. 4 rx queue(s), 4 tx queue(s) igb: 0000:02:00.0: igb_validate_option: Interrupt Mode set to 2 igb: 0000:02:00.0: igb_validate_option: VMDQ - VMDq multiqueue receive count set to 8 igb 0000:02:00.0: Intel(R) Gigabit Ethernet Network Connection igb 0000:02:00.0: eth2: (PCIe:2.5Gb/s:Width x4)00:XX:XX:XX:XX:XX igb 0000:02:00.0: Using MSI-X interrupts. 8 rx queue(s), 8 tx queue(s) igb: 0000:02:00.1: igb_validate_option: Interrupt Mode set to 2 igb: 0000:02:00.1: igb_validate_option: VMDQ - VMDq multiqueue receive count set to 8 igb 0000:02:00.1: Intel(R) Gigabit Ethernet Network Connection igb 0000:02:00.1: eth3: (PCIe:2.5Gb/s:Width x4)00:XX:XX:XX:XX:XX igb 0000:02:00.1: Using MSI-X interrupts. 8 rx queue(s), 8 tx queue(s) Пока не могу понять, что предпочтительнее - VMDQ, или RSS.. Кстати, настройки из ком. строки ничего не меняют, modprobe их просто проглатывает (даже не ругаясь на заведомо ошибочные) и все.. Результат = "0".. Работает только из modprobe.conf после перезагрузки.. Вставить ник Quote
Zaqwr Posted June 6, 2010 Posted June 6, 2010 AlKov а со всеми остальными сетевухами что творится, и кстати на борту что за сетевая? Вставить ник Quote
drv_sevstar Posted June 7, 2010 Posted June 7, 2010 # cat /etc/initramfs-tools/modules igb IntMode=3,3,3,3 RSS=4,4,4,4 QueuePairs=0,0,0,0 #update-initramfs -u #reboot в дебиане по крайней мере Вставить ник Quote
StSphinx Posted June 7, 2010 Posted June 7, 2010 # cat /etc/initramfs-tools/modules igb IntMode=3,3,3,3 RSS=4,4,4,4 QueuePairs=0,0,0,0 #update-initramfs -u #reboot в дебиане по крайней мере А позвольте узнать, что за режим такой - 3? Вот из README последнего igb: IntMode------- Valid Range: 0-2 Default Value: 2 0 - Legacy Interrupts, single queue 1 - MSI interrupts, single queue 2 - MSI-X interrupts, single queue (default) Allows changing interrupt mode and MQ status at load time, without requiring a recompile. If the driver fails to enable a specific interrupt mode, it will fail back to lesser capabilities. Вставить ник Quote
AlKov Posted June 7, 2010 Author Posted June 7, 2010 AlKov а со всеми остальными сетевухами что творится, Так видно же из dmesg. Все, как доктор прописал.и кстати на борту что за сетевая?Дык тут(последняя строка). Вставить ник Quote
Jugernault Posted June 7, 2010 Posted June 7, 2010 Да, именно так. Это роутер почти "всея сети". :)Именно роутер? - Т.е. не pppoe-nas? Какой проц? Вставить ник Quote
AlKov Posted June 7, 2010 Author Posted June 7, 2010 Да, именно так. Это роутер почти "всея сети". :)Именно роутер? - Т.е. не pppoe-nas? Какой проц? Именно роутер + фаервол + NAT. NAS-ы (2шт. PPTP) живут на FreeBSD машинах (mpd5+ng_car). Основная задача обсуждаемого железа (%90) - разрулить все это (пользовательские туннели) в Интернет. Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного. Проц(ы) - Два двухядерных Intel Xenon E5503. Все будет крутиться на CentOS 5.5 2.6.18-194.el5 #1 SMP Fri Apr 2 14:58:14 EDT 2010 x86_64 x86_64 x86_64 GNU/Linux. Вставить ник Quote
andriko Posted June 8, 2010 Posted June 8, 2010 Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного.Проц(ы) - Два двухядерных Intel Xenon E5503. в таком случае "тюнинг" явно лишний..... Вставить ник Quote
AlKov Posted June 8, 2010 Author Posted June 8, 2010 Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного.Проц(ы) - Два двухядерных Intel Xenon E5503. в таком случае "тюнинг" явно лишний..... А NAT? Ему придется тянуть от 600 до 1000 (и более в перспективе) IP. Ну и 200Мбит это тоже далеко "не насовсем", имеет шанс вырасти раза в два за год.Или тогда и тюнить? Просто хочется заранее соломку подстелить, ну хотя бы на год вперед. :) И собственно по теме - каким образом (RSS, или VMDQ) все же распределять очереди на сетевых и какой драйвер предпочтительнее? Вставить ник Quote
Jugernault Posted June 8, 2010 Posted June 8, 2010 Именно роутер + фаервол + NAT. NAS-ы (2шт. PPTP) живут на FreeBSD машинах (mpd5+ng_car). Основная задача обсуждаемого железа (%90) - разрулить все это (пользовательские туннели) в Интернет. Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного. Проц(ы) - Два двухядерных Intel Xenon E5503. Все будет крутиться на CentOS 5.5 2.6.18-194.el5 #1 SMP Fri Apr 2 14:58:14 EDT 2010 x86_64 x86_64 x86_64 GNU/Linux. У вас 4 ядра и 4 сетевых карты - нет смысла разводить очереди по ядрам, потому как ядер мало. Прибейте по одной сетевой карте (т.е. одной очереди) к одному ядру.С подобной нагрузкой подобный сервер справится легко, даже с учетом роста. Вставить ник Quote
AlKov Posted June 8, 2010 Author Posted June 8, 2010 У вас 4 ядра и 4 сетевых карты - нет смысла разводить очереди по ядрам, потому как ядер мало.Вообще-то в "железе" я не очень.. Поэтому попрошу уточнить, сколько же всего ядер у двух E5503?Вопрос собственно по причине того, что на другом форуме, где я обсуждаю весь сервер, была получена такая информация Таким образом при восьми ядрах (помним, что в реале E5503 это два ядра с HT)Кому верим? ;) P.S. И все же хотелось увидеть ответ по теме - насчет драйверов и конфигурации сетевых.. Вставить ник Quote
andriko Posted June 8, 2010 Posted June 8, 2010 Цитата(andriko @ 8.6.2010, 12:38) *Цитата(AlKov @ 7.6.2010, 20:48) * Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного. Проц(ы) - Два двухядерных Intel Xenon E5503. в таком случае "тюнинг" явно лишний..... А NAT? Ему придется тянуть от 600 до 1000 (и более в перспективе) IP. Ну и 200Мбит это тоже далеко "не насовсем", имеет шанс вырасти раза в два за год. Или тогда и тюнить? Просто хочется заранее соломку подстелить, ну хотя бы на год вперед. :) угу а к тому времени драйвера и софт еще 10 раз перепишут Вставить ник Quote
Jugernault Posted June 8, 2010 Posted June 8, 2010 У вас 4 ядра и 4 сетевых карты - нет смысла разводить очереди по ядрам, потому как ядер мало.Вообще-то в "железе" я не очень.. Поэтому попрошу уточнить, сколько же всего ядер у двух E5503?Вопрос собственно по причине того, что на другом форуме, где я обсуждаю весь сервер, была получена такая информация Таким образом при восьми ядрах (помним, что в реале E5503 это два ядра с HT)Кому верим? ;)Наверное все же Интелу. Т.е. 2 ядра на процессор, гипертрейдинга нет - в итоге 4 ядра на систему.P.S. И все же хотелось увидеть ответ по теме - насчет драйверов и конфигурации сетевых..Вам чисто теоретически что ли? Ну тогда ставьте два E5520 (16 со включенным гепертрейдингом) + ванильное ядро (выше 2.6.27 - в нем MultiQueueTX реализовано было) + последние интеловские дрова (RSS - 4 совмещенные очереди на один интерфейс) - и будет Вам счастье. Такой аппарат 2Г в дуплексе прожует и не подавится... А возможно и больше. Вставить ник Quote
AlKov Posted June 8, 2010 Author Posted June 8, 2010 Вопрос собственно по причине того, что на другом форуме, где я обсуждаю весь сервер, была получена такая информация Таким образом при восьми ядрах (помним, что в реале E5503 это два ядра с HT)Кому верим? ;)Наверное все же Интелу. Т.е. 2 ядра на процессор, гипертрейдинга нет - в итоге 4 ядра на систему. Вот и верь после этого людям! :) P.S. И все же хотелось увидеть ответ по теме - насчет драйверов и конфигурации сетевых..Вам чисто теоретически что ли? Ну тогда ставьте два E5520 (16 со включенным гепертрейдингом) + ванильное ядро (выше 2.6.27 - в нем MultiQueueTX реализовано было) + последние интеловские дрова (RSS - 4 совмещенные очереди на один интерфейс) - и будет Вам счастье. Такой аппарат 2Г в дуплексе прожует и не подавится... А возможно и больше. Да какая теория!! Машине через две недели "на работу", а я в "дровах" никак не разберусь..Jugernault, ну вот что бы Вы посоветовали в данном случае? Оставить "родной" драйвер без всяких RSS и VMDQ, или все же покрутить текущий установленный? Если второе, то чтО конкретно? Кстати, немного уточню - две "набортные" сетевые (82575) будут практически отдыхать, основная нагрузка ляжет именно на 82576-е. В этом контексте что-то меняется? Вставить ник Quote
cfiffc Posted June 8, 2010 Posted June 8, 2010 А позвольте узнать, что за режим такой - 3?Вот из README последнего igb: September 15, 2009 igb-2.1.1.tar.gz README IntMode ------- Valid Range: 0-2 Default Value: 2 0 - Legacy Interrupts, single queue 1 - MSI interrupts, single queue 2 - MSI-X interrupts, single queue (default) 3 - MSI-X interrupts, multiple queues igb.h /* Interrupt modes, as used by the IntMode paramter */ #define IGB_INT_MODE_LEGACY 0 #define IGB_INT_MODE_MSI 1 #define IGB_INT_MODE_MSIX 2 igb_param.c #define MAX_INTMODE IGB_INT_MODE_MSIX #define MIN_INTMODE IGB_INT_MODE_LEGACY хотя в README есть описание(3 - MSI-X interrupts, multiple queues), валидация параметра не должна пройти Вставить ник Quote
Jugernault Posted June 8, 2010 Posted June 8, 2010 Начну с конца... Кстати, немного уточню - две "набортные" сетевые (82575) будут практически отдыхать, основная нагрузка ляжет именно на 82576-е. В этом контексте что-то меняется?Но Вы же вроде бы говорили что необходимо именно четыре гигабитных интерфейса? А теперь получается что два будут курить? Конечно меняется... В таком случае вы можете сплясать вот так - options igb IntMode=2,2,2,2 RSS=2,2,2,2 QueuePairs=1,1 И положить на каждый поцессор (два ядра) по две очереди с двух интерфейсов - сильно + слабо загруженного и сильно + слабо загруженного. Да какая теория!! Машине через две недели "на работу", а я в "дровах" никак не разберусь..Jugernault, ну вот что бы Вы посоветовали в данном случае? Оставить "родной" драйвер без всяких RSS и VMDQ, или все же покрутить текущий установленный? Если второе, то чтО конкретно? Собрать ванильное ядро 2.6.31, взять последнюю версию ibg с соурсфоржа, сконструировать как написано выше.VMDQ несколько не из той оперы. Вставить ник Quote
Zaqwr Posted June 8, 2010 Posted June 8, 2010 (edited) Собрать ванильное ядро 2.6.31, взять последнюю версию ibg с соурсфоржа, сконструировать как написано выше.Centos нормально переварит 31 ядро?AlKov может чтонить отличное от Centos ? Edited June 8, 2010 by Zaqwr Вставить ник Quote
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.