Jump to content
Калькуляторы

Непонятки с драйвером igb на CentOS 5.5 какой "правильный"??

CentOS 5.5. Двухпортовая PCI-ex сетевая карта на Intel 82576.

"Родной" драйвер (при установке ОС).

[root@border /]# modinfo igb
filename:       /lib/modules/2.6.18-194.el5/kernel/drivers/net/igb/igb.ko
version:        2.1.0-k2
license:        GPL
description:    Intel(R) Gigabit Ethernet Network Driver
author:         Intel Corporation, <e1000-devel@lists.sourceforge.net>
srcversion:     682974A1B5C764B2AC3D6A5
alias:          pci:v00008086d000010D6sv*sd*bc*sc*i*
alias:          pci:v00008086d000010A9sv*sd*bc*sc*i*
alias:          pci:v00008086d000010A7sv*sd*bc*sc*i*
alias:          pci:v00008086d000010E8sv*sd*bc*sc*i*
alias:          pci:v00008086d0000150Dsv*sd*bc*sc*i*
alias:          pci:v00008086d000010E7sv*sd*bc*sc*i*
alias:          pci:v00008086d000010E6sv*sd*bc*sc*i*
alias:          pci:v00008086d00001518sv*sd*bc*sc*i*
alias:          pci:v00008086d0000150Asv*sd*bc*sc*i*
alias:          pci:v00008086d000010C9sv*sd*bc*sc*i*
alias:          pci:v00008086d00001516sv*sd*bc*sc*i*
alias:          pci:v00008086d00001511sv*sd*bc*sc*i*
alias:          pci:v00008086d00001510sv*sd*bc*sc*i*
alias:          pci:v00008086d0000150Fsv*sd*bc*sc*i*
alias:          pci:v00008086d0000150Esv*sd*bc*sc*i*
depends:        dca,8021q
vermagic:       2.6.18-194.el5 SMP mod_unload gcc-4.1
parm:           max_vfs:Maximum number of virtual functions to allocate per physical function (uint)
module_sig:     883f3504bb6455c596239a507de7fd112f6209f5f88b9e2c5f4d457a3f6dc0e096d12085a363109f
6ab44494697046d5e16f15f35b89a79aabc5b20

[root@border /]# cat /proc/interrupts | grep eth2
51:         81          5         49          0       PCI-MSI-X  eth2-rx-0
59:         68          0         60          5       PCI-MSI-X  eth2-rx-1
67:         44          5         84          0       PCI-MSI-X  eth2-rx-2
75:         48          0         81          5       PCI-MSI-X  eth2-rx-3
83:          0          0          0          0       PCI-MSI-X  eth2
234:         53          3          2          0       PCI-MSI-X  eth2-tx-0

Собираю, устанавливаю самый "свежий" драйвер с сайта Intel (2.2.9)

[root@border /]# modinfo igb
filename:       /lib/modules/2.6.18-194.el5/kernel/drivers/net/igb/igb.ko
version:        2.2.9
license:        GPL
description:    Intel(R) Gigabit Ethernet Network Driver
author:         Intel Corporation, <e1000-devel@lists.sourceforge.net>
srcversion:     D7A604F5946B6EDAA542EA6
alias:          pci:v00008086d000010D6sv*sd*bc*sc*i*
alias:          pci:v00008086d000010A9sv*sd*bc*sc*i*
alias:          pci:v00008086d000010A7sv*sd*bc*sc*i*
alias:          pci:v00008086d000010E8sv*sd*bc*sc*i*
alias:          pci:v00008086d0000150Dsv*sd*bc*sc*i*
alias:          pci:v00008086d000010E7sv*sd*bc*sc*i*
alias:          pci:v00008086d000010E6sv*sd*bc*sc*i*
alias:          pci:v00008086d00001518sv*sd*bc*sc*i*
alias:          pci:v00008086d0000150Asv*sd*bc*sc*i*
alias:          pci:v00008086d000010C9sv*sd*bc*sc*i*
alias:          pci:v00008086d00001516sv*sd*bc*sc*i*
alias:          pci:v00008086d00001511sv*sd*bc*sc*i*
alias:          pci:v00008086d00001510sv*sd*bc*sc*i*
alias:          pci:v00008086d0000150Fsv*sd*bc*sc*i*
alias:          pci:v00008086d0000150Esv*sd*bc*sc*i*
depends:        dca,8021q
vermagic:       2.6.18-194.el5 SMP mod_unload gcc-4.1
parm:           InterruptThrottleRate:Interrupt Throttling Rate (array of int)
parm:           IntMode:Interrupt Mode (array of int)
parm:           LLIPort:Low Latency Interrupt TCP Port (array of int)
parm:           LLIPush:Low Latency Interrupt on TCP Push flag (array of int)
parm:           LLISize:Low Latency Interrupt on Packet Size (array of int)
parm:           RSS:RSS - multiqueue receive count (array of int)
parm:           VMDQ:VMDQ - VMDq multiqueue receive (array of int)
parm:           max_vfs:max_vfs - SR-IOV VF devices (array of int)
parm:           QueuePairs:QueuePairs - TX/RX queue pairs for interrupt handling (array of int)
parm:           debug:Debug level (0=none, ..., 16=all) (int)

[root@border /]# cat /proc/interrupts | grep eth2
170:          1          0          0          0       PCI-MSI-X  eth2
178:         27          0         99         63       PCI-MSI-X  eth2-TxRx-0

Три очереди, как корова языком слизнула... :(

Вопрос - нафига козе бОян?? Или я что-то не понимаю?

И еще - вот тут товарищ пишет, что на этом чипе поддерживается 8 rx очередей. У меня выше 4-х (на родном драйвере) не показывалось, не смотря на успешное выполнение modprobe igb IntMode=3,3 RSS=8,8

Ну и последний вопрос - что делать? Не выёживаться и оставить родной драйвер, или все же есть варианты?

Edited by AlKov

Share this post


Link to post
Share on other sites

Опции загрузки драйвера одинаковые? Обрати внимание на доп. параметры загрузки которые появляются в случае загрузки интеловского драйвера. Обрати внимание так же на разницу в размере бинарника.

Зачем тебе несколько очередей, у тебя VLAN-ы терминируются серваком?

Edited by SokolovS

Share this post


Link to post
Share on other sites
Опции загрузки драйвера одинаковые? Обрати внимание на доп. параметры загрузки которые появляются в случае загрузки интеловского драйвера. Обрати внимание так же на разницу в размере бинарника.
Эмм.. А что за опции загрузки? Вот эти?
parm:           InterruptThrottleRate:Interrupt Throttling Rate (array of int)
parm:           IntMode:Interrupt Mode (array of int)
..etc..

Где они задаются и конкретно на какие необходимо обратить внимание?

И причем здесь разница в размере бинарника??

Зачем тебе несколько очередей, у тебя VLAN-ы терминируются серваком?
Да, именно так. Это роутер почти "всея сети". :)

 

Share this post


Link to post
Share on other sites

изначально тоже странно

cat /proc/interrupts | grep eth1|awk -F " " {'print $6 " " $7'}

PCI-MSI-edge eth1-tx-0

PCI-MSI-edge eth1-tx-1

PCI-MSI-edge eth1-tx-2

PCI-MSI-edge eth1-tx-3

PCI-MSI-edge eth1-rx-0

PCI-MSI-edge eth1-rx-1

PCI-MSI-edge eth1-rx-2

PCI-MSI-edge eth1-rx-3

PCI-MSI-edge eth1

ещё есть сетевые карты ? отключить пробовали?

может у вас на другой eth повисла ?

grep -i igb /var/log/dmesg

???

Edited by Zaqwr

Share this post


Link to post
Share on other sites
изначально тоже странно

cat /proc/interrupts | grep eth1|awk -F " " {'print $6 " " $7'}

PCI-MSI-edge eth1-tx-0

PCI-MSI-edge eth1-tx-1

PCI-MSI-edge eth1-tx-2

PCI-MSI-edge eth1-tx-3

PCI-MSI-edge eth1-rx-0

PCI-MSI-edge eth1-rx-1

PCI-MSI-edge eth1-rx-2

PCI-MSI-edge eth1-rx-3

PCI-MSI-edge eth1

ещё есть сетевые карты ? отключить пробовали?

может у вас на другой eth повисла ?

grep -i igb /var/log/dmesg

???

А что именно странного? Вот с родным драйвером
[root@border /]# cat /proc/interrupts | grep eth2|awk -F " " {'print $6 " " $7'}
PCI-MSI-X eth2-rx-0
PCI-MSI-X eth2-rx-1
PCI-MSI-X eth2-rx-2
PCI-MSI-X eth2-rx-3
PCI-MSI-X eth2
PCI-MSI-X eth2-tx-0

[root@border /]# grep -i igb /var/log/dmesg
igb 0000:01:00.0: Disabling ASPM L0s upstream switch port 0000:00:01.0
igb 0000:01:00.0: Intel(R) Gigabit Ethernet Network Connection
igb 0000:01:00.0: eth0: (PCIe:2.5Gb/s:Width x4) 00:XX:XX:XX:XX:XX
igb 0000:01:00.0: eth0: PBA No: 1030ff-0ff
igb 0000:01:00.0: Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s)
igb 0000:01:00.1: Disabling ASPM L0s upstream switch port 0000:00:01.0
igb 0000:01:00.1: Intel(R) Gigabit Ethernet Network Connection
igb 0000:01:00.1: eth1: (PCIe:2.5Gb/s:Width x4) 00:XX:XX:XX:XX:XX
igb 0000:01:00.1: eth1: PBA No: 1030ff-0ff
igb 0000:01:00.1: Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s)
igb 0000:02:00.0: Intel(R) Gigabit Ethernet Network Connection
igb 0000:02:00.0: eth2: (PCIe:2.5Gb/s:Width x4) 00:XX:XX:XX:XX:XX
igb 0000:02:00.0: eth2: PBA No: e43709-004
igb 0000:02:00.0: Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s)
igb 0000:02:00.1: Intel(R) Gigabit Ethernet Network Connection
igb 0000:02:00.1: eth3: (PCIe:2.5Gb/s:Width x4) 00:XX:XX:XX:XX:XX
igb 0000:02:00.1: eth3: PBA No: e43709-004
igb 0000:02:00.1: Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s)

Сетевых всего 4 - две "на борту" (82575) и одна (двухпортовая 82576) на PCI-EX

eth1 и eth3 отключены.

Edited by AlKov

Share this post


Link to post
Share on other sites
PCI-MSI-X eth2-rx-0

PCI-MSI-X eth2-rx-1

PCI-MSI-X eth2-rx-2

PCI-MSI-X eth2-rx-3

PCI-MSI-X eth2

PCI-MSI-X eth2-tx-0

странно вот что, где ещё 3 tx-* и вот Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s) , а по идее должно быть Using MSI-X interrupts. 4 rx queue(s), 4 tx queue(s)

попробуйте бортовые в биосе отключить...

Edited by Zaqwr

Share this post


Link to post
Share on other sites
странно вот что, где ещё 3 tx-* и вот Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s) , а по идее должно быть Using MSI-X interrupts. 4 rx queue(s), 4 tx queue(s)
А откуда такие данные? В смысле, что должно быть именно так (выделено)...
попробуйте бортовые в биосе отключить...
Гм.. А на кОй, извините, дъявол, я её (двухголовую PCI-EX + к имеющимся 2-м "набортным") тогда приобретал дополнительно??

Мне надо ИМЕННО 4 шт. сетевых, которые будут разруливать тО, чтО мне надо!

Собственно отсюда и возник этот пост, смысл которого, НАДО, или НЕ НАДО устанавливать дополнительные драйвера (в альтернативу тем, что встали с ОС) ??

Или это уже "предел возможного" и не стОит "рвать жилы" для достижения чего-либо более "сверхестественного"??

 

Share this post


Link to post
Share on other sites
А откуда такие данные? В смысле, что должно быть именно так (выделено)...
ну собственно именно для этого эти карты и используют.. на нескольких серверах они именно так и распараллеливают потоки...

 

http://download.intel.com/design/network/d...6_Datasheet.pdf

1.6.5 Rx and Tx Queues

The number of Tx and Rx queues in the 82576 was increased to 16 queues.

 

пролистайте ещё вот что...

http://forum.nag.ru/forum/lofiversion/inde...t46335-100.html

Share this post


Link to post
Share on other sites

Установил драйвер из elrepo (2.1.9), разницы практически никакой.

8-ми rx/tx очередей удалось добиться установкой options igb IntMode=2,2,2,2 VMDQ=4,4,8,8 в modprobe.conf. Кстати, если совместно с VMDQ использовать RSS=4,4,8,8 драйвер ругается на инвалид RSS. Если без VMDQ (только RSS), то требуемое кол-во очередей встаёт только на rx..

Вот так получилось с options igb IntMode=2,2,2,2 VMDQ=4,4,8,8 в modprobe.conf

[root@border /]# cat /proc/interrupts | grep eth2|awk -F " " {'print $6 " " $7'}
PCI-MSI-X eth2-TxRx-2
PCI-MSI-X eth2-TxRx-3
PCI-MSI-X eth2-TxRx-4
PCI-MSI-X eth2-TxRx-5
PCI-MSI-X eth2-TxRx-6
PCI-MSI-X eth2-TxRx-7
PCI-MSI-X eth2
PCI-MSI-X eth2-TxRx-0
PCI-MSI-X eth2-TxRx-1
[root@border /]# grep -i igb /var/log/dmesg
igb: 0000:01:00.0: igb_validate_option: Interrupt Mode set to 2
igb: 0000:01:00.0: igb_validate_option: VMDQ - VMDq multiqueue receive count set to 4
igb 0000:01:00.0: Intel(R) Gigabit Ethernet Network Connection
igb 0000:01:00.0: eth0: (PCIe:2.5Gb/s:Width x4)00:XX:XX:XX:XX:XX
igb 0000:01:00.0: Using MSI-X interrupts. 4 rx queue(s), 4 tx queue(s)
igb: 0000:01:00.1: igb_validate_option: Interrupt Mode set to 2
igb: 0000:01:00.1: igb_validate_option: VMDQ - VMDq multiqueue receive count set to 4
igb 0000:01:00.1: Intel(R) Gigabit Ethernet Network Connection
igb 0000:01:00.1: eth1: (PCIe:2.5Gb/s:Width x4)00:XX:XX:XX:XX:XX
igb 0000:01:00.1: Using MSI-X interrupts. 4 rx queue(s), 4 tx queue(s)
igb: 0000:02:00.0: igb_validate_option: Interrupt Mode set to 2
igb: 0000:02:00.0: igb_validate_option: VMDQ - VMDq multiqueue receive count set to 8
igb 0000:02:00.0: Intel(R) Gigabit Ethernet Network Connection
igb 0000:02:00.0: eth2: (PCIe:2.5Gb/s:Width x4)00:XX:XX:XX:XX:XX
igb 0000:02:00.0: Using MSI-X interrupts. 8 rx queue(s), 8 tx queue(s)
igb: 0000:02:00.1: igb_validate_option: Interrupt Mode set to 2
igb: 0000:02:00.1: igb_validate_option: VMDQ - VMDq multiqueue receive count set to 8
igb 0000:02:00.1: Intel(R) Gigabit Ethernet Network Connection
igb 0000:02:00.1: eth3: (PCIe:2.5Gb/s:Width x4)00:XX:XX:XX:XX:XX
igb 0000:02:00.1: Using MSI-X interrupts. 8 rx queue(s), 8 tx queue(s)

Пока не могу понять, что предпочтительнее - VMDQ, или RSS..

Кстати, настройки из ком. строки ничего не меняют, modprobe их просто проглатывает (даже не ругаясь на заведомо ошибочные) и все.. Результат = "0".. Работает только из modprobe.conf после перезагрузки..

Share this post


Link to post
Share on other sites

AlKov

а со всеми остальными сетевухами что творится, и кстати на борту что за сетевая?

Share this post


Link to post
Share on other sites

# cat /etc/initramfs-tools/modules

igb IntMode=3,3,3,3 RSS=4,4,4,4 QueuePairs=0,0,0,0

 

#update-initramfs -u

 

#reboot

 

в дебиане по крайней мере

Share this post


Link to post
Share on other sites
# cat /etc/initramfs-tools/modules

igb IntMode=3,3,3,3 RSS=4,4,4,4 QueuePairs=0,0,0,0

 

#update-initramfs -u

 

#reboot

 

в дебиане по крайней мере

А позвольте узнать, что за режим такой - 3?

Вот из README последнего igb:

IntMode

-------

Valid Range: 0-2

Default Value: 2

0 - Legacy Interrupts, single queue

1 - MSI interrupts, single queue

2 - MSI-X interrupts, single queue (default)

 

Allows changing interrupt mode and MQ status at load time, without requiring

a recompile. If the driver fails to enable a specific interrupt mode, it will

fail back to lesser capabilities.

Share this post


Link to post
Share on other sites
AlKov

а со всеми остальными сетевухами что творится,

Так видно же из dmesg. Все, как доктор прописал.
и кстати на борту что за сетевая?
Дык тут(последняя строка).

 

Share this post


Link to post
Share on other sites
Да, именно так. Это роутер почти "всея сети". :)
Именно роутер? - Т.е. не pppoe-nas?

 

Какой проц?

Share this post


Link to post
Share on other sites
Да, именно так. Это роутер почти "всея сети". :)
Именно роутер? - Т.е. не pppoe-nas?

 

Какой проц?

Именно роутер + фаервол + NAT. NAS-ы (2шт. PPTP) живут на FreeBSD машинах (mpd5+ng_car). Основная задача обсуждаемого железа (%90) - разрулить все это (пользовательские туннели) в Интернет.

Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного.

Проц(ы) - Два двухядерных Intel Xenon E5503.

Все будет крутиться на CentOS 5.5 2.6.18-194.el5 #1 SMP Fri Apr 2 14:58:14 EDT 2010 x86_64 x86_64 x86_64 GNU/Linux.

Share this post


Link to post
Share on other sites
Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного.

Проц(ы) - Два двухядерных Intel Xenon E5503.

в таком случае "тюнинг" явно лишний.....

Share this post


Link to post
Share on other sites
Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного.

Проц(ы) - Два двухядерных Intel Xenon E5503.

в таком случае "тюнинг" явно лишний.....

А NAT? Ему придется тянуть от 600 до 1000 (и более в перспективе) IP. Ну и 200Мбит это тоже далеко "не насовсем", имеет шанс вырасти раза в два за год.

Или тогда и тюнить? Просто хочется заранее соломку подстелить, ну хотя бы на год вперед. :)

И собственно по теме - каким образом (RSS, или VMDQ) все же распределять очереди на сетевых и какой драйвер предпочтительнее?

Share this post


Link to post
Share on other sites
Именно роутер + фаервол + NAT. NAS-ы (2шт. PPTP) живут на FreeBSD машинах (mpd5+ng_car). Основная задача обсуждаемого железа (%90) - разрулить все это (пользовательские туннели) в Интернет.

Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного.

Проц(ы) - Два двухядерных Intel Xenon E5503.

Все будет крутиться на CentOS 5.5 2.6.18-194.el5 #1 SMP Fri Apr 2 14:58:14 EDT 2010 x86_64 x86_64 x86_64 GNU/Linux.

У вас 4 ядра и 4 сетевых карты - нет смысла разводить очереди по ядрам, потому как ядер мало. Прибейте по одной сетевой карте (т.е. одной очереди) к одному ядру.

С подобной нагрузкой подобный сервер справится легко, даже с учетом роста.

 

Share this post


Link to post
Share on other sites
У вас 4 ядра и 4 сетевых карты - нет смысла разводить очереди по ядрам, потому как ядер мало.
Вообще-то в "железе" я не очень.. Поэтому попрошу уточнить, сколько же всего ядер у двух E5503?

Вопрос собственно по причине того, что на другом форуме, где я обсуждаю весь сервер, была получена такая информация

Таким образом при восьми ядрах (помним, что в реале E5503 это два ядра с HT)
Кому верим? ;)

 

P.S. И все же хотелось увидеть ответ по теме - насчет драйверов и конфигурации сетевых..

Share this post


Link to post
Share on other sites
Цитата(andriko @ 8.6.2010, 12:38) *

Цитата(AlKov @ 7.6.2010, 20:48) *

Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного.

Проц(ы) - Два двухядерных Intel Xenon E5503.

 

 

в таком случае "тюнинг" явно лишний.....

 

А NAT? Ему придется тянуть от 600 до 1000 (и более в перспективе) IP. Ну и 200Мбит это тоже далеко "не насовсем", имеет шанс вырасти раза в два за год.

Или тогда и тюнить? Просто хочется заранее соломку подстелить, ну хотя бы на год вперед. :)

угу

а к тому времени драйвера и софт еще 10 раз перепишут

Share this post


Link to post
Share on other sites
У вас 4 ядра и 4 сетевых карты - нет смысла разводить очереди по ядрам, потому как ядер мало.
Вообще-то в "железе" я не очень.. Поэтому попрошу уточнить, сколько же всего ядер у двух E5503?

Вопрос собственно по причине того, что на другом форуме, где я обсуждаю весь сервер, была получена такая информация

Таким образом при восьми ядрах (помним, что в реале E5503 это два ядра с HT)
Кому верим? ;)
Наверное все же Интелу. Т.е. 2 ядра на процессор, гипертрейдинга нет - в итоге 4 ядра на систему.
P.S. И все же хотелось увидеть ответ по теме - насчет драйверов и конфигурации сетевых..
Вам чисто теоретически что ли? Ну тогда ставьте два E5520 (16 со включенным гепертрейдингом) + ванильное ядро (выше 2.6.27 - в нем MultiQueueTX реализовано было) + последние интеловские дрова (RSS - 4 совмещенные очереди на один интерфейс) - и будет Вам счастье. Такой аппарат 2Г в дуплексе прожует и не подавится... А возможно и больше.

Share this post


Link to post
Share on other sites

Вопрос собственно по причине того, что на другом форуме, где я обсуждаю весь сервер, была получена такая информация

Таким образом при восьми ядрах (помним, что в реале E5503 это два ядра с HT)
Кому верим? ;)
Наверное все же Интелу. Т.е. 2 ядра на процессор, гипертрейдинга нет - в итоге 4 ядра на систему.

Вот и верь после этого людям! :)
P.S. И все же хотелось увидеть ответ по теме - насчет драйверов и конфигурации сетевых..
Вам чисто теоретически что ли? Ну тогда ставьте два E5520 (16 со включенным гепертрейдингом) + ванильное ядро (выше 2.6.27 - в нем MultiQueueTX реализовано было) + последние интеловские дрова (RSS - 4 совмещенные очереди на один интерфейс) - и будет Вам счастье. Такой аппарат 2Г в дуплексе прожует и не подавится... А возможно и больше.

Да какая теория!! Машине через две недели "на работу", а я в "дровах" никак не разберусь..

Jugernault, ну вот что бы Вы посоветовали в данном случае? Оставить "родной" драйвер без всяких RSS и VMDQ, или все же покрутить текущий установленный? Если второе, то чтО конкретно?

Кстати, немного уточню - две "набортные" сетевые (82575) будут практически отдыхать, основная нагрузка ляжет именно на 82576-е. В этом контексте что-то меняется?

 

Share this post


Link to post
Share on other sites
А позвольте узнать, что за режим такой - 3?

Вот из README последнего igb:

September 15, 2009 igb-2.1.1.tar.gz

README

IntMode
-------
Valid Range:    0-2
Default Value:  2
0 - Legacy Interrupts, single queue
1 - MSI interrupts, single queue
2 - MSI-X interrupts, single queue (default)
3 - MSI-X interrupts, multiple queues

igb.h

/* Interrupt modes, as used by the IntMode paramter */
#define IGB_INT_MODE_LEGACY                0
#define IGB_INT_MODE_MSI                   1
#define IGB_INT_MODE_MSIX                  2

igb_param.c

#define MAX_INTMODE                    IGB_INT_MODE_MSIX
#define MIN_INTMODE                    IGB_INT_MODE_LEGACY

хотя в README есть описание(3 - MSI-X interrupts, multiple queues), валидация параметра не должна пройти

Share this post


Link to post
Share on other sites

Начну с конца...

 

Кстати, немного уточню - две "набортные" сетевые (82575) будут практически отдыхать, основная нагрузка ляжет именно на 82576-е. В этом контексте что-то меняется?
Но Вы же вроде бы говорили что необходимо именно четыре гигабитных интерфейса? А теперь получается что два будут курить?

 

Конечно меняется...

В таком случае вы можете сплясать вот так - options igb IntMode=2,2,2,2 RSS=2,2,2,2 QueuePairs=1,1

И положить на каждый поцессор (два ядра) по две очереди с двух интерфейсов - сильно + слабо загруженного и сильно + слабо загруженного.

Да какая теория!! Машине через две недели "на работу", а я в "дровах" никак не разберусь..

Jugernault, ну вот что бы Вы посоветовали в данном случае? Оставить "родной" драйвер без всяких RSS и VMDQ, или все же покрутить текущий установленный? Если второе, то чтО конкретно?

Собрать ванильное ядро 2.6.31, взять последнюю версию ibg с соурсфоржа, сконструировать как написано выше.

VMDQ несколько не из той оперы.

Share this post


Link to post
Share on other sites
Собрать ванильное ядро 2.6.31, взять последнюю версию ibg с соурсфоржа, сконструировать как написано выше.
Centos нормально переварит 31 ядро?

AlKov

может чтонить отличное от Centos ?

Edited by Zaqwr

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this