Перейти к содержимому
Калькуляторы

Непонятки с драйвером igb на CentOS 5.5 какой "правильный"??

CentOS 5.5. Двухпортовая PCI-ex сетевая карта на Intel 82576.

"Родной" драйвер (при установке ОС).

[root@border /]# modinfo igb
filename:       /lib/modules/2.6.18-194.el5/kernel/drivers/net/igb/igb.ko
version:        2.1.0-k2
license:        GPL
description:    Intel(R) Gigabit Ethernet Network Driver
author:         Intel Corporation, <e1000-devel@lists.sourceforge.net>
srcversion:     682974A1B5C764B2AC3D6A5
alias:          pci:v00008086d000010D6sv*sd*bc*sc*i*
alias:          pci:v00008086d000010A9sv*sd*bc*sc*i*
alias:          pci:v00008086d000010A7sv*sd*bc*sc*i*
alias:          pci:v00008086d000010E8sv*sd*bc*sc*i*
alias:          pci:v00008086d0000150Dsv*sd*bc*sc*i*
alias:          pci:v00008086d000010E7sv*sd*bc*sc*i*
alias:          pci:v00008086d000010E6sv*sd*bc*sc*i*
alias:          pci:v00008086d00001518sv*sd*bc*sc*i*
alias:          pci:v00008086d0000150Asv*sd*bc*sc*i*
alias:          pci:v00008086d000010C9sv*sd*bc*sc*i*
alias:          pci:v00008086d00001516sv*sd*bc*sc*i*
alias:          pci:v00008086d00001511sv*sd*bc*sc*i*
alias:          pci:v00008086d00001510sv*sd*bc*sc*i*
alias:          pci:v00008086d0000150Fsv*sd*bc*sc*i*
alias:          pci:v00008086d0000150Esv*sd*bc*sc*i*
depends:        dca,8021q
vermagic:       2.6.18-194.el5 SMP mod_unload gcc-4.1
parm:           max_vfs:Maximum number of virtual functions to allocate per physical function (uint)
module_sig:     883f3504bb6455c596239a507de7fd112f6209f5f88b9e2c5f4d457a3f6dc0e096d12085a363109f
6ab44494697046d5e16f15f35b89a79aabc5b20

[root@border /]# cat /proc/interrupts | grep eth2
51:         81          5         49          0       PCI-MSI-X  eth2-rx-0
59:         68          0         60          5       PCI-MSI-X  eth2-rx-1
67:         44          5         84          0       PCI-MSI-X  eth2-rx-2
75:         48          0         81          5       PCI-MSI-X  eth2-rx-3
83:          0          0          0          0       PCI-MSI-X  eth2
234:         53          3          2          0       PCI-MSI-X  eth2-tx-0

Собираю, устанавливаю самый "свежий" драйвер с сайта Intel (2.2.9)

[root@border /]# modinfo igb
filename:       /lib/modules/2.6.18-194.el5/kernel/drivers/net/igb/igb.ko
version:        2.2.9
license:        GPL
description:    Intel(R) Gigabit Ethernet Network Driver
author:         Intel Corporation, <e1000-devel@lists.sourceforge.net>
srcversion:     D7A604F5946B6EDAA542EA6
alias:          pci:v00008086d000010D6sv*sd*bc*sc*i*
alias:          pci:v00008086d000010A9sv*sd*bc*sc*i*
alias:          pci:v00008086d000010A7sv*sd*bc*sc*i*
alias:          pci:v00008086d000010E8sv*sd*bc*sc*i*
alias:          pci:v00008086d0000150Dsv*sd*bc*sc*i*
alias:          pci:v00008086d000010E7sv*sd*bc*sc*i*
alias:          pci:v00008086d000010E6sv*sd*bc*sc*i*
alias:          pci:v00008086d00001518sv*sd*bc*sc*i*
alias:          pci:v00008086d0000150Asv*sd*bc*sc*i*
alias:          pci:v00008086d000010C9sv*sd*bc*sc*i*
alias:          pci:v00008086d00001516sv*sd*bc*sc*i*
alias:          pci:v00008086d00001511sv*sd*bc*sc*i*
alias:          pci:v00008086d00001510sv*sd*bc*sc*i*
alias:          pci:v00008086d0000150Fsv*sd*bc*sc*i*
alias:          pci:v00008086d0000150Esv*sd*bc*sc*i*
depends:        dca,8021q
vermagic:       2.6.18-194.el5 SMP mod_unload gcc-4.1
parm:           InterruptThrottleRate:Interrupt Throttling Rate (array of int)
parm:           IntMode:Interrupt Mode (array of int)
parm:           LLIPort:Low Latency Interrupt TCP Port (array of int)
parm:           LLIPush:Low Latency Interrupt on TCP Push flag (array of int)
parm:           LLISize:Low Latency Interrupt on Packet Size (array of int)
parm:           RSS:RSS - multiqueue receive count (array of int)
parm:           VMDQ:VMDQ - VMDq multiqueue receive (array of int)
parm:           max_vfs:max_vfs - SR-IOV VF devices (array of int)
parm:           QueuePairs:QueuePairs - TX/RX queue pairs for interrupt handling (array of int)
parm:           debug:Debug level (0=none, ..., 16=all) (int)

[root@border /]# cat /proc/interrupts | grep eth2
170:          1          0          0          0       PCI-MSI-X  eth2
178:         27          0         99         63       PCI-MSI-X  eth2-TxRx-0

Три очереди, как корова языком слизнула... :(

Вопрос - нафига козе бОян?? Или я что-то не понимаю?

И еще - вот тут товарищ пишет, что на этом чипе поддерживается 8 rx очередей. У меня выше 4-х (на родном драйвере) не показывалось, не смотря на успешное выполнение modprobe igb IntMode=3,3 RSS=8,8

Ну и последний вопрос - что делать? Не выёживаться и оставить родной драйвер, или все же есть варианты?

Изменено пользователем AlKov

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Опции загрузки драйвера одинаковые? Обрати внимание на доп. параметры загрузки которые появляются в случае загрузки интеловского драйвера. Обрати внимание так же на разницу в размере бинарника.

Зачем тебе несколько очередей, у тебя VLAN-ы терминируются серваком?

Изменено пользователем SokolovS

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Опции загрузки драйвера одинаковые? Обрати внимание на доп. параметры загрузки которые появляются в случае загрузки интеловского драйвера. Обрати внимание так же на разницу в размере бинарника.
Эмм.. А что за опции загрузки? Вот эти?
parm:           InterruptThrottleRate:Interrupt Throttling Rate (array of int)
parm:           IntMode:Interrupt Mode (array of int)
..etc..

Где они задаются и конкретно на какие необходимо обратить внимание?

И причем здесь разница в размере бинарника??

Зачем тебе несколько очередей, у тебя VLAN-ы терминируются серваком?
Да, именно так. Это роутер почти "всея сети". :)

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

изначально тоже странно

cat /proc/interrupts | grep eth1|awk -F " " {'print $6 " " $7'}

PCI-MSI-edge eth1-tx-0

PCI-MSI-edge eth1-tx-1

PCI-MSI-edge eth1-tx-2

PCI-MSI-edge eth1-tx-3

PCI-MSI-edge eth1-rx-0

PCI-MSI-edge eth1-rx-1

PCI-MSI-edge eth1-rx-2

PCI-MSI-edge eth1-rx-3

PCI-MSI-edge eth1

ещё есть сетевые карты ? отключить пробовали?

может у вас на другой eth повисла ?

grep -i igb /var/log/dmesg

???

Изменено пользователем Zaqwr

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

изначально тоже странно

cat /proc/interrupts | grep eth1|awk -F " " {'print $6 " " $7'}

PCI-MSI-edge eth1-tx-0

PCI-MSI-edge eth1-tx-1

PCI-MSI-edge eth1-tx-2

PCI-MSI-edge eth1-tx-3

PCI-MSI-edge eth1-rx-0

PCI-MSI-edge eth1-rx-1

PCI-MSI-edge eth1-rx-2

PCI-MSI-edge eth1-rx-3

PCI-MSI-edge eth1

ещё есть сетевые карты ? отключить пробовали?

может у вас на другой eth повисла ?

grep -i igb /var/log/dmesg

???

А что именно странного? Вот с родным драйвером
[root@border /]# cat /proc/interrupts | grep eth2|awk -F " " {'print $6 " " $7'}
PCI-MSI-X eth2-rx-0
PCI-MSI-X eth2-rx-1
PCI-MSI-X eth2-rx-2
PCI-MSI-X eth2-rx-3
PCI-MSI-X eth2
PCI-MSI-X eth2-tx-0

[root@border /]# grep -i igb /var/log/dmesg
igb 0000:01:00.0: Disabling ASPM L0s upstream switch port 0000:00:01.0
igb 0000:01:00.0: Intel(R) Gigabit Ethernet Network Connection
igb 0000:01:00.0: eth0: (PCIe:2.5Gb/s:Width x4) 00:XX:XX:XX:XX:XX
igb 0000:01:00.0: eth0: PBA No: 1030ff-0ff
igb 0000:01:00.0: Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s)
igb 0000:01:00.1: Disabling ASPM L0s upstream switch port 0000:00:01.0
igb 0000:01:00.1: Intel(R) Gigabit Ethernet Network Connection
igb 0000:01:00.1: eth1: (PCIe:2.5Gb/s:Width x4) 00:XX:XX:XX:XX:XX
igb 0000:01:00.1: eth1: PBA No: 1030ff-0ff
igb 0000:01:00.1: Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s)
igb 0000:02:00.0: Intel(R) Gigabit Ethernet Network Connection
igb 0000:02:00.0: eth2: (PCIe:2.5Gb/s:Width x4) 00:XX:XX:XX:XX:XX
igb 0000:02:00.0: eth2: PBA No: e43709-004
igb 0000:02:00.0: Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s)
igb 0000:02:00.1: Intel(R) Gigabit Ethernet Network Connection
igb 0000:02:00.1: eth3: (PCIe:2.5Gb/s:Width x4) 00:XX:XX:XX:XX:XX
igb 0000:02:00.1: eth3: PBA No: e43709-004
igb 0000:02:00.1: Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s)

Сетевых всего 4 - две "на борту" (82575) и одна (двухпортовая 82576) на PCI-EX

eth1 и eth3 отключены.

Изменено пользователем AlKov

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

PCI-MSI-X eth2-rx-0

PCI-MSI-X eth2-rx-1

PCI-MSI-X eth2-rx-2

PCI-MSI-X eth2-rx-3

PCI-MSI-X eth2

PCI-MSI-X eth2-tx-0

странно вот что, где ещё 3 tx-* и вот Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s) , а по идее должно быть Using MSI-X interrupts. 4 rx queue(s), 4 tx queue(s)

попробуйте бортовые в биосе отключить...

Изменено пользователем Zaqwr

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

странно вот что, где ещё 3 tx-* и вот Using MSI-X interrupts. 4 rx queue(s), 1 tx queue(s) , а по идее должно быть Using MSI-X interrupts. 4 rx queue(s), 4 tx queue(s)
А откуда такие данные? В смысле, что должно быть именно так (выделено)...
попробуйте бортовые в биосе отключить...
Гм.. А на кОй, извините, дъявол, я её (двухголовую PCI-EX + к имеющимся 2-м "набортным") тогда приобретал дополнительно??

Мне надо ИМЕННО 4 шт. сетевых, которые будут разруливать тО, чтО мне надо!

Собственно отсюда и возник этот пост, смысл которого, НАДО, или НЕ НАДО устанавливать дополнительные драйвера (в альтернативу тем, что встали с ОС) ??

Или это уже "предел возможного" и не стОит "рвать жилы" для достижения чего-либо более "сверхестественного"??

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А откуда такие данные? В смысле, что должно быть именно так (выделено)...
ну собственно именно для этого эти карты и используют.. на нескольких серверах они именно так и распараллеливают потоки...

 

http://download.intel.com/design/network/d...6_Datasheet.pdf

1.6.5 Rx and Tx Queues

The number of Tx and Rx queues in the 82576 was increased to 16 queues.

 

пролистайте ещё вот что...

http://forum.nag.ru/forum/lofiversion/inde...t46335-100.html

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Установил драйвер из elrepo (2.1.9), разницы практически никакой.

8-ми rx/tx очередей удалось добиться установкой options igb IntMode=2,2,2,2 VMDQ=4,4,8,8 в modprobe.conf. Кстати, если совместно с VMDQ использовать RSS=4,4,8,8 драйвер ругается на инвалид RSS. Если без VMDQ (только RSS), то требуемое кол-во очередей встаёт только на rx..

Вот так получилось с options igb IntMode=2,2,2,2 VMDQ=4,4,8,8 в modprobe.conf

[root@border /]# cat /proc/interrupts | grep eth2|awk -F " " {'print $6 " " $7'}
PCI-MSI-X eth2-TxRx-2
PCI-MSI-X eth2-TxRx-3
PCI-MSI-X eth2-TxRx-4
PCI-MSI-X eth2-TxRx-5
PCI-MSI-X eth2-TxRx-6
PCI-MSI-X eth2-TxRx-7
PCI-MSI-X eth2
PCI-MSI-X eth2-TxRx-0
PCI-MSI-X eth2-TxRx-1
[root@border /]# grep -i igb /var/log/dmesg
igb: 0000:01:00.0: igb_validate_option: Interrupt Mode set to 2
igb: 0000:01:00.0: igb_validate_option: VMDQ - VMDq multiqueue receive count set to 4
igb 0000:01:00.0: Intel(R) Gigabit Ethernet Network Connection
igb 0000:01:00.0: eth0: (PCIe:2.5Gb/s:Width x4)00:XX:XX:XX:XX:XX
igb 0000:01:00.0: Using MSI-X interrupts. 4 rx queue(s), 4 tx queue(s)
igb: 0000:01:00.1: igb_validate_option: Interrupt Mode set to 2
igb: 0000:01:00.1: igb_validate_option: VMDQ - VMDq multiqueue receive count set to 4
igb 0000:01:00.1: Intel(R) Gigabit Ethernet Network Connection
igb 0000:01:00.1: eth1: (PCIe:2.5Gb/s:Width x4)00:XX:XX:XX:XX:XX
igb 0000:01:00.1: Using MSI-X interrupts. 4 rx queue(s), 4 tx queue(s)
igb: 0000:02:00.0: igb_validate_option: Interrupt Mode set to 2
igb: 0000:02:00.0: igb_validate_option: VMDQ - VMDq multiqueue receive count set to 8
igb 0000:02:00.0: Intel(R) Gigabit Ethernet Network Connection
igb 0000:02:00.0: eth2: (PCIe:2.5Gb/s:Width x4)00:XX:XX:XX:XX:XX
igb 0000:02:00.0: Using MSI-X interrupts. 8 rx queue(s), 8 tx queue(s)
igb: 0000:02:00.1: igb_validate_option: Interrupt Mode set to 2
igb: 0000:02:00.1: igb_validate_option: VMDQ - VMDq multiqueue receive count set to 8
igb 0000:02:00.1: Intel(R) Gigabit Ethernet Network Connection
igb 0000:02:00.1: eth3: (PCIe:2.5Gb/s:Width x4)00:XX:XX:XX:XX:XX
igb 0000:02:00.1: Using MSI-X interrupts. 8 rx queue(s), 8 tx queue(s)

Пока не могу понять, что предпочтительнее - VMDQ, или RSS..

Кстати, настройки из ком. строки ничего не меняют, modprobe их просто проглатывает (даже не ругаясь на заведомо ошибочные) и все.. Результат = "0".. Работает только из modprobe.conf после перезагрузки..

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

AlKov

а со всеми остальными сетевухами что творится, и кстати на борту что за сетевая?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

# cat /etc/initramfs-tools/modules

igb IntMode=3,3,3,3 RSS=4,4,4,4 QueuePairs=0,0,0,0

 

#update-initramfs -u

 

#reboot

 

в дебиане по крайней мере

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

# cat /etc/initramfs-tools/modules

igb IntMode=3,3,3,3 RSS=4,4,4,4 QueuePairs=0,0,0,0

 

#update-initramfs -u

 

#reboot

 

в дебиане по крайней мере

А позвольте узнать, что за режим такой - 3?

Вот из README последнего igb:

IntMode

-------

Valid Range: 0-2

Default Value: 2

0 - Legacy Interrupts, single queue

1 - MSI interrupts, single queue

2 - MSI-X interrupts, single queue (default)

 

Allows changing interrupt mode and MQ status at load time, without requiring

a recompile. If the driver fails to enable a specific interrupt mode, it will

fail back to lesser capabilities.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

AlKov

а со всеми остальными сетевухами что творится,

Так видно же из dmesg. Все, как доктор прописал.
и кстати на борту что за сетевая?
Дык тут(последняя строка).

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Да, именно так. Это роутер почти "всея сети". :)
Именно роутер? - Т.е. не pppoe-nas?

 

Какой проц?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Да, именно так. Это роутер почти "всея сети". :)
Именно роутер? - Т.е. не pppoe-nas?

 

Какой проц?

Именно роутер + фаервол + NAT. NAS-ы (2шт. PPTP) живут на FreeBSD машинах (mpd5+ng_car). Основная задача обсуждаемого железа (%90) - разрулить все это (пользовательские туннели) в Интернет.

Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного.

Проц(ы) - Два двухядерных Intel Xenon E5503.

Все будет крутиться на CentOS 5.5 2.6.18-194.el5 #1 SMP Fri Apr 2 14:58:14 EDT 2010 x86_64 x86_64 x86_64 GNU/Linux.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного.

Проц(ы) - Два двухядерных Intel Xenon E5503.

в таком случае "тюнинг" явно лишний.....

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного.

Проц(ы) - Два двухядерных Intel Xenon E5503.

в таком случае "тюнинг" явно лишний.....

А NAT? Ему придется тянуть от 600 до 1000 (и более в перспективе) IP. Ну и 200Мбит это тоже далеко "не насовсем", имеет шанс вырасти раза в два за год.

Или тогда и тюнить? Просто хочется заранее соломку подстелить, ну хотя бы на год вперед. :)

И собственно по теме - каким образом (RSS, или VMDQ) все же распределять очереди на сетевых и какой драйвер предпочтительнее?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Именно роутер + фаервол + NAT. NAS-ы (2шт. PPTP) живут на FreeBSD машинах (mpd5+ng_car). Основная задача обсуждаемого железа (%90) - разрулить все это (пользовательские туннели) в Интернет.

Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного.

Проц(ы) - Два двухядерных Intel Xenon E5503.

Все будет крутиться на CentOS 5.5 2.6.18-194.el5 #1 SMP Fri Apr 2 14:58:14 EDT 2010 x86_64 x86_64 x86_64 GNU/Linux.

У вас 4 ядра и 4 сетевых карты - нет смысла разводить очереди по ядрам, потому как ядер мало. Прибейте по одной сетевой карте (т.е. одной очереди) к одному ядру.

С подобной нагрузкой подобный сервер справится легко, даже с учетом роста.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

У вас 4 ядра и 4 сетевых карты - нет смысла разводить очереди по ядрам, потому как ядер мало.
Вообще-то в "железе" я не очень.. Поэтому попрошу уточнить, сколько же всего ядер у двух E5503?

Вопрос собственно по причине того, что на другом форуме, где я обсуждаю весь сервер, была получена такая информация

Таким образом при восьми ядрах (помним, что в реале E5503 это два ядра с HT)
Кому верим? ;)

 

P.S. И все же хотелось увидеть ответ по теме - насчет драйверов и конфигурации сетевых..

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Цитата(andriko @ 8.6.2010, 12:38) *

Цитата(AlKov @ 7.6.2010, 20:48) *

Предполагаемая нагрузка - порядка 200 Мбит, ~30-50 Kpps. VLAN-ы НЕ пользовательские, соотв. их немного.

Проц(ы) - Два двухядерных Intel Xenon E5503.

 

 

в таком случае "тюнинг" явно лишний.....

 

А NAT? Ему придется тянуть от 600 до 1000 (и более в перспективе) IP. Ну и 200Мбит это тоже далеко "не насовсем", имеет шанс вырасти раза в два за год.

Или тогда и тюнить? Просто хочется заранее соломку подстелить, ну хотя бы на год вперед. :)

угу

а к тому времени драйвера и софт еще 10 раз перепишут

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

У вас 4 ядра и 4 сетевых карты - нет смысла разводить очереди по ядрам, потому как ядер мало.
Вообще-то в "железе" я не очень.. Поэтому попрошу уточнить, сколько же всего ядер у двух E5503?

Вопрос собственно по причине того, что на другом форуме, где я обсуждаю весь сервер, была получена такая информация

Таким образом при восьми ядрах (помним, что в реале E5503 это два ядра с HT)
Кому верим? ;)
Наверное все же Интелу. Т.е. 2 ядра на процессор, гипертрейдинга нет - в итоге 4 ядра на систему.
P.S. И все же хотелось увидеть ответ по теме - насчет драйверов и конфигурации сетевых..
Вам чисто теоретически что ли? Ну тогда ставьте два E5520 (16 со включенным гепертрейдингом) + ванильное ядро (выше 2.6.27 - в нем MultiQueueTX реализовано было) + последние интеловские дрова (RSS - 4 совмещенные очереди на один интерфейс) - и будет Вам счастье. Такой аппарат 2Г в дуплексе прожует и не подавится... А возможно и больше.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Вопрос собственно по причине того, что на другом форуме, где я обсуждаю весь сервер, была получена такая информация

Таким образом при восьми ядрах (помним, что в реале E5503 это два ядра с HT)
Кому верим? ;)
Наверное все же Интелу. Т.е. 2 ядра на процессор, гипертрейдинга нет - в итоге 4 ядра на систему.

Вот и верь после этого людям! :)
P.S. И все же хотелось увидеть ответ по теме - насчет драйверов и конфигурации сетевых..
Вам чисто теоретически что ли? Ну тогда ставьте два E5520 (16 со включенным гепертрейдингом) + ванильное ядро (выше 2.6.27 - в нем MultiQueueTX реализовано было) + последние интеловские дрова (RSS - 4 совмещенные очереди на один интерфейс) - и будет Вам счастье. Такой аппарат 2Г в дуплексе прожует и не подавится... А возможно и больше.

Да какая теория!! Машине через две недели "на работу", а я в "дровах" никак не разберусь..

Jugernault, ну вот что бы Вы посоветовали в данном случае? Оставить "родной" драйвер без всяких RSS и VMDQ, или все же покрутить текущий установленный? Если второе, то чтО конкретно?

Кстати, немного уточню - две "набортные" сетевые (82575) будут практически отдыхать, основная нагрузка ляжет именно на 82576-е. В этом контексте что-то меняется?

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А позвольте узнать, что за режим такой - 3?

Вот из README последнего igb:

September 15, 2009 igb-2.1.1.tar.gz

README

IntMode
-------
Valid Range:    0-2
Default Value:  2
0 - Legacy Interrupts, single queue
1 - MSI interrupts, single queue
2 - MSI-X interrupts, single queue (default)
3 - MSI-X interrupts, multiple queues

igb.h

/* Interrupt modes, as used by the IntMode paramter */
#define IGB_INT_MODE_LEGACY                0
#define IGB_INT_MODE_MSI                   1
#define IGB_INT_MODE_MSIX                  2

igb_param.c

#define MAX_INTMODE                    IGB_INT_MODE_MSIX
#define MIN_INTMODE                    IGB_INT_MODE_LEGACY

хотя в README есть описание(3 - MSI-X interrupts, multiple queues), валидация параметра не должна пройти

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Начну с конца...

 

Кстати, немного уточню - две "набортные" сетевые (82575) будут практически отдыхать, основная нагрузка ляжет именно на 82576-е. В этом контексте что-то меняется?
Но Вы же вроде бы говорили что необходимо именно четыре гигабитных интерфейса? А теперь получается что два будут курить?

 

Конечно меняется...

В таком случае вы можете сплясать вот так - options igb IntMode=2,2,2,2 RSS=2,2,2,2 QueuePairs=1,1

И положить на каждый поцессор (два ядра) по две очереди с двух интерфейсов - сильно + слабо загруженного и сильно + слабо загруженного.

Да какая теория!! Машине через две недели "на работу", а я в "дровах" никак не разберусь..

Jugernault, ну вот что бы Вы посоветовали в данном случае? Оставить "родной" драйвер без всяких RSS и VMDQ, или все же покрутить текущий установленный? Если второе, то чтО конкретно?

Собрать ванильное ядро 2.6.31, взять последнюю версию ibg с соурсфоржа, сконструировать как написано выше.

VMDQ несколько не из той оперы.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Собрать ванильное ядро 2.6.31, взять последнюю версию ibg с соурсфоржа, сконструировать как написано выше.
Centos нормально переварит 31 ядро?

AlKov

может чтонить отличное от Centos ?

Изменено пользователем Zaqwr

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.