Перейти к содержимому
Калькуляторы

И да, еще. Не знаю, насколько это важно, но.

 

Вот приближенный график загрузки ядер процессора. Видно, что с 08:15 до 08:20 CPU2 уходит в ноль. То есть не загружено вовсе, хотя это невозможно, потому как на него привязкой к ядру назначено прерывание одного из векторов сетевой карты:

 

/bin/echo 4 > /proc/irq/`cat /proc/interrupts | grep 'eth2-TxRx-2' ...................

 

Заметил только сейчас. Не знаю что и думать.

post-114-083180200 1355311973.txt

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Еще мысли. Дельта = 299966086829 нс

 

299966086829/1000/1000/1000 = 299.96 сек = 5 минут. Коррелирует с графиком падения нагрузки CPU2 в ноль.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Поднял отдельно тему(чтобы сторонним было легче искать) подбора железки которая в принципе подходит и под софт-раутер. Вообще если кому http://forum.nag.ru/...showtopic=82136

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Коллеги, поставил машину самосбор под софтроутер на серверной маме Supermicro (чипсет Intel C202) + 4-ядерный процессор Intel i5 (без гипертрединга).

...

С чем может быть связано такое поведение оперсистемы? Стоит ли отказаться от ACPI для решения вопроса? Может, какие-то опции ядра поправить? Что еще можно предпринять? TSC нужен как воздух.

 

Проблема разрешилась путем отключения ACPI. До этого я еще успел заменить процессор на двухядерный i3 и 4-ядерный Xeon E3. На i3 проблема не проявляла себя, то есть процессор и оперсистема работали штатно. При установке Xeon E3 проблема снова вылезла - оперсистема уходила на hpet. Отключение ACPI разрешило вопрос. Не очень красивое решение, но пока так, на основные функции не влияет, а со временем докопаюсь.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Прочитал все 29 страниц, и понял, что лучше бы этого не делал. Потому что теперь от разных и порой противоречащих рецептов у меня в голове настоящая каша :) Хорошо бы какие-нибудь базовые вещи вынести в первое сообщение. Своего рода FAQ и чеклист. Ну да ладно.

У меня имеется сервер с центосом 6.3, Помимо встроенных сетевых на 82567LM-2 и 82574L есть отдельная двухпортовая Intel ET (82576). В сервере установлены два четырёхядерных Xeon E5606.

Имеется два аплинка с fullview примерно по 300 мегабит каждый. Суммарная нагрузка в пике до 550 мегабит/с в каждую сторону (примерно по 80-90 kpps входящего и столько же исходящего). Аплинки вланами заведены в одну голову, три влана потребителей (один для всех и два отдельных для крупных клиентов) на другой голове. Встроенные сетевые не используются.

Помимо роутинга есть htb-шейпинг с хэшами, плюс блокировка через ipset.

Сейчас после ребута я никак вручную не прибивал прерывания к ядрам, и топ выглядит так:

top - 22:58:35 up  2:37,  2 users,  load average: 0.08, 0.20, 0.24
Tasks: 219 total,   1 running, 218 sleeping,   0 stopped,   0 zombie
Cpu0  :  0.0%us,  0.0%sy,  0.0%ni,100.0%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
Cpu1  :  0.0%us,  1.0%sy,  0.0%ni, 27.6%id,  0.0%wa,  0.0%hi, 71.4%si,  0.0%st
Cpu2  :  0.0%us,  0.0%sy,  0.0%ni,100.0%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
Cpu3  :  0.0%us,  0.3%sy,  0.0%ni, 21.5%id,  0.0%wa,  0.0%hi, 78.2%si,  0.0%st
Cpu4  :  0.0%us,  0.0%sy,  0.0%ni,100.0%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
Cpu5  :  0.0%us,  0.0%sy,  0.0%ni, 23.2%id,  0.0%wa,  0.0%hi, 76.8%si,  0.0%st
Cpu6  :  0.0%us,  0.3%sy,  0.0%ni, 99.7%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
Cpu7  :  0.0%us,  0.0%sy,  0.0%ni, 26.5%id,  0.0%wa,  0.0%hi, 73.5%si,  0.0%st

Драйвер igb стандартный из поставки центоса (3.2.10-k), никаких доп. параметров при загрузке не устанавливается. Очереди связанные tx-rx, по восемь штук на каждой сетевой.

Нужно ли сейчас что-то оптимизировать? В теме я часто видел, что эти две головы объединяют в бонд. Зачем? На какие параметры ethtool обратить внимание? Есть ли какие-то рекомендованные параметры для драйвера под мои цифры?

Помогите :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Сейчас после ребута я никак вручную не прибивал прерывания к ядрам, и топ выглядит так

Топ выглядит паршиво. Прибейте и будет сразу лучше. По крайней мере 50% успеха.

 

ethtool -k tso off gro off gso off

 

Драйвер обновить и загружать с параметрами RSS (по числу ядер) и Interrupt в районе 10-20к + очереди не делить на tx-rx.

 

ifconfig tx можно поднять до 10000

 

Про sysctl не буду, а то там еще очень всего много. Сначала разберитесь с прибиванием.

 

Две головы, если речь о 82576, лучше связать в bond для более корректной нагрузки и потенциально бОльшей пропускной (до 2 Гбит вместо 1 Гбит).

 

При таком трафике лучше не трогать встроенные сетевки, чтобы не мешать работе 82576. Двухпортового 82576 будет более чем достаточно для вашего объема.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Не знаю, насколько это разумно, но сейчас прибил такой лесенкой:

  
 55:           1           0           0           0           0           0           0           0    PCI-MSI-edge      eth1
 56:   [11069556]          0           0  1161128062           0           0           0           0    PCI-MSI-edge      eth1-TxRx-0
 57:   [18521978]      51830           0           0           0  2399348664           0           0    PCI-MSI-edge      eth1-TxRx-1
 58:          23   [10293156]          0       10001           0           0           0  1191214248    PCI-MSI-edge      eth1-TxRx-2
 59:       10163 [1152649703]          0           0           0           0           0           0    PCI-MSI-edge      eth1-TxRx-3
 60:       11489           0    [9828883]          0           0           0           0  1148097959    PCI-MSI-edge      eth1-TxRx-4
 61:       10975           0   [10324332]          0           0  1141687473           0           0    PCI-MSI-edge      eth1-TxRx-5
 62:        9611           0           0  [142411233]          0           0           0           0    PCI-MSI-edge      eth1-TxRx-6
 63:       10107  1159144435           0    [9571044]          0           0           0           0    PCI-MSI-edge      eth1-TxRx-7
 64:           1           0           0           0           0           0           0           0    PCI-MSI-edge      eth3
 65:          22           0           0           0    [8249542] 1042669775       51497           0    PCI-MSI-edge      eth3-TxRx-0
 66:          22           0           0  2444378745   [15203287]          0       87605           0    PCI-MSI-edge      eth3-TxRx-1
 67:       13251          12       21684           0           0    [8350308]          0  1034762213    PCI-MSI-edge      eth3-TxRx-2
 68:          22  1071911469       26593           0       14203    [8157025]          0           0    PCI-MSI-edge      eth3-TxRx-3
 69:          22           0       16115  1046380147           0           0    [8206871]     584722    PCI-MSI-edge      eth3-TxRx-4
 70:          22  1002006202           0           0           0      536994    [7820728]      26289    PCI-MSI-edge      eth3-TxRx-5
 71:          22           0           0     1110091           0       13662           0 [1032518059]   PCI-MSI-edge      eth3-TxRx-6
 72:          22      961211           0       13764           0   999948926           0    [7667969]   PCI-MSI-edge      eth3-TxRx-7

Старая статистика до прибивания портит наглядность, но должно быть понятно :) Судя по всему, имеет смысл, сократить количество очередей до четырёх.

А чем полезно выключение оффлоадов?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Судя по всему, имеет смысл, сократить количество очередей до четырёх.

Не стоит. По всем 8 ядрам очередями каждый интерфейс размазать - и будет счастье.

 

А чем полезно выключение оффлоадов?

Тем, что толку 0 от них в роутинге, а с шейперами и т.п. они конфликтуют.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Дропы есть? Канал в полку бывает? По LA видно что сервер почти курит. Проблемы есть? Нет? Зачем их решать тогда? :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Дропы есть? Канал в полку бывает? По LA видно что сервер почти курит. Проблемы есть? Нет? Зачем их решать тогда? :)

Ну мало ли. Надо быть готовым ко всему :)

 

Кстати, тут подворачивается сервер HP Proliant DL380 G5 с сетевыми на BCM5708. Вот они поддерживает multi-queue или тоже надо будет туда что-нибудь вроде Intel 82576 ставить? Сколько гуглил, так и не нашёл точного ответа.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Надо ставить Intel, проходили G5.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

BCM5708

Однопоточки (потоки у них зачем-то в железе есть, но MSI-X не поддерживается, как следствие - инты не разделить). Плюс неплохо так грузят интами.

Короткоочередные, при приближении нагрузки к 80% очень любят дропы даже при недогруженном проце.

С другой стороны - для начального уровня (до ~1-1.5 Гбит трафика на что-то класса E5420) - вполне подойдут при условии использования RPS. Даже без специфичных твиков.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А что на счет BCM5709c? Там очереди работают, но отзывов как-то не встречал.. Есть HPшный G6 с 6тью такими интерфейсами, не хочется просто так их менять.

Изменено пользователем kayot

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Взорвал себе мозг обнаружив одну интересную закономерность в работе софтроутера. А именно:

Есть сервер на двух Xeon E5540. На борту два порта: BCM57711E. Вставлена платка на 4 порта: 82571EB.

Два встроенных бродкомовских интерфейса собраны в lacp bonding bond0 и смотрят в сторону интернета (линки по 1Гб). На каждый порт по 4 очереди/прерывания развешаны на 4 ядра первого процессора. Оставшиеся 4 интела собраны в bond1 и смотрят внутрь. Интерапты интелов повешены на 4 ядра второго процессора.

CPU0       CPU1       CPU2       CPU3       CPU4       CPU5       CPU6       CPU7       
 68:        250          0          0          0 2093741818          0          0          0  IR-PCI-MSI-edge      eth2
 73:     161135          0          0          0          0          0          0          0  IR-PCI-MSI-edge      eth0
 75: 1465180138          0          0          0          0          0          0          0  IR-PCI-MSI-edge      eth0-fp-0
 76:      16593 3647641664          0          0          0          0          0          0  IR-PCI-MSI-edge      eth0-fp-1
 77:       4447          0 1497707430          0          0          0          0          0  IR-PCI-MSI-edge      eth0-fp-2
 78:       9186          0          0 1510644930          0          0          0          0  IR-PCI-MSI-edge      eth0-fp-3
 79:     161144          0          0          0          0          0          0          0  IR-PCI-MSI-edge      eth1
 81:       5112 1513929435          0          0          0          0          0          0  IR-PCI-MSI-edge      eth1-fp-0
 82: 3599112940          0          0          0          0          0          0          0  IR-PCI-MSI-edge      eth1-fp-1
 83:       5240          0          0 1439802463          0          0          0          0  IR-PCI-MSI-edge      eth1-fp-2
 84:       4332          0 1462675245          0          0          0          0          0  IR-PCI-MSI-edge      eth1-fp-3
 85:        227          0          0          0          0 2118178819          0          0  IR-PCI-MSI-edge      eth3
 86:        228          0          0          0          0          0 2114268794          0  IR-PCI-MSI-edge      eth4
 87:        225          0          0          0          0          0          0 2156799972  IR-PCI-MSI-edge      eth5

 

Через сервер бегает трафик. На входе (bond0) около 800мбит. Загрузка процессоров далека от 100%. При этом и на самом сервере, и на клиенте за ним, наблюдается следующая история. Тянем в один поток wget'ом с некоторого ftp, стоящего у вышестоящего провайдера. Тяну в 1 поток 11.2мбайта/с (около 100 честных мегабит) как на самом сервере(роутере), так и на клиенте. Берем файл на ftp2.ru.freebsd.org. Видим картинку куда печальнее - в лучшие времена около 4-7мегабайт/с, при большей нагрузке может быть и того меньше. Но что примечательно - стоит потянуть в несколько потоков lftp pget -n 10, например, и видим замечательно скорость около 100мбит/с, а на самом сервере и все несколько сотен. Если же клиентский IP отроутить мимо этого самого софтроутера - закачка в одну сессию становится веселее.

Откуда растут вопросы:

1. Где затык? Ведь с некоего одного ftp мы видим в один поток все честные 100мбит, а с некоего другого в один поток ни в какую. При этом как показывают смежные тесты - фтп сервер способен отдавать существено большую скорость в 1 поток, нежели мы наблюдаем в реальности.

2. В какую сторону можно двигаться и куда копать?

 

А что на счет BCM5709c? Там очереди работают, но отзывов как-то не встречал.. Есть HPшный G6 с 6тью такими интерфейсами, не хочется просто так их менять.

 

Стоит две 2-х головых платки таких как ниже. Вроде едут норм.

 

03:00.1 Ethernet controller: Broadcom Corporation NetXtreme II BCM5709 Gigabit Ethernet (rev 20)
       Subsystem: Broadcom Corporation Device 1917
       Flags: bus master, fast devsel, latency 0, IRQ 17
       Memory at fa000000 (64-bit, non-prefetchable) [size=32M]
       Capabilities: [48] Power Management version 3
       Capabilities: [50] Vital Product Data
       Capabilities: [58] MSI: Enable- Count=1/16 Maskable- 64bit+
       Capabilities: [a0] MSI-X: Enable+ Count=9 Masked-
       Capabilities: [ac] Express Endpoint, MSI 00
       Capabilities: [100] Device Serial Number 00-10-18-ff-fe-9d-12-26
       Capabilities: [110] Advanced Error Reporting
       Capabilities: [150] Power Budgeting <?>
       Capabilities: [160] Virtual Channel
       Kernel driver in use: bnx2
       Kernel modules: bnx2

 

CPU0       CPU1       CPU2       CPU3       CPU4       CPU5       
44: 1530325219          0          0          0          0          6   PCI-MSI-edge      eth2-0
45: 3512258558          0          0          0          0          3   PCI-MSI-edge      eth2-1
46:          0 4248180959          0          0          0          1   PCI-MSI-edge      eth2-2
47:          0          0  987437417          0          0          5   PCI-MSI-edge      eth2-3
48:          0          0          0  383412068          0          1   PCI-MSI-edge      eth2-4
49:          0          0          0          0  841825087          1   PCI-MSI-edge      eth2-5
50:          0          0          0          1          0 4040313913   PCI-MSI-edge      eth2-6
52:          0          0          0          0          0 1463678266   PCI-MSI-edge      eth3-0
53:          0          0          0          0          0 3460050862   PCI-MSI-edge      eth3-1
54: 3409670956          0          0          0          1          0   PCI-MSI-edge      eth3-2
55:          0  457389160          0          0          0          8   PCI-MSI-edge      eth3-3
56:          0          0  446337170          0          0          1   PCI-MSI-edge      eth3-4
57:          0          0          0  395466091          0          1   PCI-MSI-edge      eth3-5
58:          0          0          0          0  519687263          1   PCI-MSI-edge      eth3-6
60:          0          0          0          0  618133199         14   PCI-MSI-edge      eth0-0
61:          0          0          0          0 2789380916         23   PCI-MSI-edge      eth0-1
62:          0          0          0          0          0 1882917262   PCI-MSI-edge      eth0-2
63: 1201784718          0          0          0          2         18   PCI-MSI-edge      eth0-3
64:          0  503770750          0          0          0          1   PCI-MSI-edge      eth0-4
65:          0          0  283256949          0          0          4   PCI-MSI-edge      eth0-5
66:          0          0          0  233077182          0          1   PCI-MSI-edge      eth0-6
68:          0          0          0  759127286          1         16   PCI-MSI-edge      eth1-0
69:          0          0          0 2933903470          0          8   PCI-MSI-edge      eth1-1
70:          0          0          0          0 2873845998          8   PCI-MSI-edge      eth1-2
71:          0          0          0          0          0 1043693785   PCI-MSI-edge      eth1-3
72: 3520592126          0          0          0          0         10   PCI-MSI-edge      eth1-4
73:          0 4151452057          0          0          1          3   PCI-MSI-edge      eth1-5
74:          0          0 3994587621          0          0          2   PCI-MSI-edge      eth1-6

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Тяну в 1 поток 11.2мбайта/с (около 100 честных мегабит) как на самом сервере(роутере), так и на клиенте. Берем файл на ftp2.ru.freebsd.org. Видим картинку куда печальнее - в лучшие времена около 4-7мегабайт/с, при большей нагрузке может быть и того меньше. Но что примечательно - стоит потянуть в несколько потоков lftp pget -n 10, например, и видим замечательно скорость около 100мбит/с, а на самом сервере и все несколько сотен. Если же клиентский IP отроутить мимо этого самого софтроутера - закачка в одну сессию становится веселее.

Откуда растут вопросы:

1. Где затык? Ведь с некоего одного ftp мы видим в один поток все честные 100мбит, а с некоего другого в один поток ни в какую. При этом как показывают смежные тесты - фтп сервер способен отдавать существено большую скорость в 1 поток, нежели мы наблюдаем в реальности.

2. В какую сторону можно двигаться и куда копать?

Если отроутить мимо - насколько веселее закачка становится?

Найдите файлообменник, способный отдавать несколько сот мбит, на нем и тестируйте.

У нас были подобные подземные стуки. Вплоть до того, что с IP адресов, относящихся к различным AS, скорость однопотока отличалась в разы. Решилось сменой магистрала (магистрал арендовал канал на IX у другого магистрала/домотелекома, у которого каналы были где-то в полку забиты).

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Если отроутить мимо - насколько веселее закачка становится?

Найдите файлообменник, способный отдавать несколько сот мбит, на нем и тестируйте.

У нас были подобные подземные стуки. Вплоть до того, что с IP адресов, относящихся к различным AS, скорость однопотока отличалась в разы. Решилось сменой магистрала (магистрал арендовал канал на IX у другого магистрала/домотелекома, у которого каналы были где-то в полку забиты).

 

Как-то так. Исходные данные: сервер и еще один ПК торчат в одном коммутаторе в одном влане. ПК - одним портом 1Г, сервер транком 1+1Г. Вешаем айпишник на ПК. Включаем закачку:

23% [====================================>                                                                                                                         ] 553 263 792 34,2M/s  ост 53s

Скорость летит 30-34Мбайт/с.

Перевешиваем айпи на сервер.

И уже:

5% [=======>                                                                                                                                                      ] 123.050.248 6,13M/s  eta 4m 53s

Колеблется - в пиках до 10Мбайт, в среднем около 6. Причем полосы на интерфейсах в достатке:

eth0:  452.28 Mb/s In   456.11 Mb/s Out -  62037.0 p/s In   67201.0 p/s Out
 eth1:  500.63 Mb/s In   406.58 Mb/s Out -  71679.0 p/s In   65577.0 p/s Out

То есть запаса почти в половину на каждом.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Перевешиваем айпи на сервер.

И уже:

Точно закачка идет с перевешанного ИП? На всякий случай убедитесь tcpdump к примеру.

У нас подобное (с точностью до наоборот) наблюдалось из-за проблем с аплинком: на бордюре при закачке с ip из AS аплинка - 30-40 МБ/сек, при закачке с ip нашей AS - 3-5 МБ/с.

Смущает то, что с сервера аплинка закачка в норме - это намекает, что скорее вего проблемы дальше, чем ваш сервер.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Точно закачка идет с перевешанного ИП? На всякий случай убедитесь tcpdump к примеру.

У нас подобное (с точностью до наоборот) наблюдалось из-за проблем с аплинком: на бордюре при закачке с ip из AS аплинка - 30-40 МБ/сек, при закачке с ip нашей AS - 3-5 МБ/с.

Смущает то, что с сервера аплинка закачка в норме - это намекает, что скорее вего проблемы дальше, чем ваш сервер.

 

Убеждался tcpdump'ом. Указывал адрес wget --bind-address=<ip>. Соль в том, что:

а) один и тот же адрес, включенный в один и тот же коммутатор, только на разных железках и в одном случае lacp, а в другом просто один порт - выдают разные скорости в один поток.

б) если предположить затык в пути до аплинка - но с него же едет хорошо в обоих случаях

в) если предположить затык за ним, то, во-первых, адрес у меня и на одной, и на другой железке то один и тот же, одним и тем же он остается и при запуске закачки в несколько потоков, а скорость чудным образом рождается из бездны.

Вот такой вот комок противоречий, потому и не понятно ничего.

Изменено пользователем heap

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

у кого-нибудь сетевуха 82574L тянет 450-500 мбит/с FD с шейпером (TC HFSC) + лёгкие правила iptables + FV BGP? Вообще возможно ли такое? Процессор Xeon 3430 2,4 GHz, памяти 2 Гб.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

у кого-нибудь сетевуха 82574L тянет 450-500 мбит/с FD с шейпером (TC HFSC) + лёгкие правила iptables + FV BGP? Вообще возможно ли такое? Процессор Xeon 3430 2,4 GHz, памяти 2 Гб.

4 сетевухи 82574L тянут порядка 500 мбит/с на порт с bonding, VLAN/QinQ, декапсуляцией PPPoE, сложным шейпером (TC HTB + IFB) + массивные правила iptables/ipset для классификации и сервисов + FV BGP на X5660 @ 2.8.

Загрузка по каждому из 6 ядер при этом не превышает 35%. X3430 где-то в 2.5-3 раза слабее с учётом числа ядер, т.е. впритык, но должно потащить, если без PPPoE, и шейпер не очень сложный.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Точно закачка идет с перевешанного ИП? На всякий случай убедитесь tcpdump к примеру.

У нас подобное (с точностью до наоборот) наблюдалось из-за проблем с аплинком: на бордюре при закачке с ip из AS аплинка - 30-40 МБ/сек, при закачке с ip нашей AS - 3-5 МБ/с.

Смущает то, что с сервера аплинка закачка в норме - это намекает, что скорее вего проблемы дальше, чем ваш сервер.

 

У меня такое ощущение, что не работает или как-то не так работает NAPI в bnx2x. На коленке сделал скриптик, который раз в 5 секунд считает PPS и IRQPS для интерфейсов. Получается что-то такое:

eth0  --  PPS: 76897  --  IRQps: 70219
eth1  --  PPS: 72635  --  IRQps: 66999
eth2  --  PPS: 39957  --  IRQps: 14058
eth3  --  PPS: 32346  --  IRQps: 16307
eth4  --  PPS: 33862  --  IRQps: 15686
eth5  --  PPS: 29576  --  IRQps: 16251
Total:  --  PPS: 285273  --  IRQps: 199520

driver: bnx2x
version: 1.74.22
driver: bnx2x
version: 1.74.22
driver: e1000e
version: 2.2.14-NAPI
driver: e1000e
version: 2.2.14-NAPI
driver: e1000e
version: 2.2.14-NAPI
driver: e1000e
version: 2.2.14-NAPI

Интела в два раза примерно отличается PPS от IRQPS, а вот с бродкомом что-то не то. :(

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

С NAPI отбой. Работает.

Посмотрел perf top. С небольшим отрывом лидирует: __ticket_spin_lock. Что за зверь такой? Кто-нибудь уже сталкивался?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Господа! Тут в ветке много выкладок типа - подтюнинговал на роутере такие-то sysctl переменные. Разве следующие переменные несут смысл именно для роутера и транзитного трафика?

net.core.wmem_max
net.core.wmem_default
net.ipv4.tcp_wmem
net.core.rmem_max
net.core.rmem_default
net.ipv4.tcp_rmem
net.ipv4.tcp_max_syn_backlog
net.ipv4.tcp_sack
net.ipv4.tcp_no_metrics_save
net.core.somaxconn

 

net.ipv4.ipfrag_high_thresh
net.ipv4.ipfrag_low_thresh
net.ipv4.ipfrag_time
net.ipv4.ipfrag_secret_interval
net.ipv4.ipfrag_max_dist

Изменено пользователем heap

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

У меня такое ощущение, что не работает или как-то не так работает NAPI в bnx2x.

Работать-то он работает, но на плотных потоках всё равно появляются interrupt'ы, и много, а с coalescing'ом там всё не просто плохо, а очень плохо.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

У меня такое ощущение, что не работает или как-то не так работает NAPI в bnx2x.

Работать-то он работает, но на плотных потоках всё равно появляются interrupt'ы, и много, а с coalescing'ом там всё не просто плохо, а очень плохо.

 

Это надо так понимать, что сетевые на данном чипе - дело печальное?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.