Перейти к содержимому
Калькуляторы
7 часов назад, Стич сказал:

Ну не знаю, имею два роутера с двумя физическими процессорами, прерывания карт прибиты к ядрам, numa=off,

34gbps туда и обратно проблем не имею.

и что процессоры загружены равномерно? 
 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

1 час назад, sirmax сказал:

и что процессоры загружены равномерно? 

Если сетевые карты "прибиты" к процам - то тут только вопрос  в равномерности нагрузки на сетевые платы.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

12 часов назад, Стич сказал:

Ну не знаю, имею два роутера с двумя физическими процессорами, прерывания карт прибиты к ядрам, numa=off,

34gbps туда и обратно проблем не имею.

А что за процессоры, если не секрет?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

9 часов назад, sdy_moscow сказал:

Если сетевые карты "прибиты" к процам - то тут только вопрос  в равномерности нагрузки на сетевые платы.

4x10Gbps bond плюс on-stick поэтому нагрузка на сетевые равномерная нагрузка на процы то же.

 

5 часов назад, 1boris сказал:

А что за процессоры, если не секрет?

E5-2697A v4 покупали на aliexpress за копейки с запасом. Загрузка 50%

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

20 часов назад, Стич сказал:

34gbps туда и обратно проблем не имею.

Какой суммарный входящий в сервер PPS? PPPoE? IPoE? Я так понимаю у вас NAT. Штатный nftables - или еще что-то? Есть ли ipt_netflow?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

2 по 4х10 (типа вход/выход) ? или один 4*10 и на вланы побито и трафик 15/3 гиг в одном влане и 15/3 после нат в другом влане ? Итоговый трафик тоже будет как бы порядка 34 гиг

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

32 минуты назад, Azamat сказал:

2 по 4х10 (типа вход/выход) ? или один 4*10 и на вланы побито и трафик 15/3 гиг в одном влане и 15/3 после нат в другом влане ? Итоговый трафик тоже будет как бы порядка 34 гиг

Итоговый трафик у вас будет как бы порядка 18Г. На бонд 18вход 18 выход . Не ну если считать по cisco маркетингу тогда 18+18=36

У меня На бонд 34вход 34 выход если считать по cisco маркетингу тогда 34+34 аж 68

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

По "чесноку" считается то если на борту 2х40 (ну или 2 по 4х10) например - тогда да - 34/6 в серую сеть, 34/6 выход за НАТ- итого 80 гиг. 

 

причем эти /6 туда - сюда делают серверу больнее

 

В вашем случае не исключено, что 28/5 туда - сюда, графики покажут что зеленая/синяя зоны по 33-34 гига

чисто технически 28/3 ( 2х40 Мелланокс) натятся на бытовом i9-9900k и плате Асус.

Изменено пользователем Azamat

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

13 часов назад, sdy_moscow сказал:

Если сетевые карты "прибиты" к процам - то тут только вопрос  в равномерности нагрузки на сетевые платы.

 Если я правильно понимаю современную архитектуру многопроцессорных систем то PCI  карта, точнее слот тоже относится к какой-то NUMА-ноде? 

Или это не так?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

1 час назад, Azamat сказал:

По "чесноку" считается то если на борту 2х40 (ну или 2 по 4х10) например - тогда да - 34/6 в серую сеть, 34/6 выход за НАТ- итого 80 гиг. 

Если схема подключения on-stick то в вашем случае достаточно одной 4x10 Объединяем 4x10 в один bond в нём один vlan трафик до nat второй vlan после, загрузка ровненько распределяется по ядрам. Зачем плодить 2 по 4x10?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

1 час назад, sirmax сказал:

 Если я правильно понимаю современную архитектуру многопроцессорных систем то PCI  карта, точнее слот тоже относится к какой-то NUMА-ноде? 

Или это не так?

http://mails.dpdk.org/archives/dev/2013-December/000988.html

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

1 час назад, sirmax сказал:

Если я правильно понимаю современную архитектуру многопроцессорных систем то PCI  карта, точнее слот тоже относится к какой-то NUMА-ноде? 

Да. И обычно в документации к материнской плате есть картинка. Пример во вложении.

supermicro-x11ddw-l-4193897511.jpg

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

1 минуту назад, Умник сказал:

Да. И обычно в документации к материнской плате есть картинка. Пример во вложении.

supermicro-x11ddw-l-4193897511.jpg

 

8 минут назад, Стич сказал:


Я не могу интерпретировать вывод 
 

root@r710:~# cat /sys/class/net/enp6s0f0/device/numa_node
-1
root@r710:~# cat /sys/class/net/enp7s0f0/device/numa_node
-1


(в моем случае хочется numa affinity, что бы VNF давалась виртуалке на той же ноде что и память) 

Пока задача скорее теоретическая

 

@Умник
Если я правильно понимаю схему, то в 2-х сокетной схеме разумнее использовать для роутинга PCI-слоты для NUMA-node 1 (второй сокет), так как на первом остануться другие задачи которые нельзя перенести?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

1 минуту назад, sirmax сказал:

Я не могу интерпретировать вывод 

Оба процессора установлены?

numa=off не передаете ядру?

В BIOS не должен быть включен Node Interleaving.

 

4 минуты назад, sirmax сказал:

так как на первом остануться другие задачи которые нельзя перенести?

Мне не кажется, что если машина используется под маршрутизатор, что-то из того, что жестко подключено к первому сокету, создает сколь-нибудь значимую нагрузку.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

В 16.01.2024 в 12:57, Умник сказал:

Оба процессора установлены?

numa=off не передаете ядру?

В BIOS не должен быть включен Node Interleaving.

Проверил на разных серверах, на разных сетевых картах - ситуация одинаковая
 

ethtool -i enp7s1f0
driver: qla3xxx
ethtool -i enp3s0f0
driver: ixgbe
root@blade-3:~# cat /sys/class/net/enp7s1f0/device/numa_node
-1
root@blade-3:~# cat /sys/class/net/enp3s0f1/device/numa_node
-1


 

root@blade-3:~# cat /proc/cmdline
BOOT_IMAGE=/boot/vmlinuz-5.15.0-91-generic root=UUID=bfc54566-94ff-418d-96f6-2231e8114932 ro


Где искать настройку Node Interleaving ?

(прошу прощения за фото но скриншотилка странно себя ведет и не делает скриншот, учитывая что это старое железо и нужна старая Java запускаю в Javafox  у которого под капотом докер, в общем только так)

telegram-cloud-photo-size-2-5278597025799196940-y.thumb.jpg.dd94a37106d7a4eb34e55c866abbf3ba.jpgtelegram-cloud-photo-size-2-5278597025799196941-y.thumb.jpg.b1012b9bf12dff405ea7825968e3dde7.jpg 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Возможно опция в настройках Memory

 

Система-то какая?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

3 минуты назад, jffulcrum сказал:

Возможно опция в настройках Memory

 

Система-то какая?

Система в значении "какой линукс?" 
 

lsb_release -a
No LSB modules are available.
Distributor ID:	Ubuntu
Description:	Ubuntu 22.04.1 LTS
Release:	22.04
Codename:	jammy


Железка - это 4-х нодовый а-ля блейд от  Dell - C6100 
В 2-х юнитах там 4 ноды (каждая на  2 процессора и 6 сетевок 2 из которых Intel 520 DA2)
telegram-cloud-photo-size-2-5278597025799197068-y.thumb.jpg.444bac334828b58eedb5ed1e75373a1b.jpg

По памяти вот что 

telegram-cloud-photo-size-2-5278597025799197062-y.thumb.jpg.1ca546d35744c734862667fb2452d0d9.jpg

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А, понял, просто глаз замылился. Для много портовых карт метод не работает, т.к. порт - дочернее устройство. Вам надо смотреть с помощью cat /sys/bus/pci/devices/ родителя

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Подхватывает ли ядро таблицу Resource Affinity Table (SRAT) из ACPI? На базе информации из нее формируются nodes. Проверьте:

cat /var/log/dmesg | grep -i srat

В некоторых BIOS она явным образом включается в Advanced ACPI Configuration.

Изменено пользователем Умник

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

5 минут назад, sirmax сказал:

C6100

Херасе античности подвезли. Она может быть вообще ещё не NUMA, с контроллером в чипсете

 

А нет, 5530 - это уже Нехалимы, NUMA должен быть

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

NUMA там есть. Но в материнке старый чипсет Intel 5500/5600, PCI lanes там еще не подключаются непосредственно к CPU. См. здесь вторую картинку: https://www.servethehome.com/answered-cpu-dual-processor-motherboard/. Поэтому карта не может быть привязана к какой-то одной ноде.

 

На последней картинке - современный порядок дел.

Изменено пользователем Умник

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

5 часов назад, Умник сказал:

NUMA там есть. Но в материнке старый чипсет Intel 5500/5600, PCI lanes там еще не подключаются непосредственно к CPU. См. здесь вторую картинку: https://www.servethehome.com/answered-cpu-dual-processor-motherboard/. Поэтому карта не может быть привязана к какой-то одной ноде.

 

На последней картинке - современный порядок дел.


Отличная статья, спасибо
 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

В 17.01.2024 в 15:25, jffulcrum сказал:

Херасе античности подвезли. Она может быть вообще ещё не NUMA, с контроллером в чипсете

 

А нет, 5530 - это уже Нехалимы, NUMA должен быть

«старый, но не бесполезный» (это цитата) 😉

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.