Перейти к содержимому
Калькуляторы

RadioSintetica

Пользователи
  • Публикации

    35
  • Зарегистрирован

  • Посещение

О RadioSintetica

  • Звание
    Абитуриент
  1. queues = 0,1; 1,2; 2,3; 3,4; 4,5; 5,6; 6,7; и почти нет missed packets .... я уже сам во всем запутался=) Information Application - All worker threads seen packets: 545075226, IP packets: 545075226 (IPv4 packets: 545075226, IPv6 packets: 0), seen bytes: 251389807266, traffic throughtput: 1.17 M pps
  2. так сейчас и работает: Port 0 input packets 131801326, input errors: 0, mbuf errors: 0, missed packets: 6648
  3. 2017-10-24 17:45:42.376 [1356] Information Application - Initializing dpi flow hash with ipv4 max flows 240000, ipv6 max flows 8000. 2017-10-24 17:45:42.377 [1356] Information Application - Create pool 'URLPool-10' for urls with number of entries: 49600, size: 29809600 bytes 2017-10-24 17:45:42.381 [1356] Information Application - Create pool 'DPIPool-10' for http dissector with number of entries: 49600, size: 1587200 bytes 2017-10-24 17:45:42.404 [1356] Fatal WorkerThread-10 - Not enough memory for flows pool. Tried to allocate 87296000 bytes on socket 0 2017-10-24 17:45:42.404 [1356] Error Application - Exception: Not enough memory for flows pool cat /sys/devices/system/node/node0/hugepages/hugepages-1048576kB/nr_hugepages 32 на машине 72 гига. 65 почти занято
  4. Гигобайтные hugepages нельзя изменить после загрузки. Выделяются они каждой ноде. Это боль. сделал echo 18048 > /sys/devices/system/node/node0/hugepages/hugepages-2048kB/nr_hugepages echo 18048 > /sys/devices/system/node/node1/hugepages/hugepages-2048kB/nr_hugepages но dpdk их не видит...
  5. Если на одном ядре память: EAL: Detected 12 lcore(s) EAL: No free hugepages reported in hugepages-1048576kB EAL: Probing VFIO support... EAL: PCI device 0000:04:00.0 on NUMA socket -1 EAL: probe driver: 8086:10fb net_ixgbe EAL: PCI device 0000:04:00.1 on NUMA socket -1 EAL: probe driver: 8086:10fb net_ixgbe acl context <extFilter-ipv4-acl0-0>@0x7fbaf08d8000 socket_id=0 alg=2 max_rules=100000 rule_size=96 num_rules=49 num_categories=1 num_tries=1 ACL: allocation of 9600904 bytes on socket 1 for ACL_extFilter-ipv4-acl1-0 failed [root@dpdk etc]#
  6. cat /sys/devices/system/node/node0/hugepages/hugepages-1048576kB/nr_hugepages 28 2017-10-24 16:34:51.050 [3176] Information Application - Initializing dpi flow hash with ipv4 max flows 1600000, ipv6 max flows 800000. 2017-10-24 16:34:51.057 [3176] Information Application - Create pool 'URLPool-10' for urls with number of entries: 480000, size: 288480000 bytes 2017-10-24 16:34:51.097 [3176] Information Application - Create pool 'DPIPool-10' for http dissector with number of entries: 480000, size: 15360000 bytes 2017-10-24 16:34:51.317 [3176] Fatal WorkerThread-10 - Not enough memory for flows pool. Tried to allocate 844800000 bytes 2017-10-24 16:34:51.318 [3176] Error Application - Exception: Not enough memory for flows pool
  7. Судя по тому что hugepages разделяются по обоим нодам пропорционально - может и выдавать руками? echo 31 > /sys/devices/system/node/node0/hugepages/hugepages-1048576kB/nr_hugepags ? при 0,1; 1,2; 2,3; 3,4; 4,5 - allports.missed_packets=0... а нет... 896.67 K pps - 270 пропущеных...
  8. max1976 При queues = 0,2; 1,4; 2,6; 3,8; 4,10 и core_mask = 21845 EAL: Detected 12 lcore(s) EAL: lcore 12 unavailable EAL: invalid coremask (параметры) EAL: FATAL: Invalid 'command line' arguments. EAL: Invalid 'command line' arguments. Exception: Can't initialize EAL - invalid EAL arguments при core_mask = 2047 и queues = 0,2; 1,4; 2,6; 3,8; 4,10 EAL: Detected 12 lcore(s) EAL: Probing VFIO support... EAL: PCI device 0000:04:00.0 on NUMA socket -1 EAL: probe driver: 8086:10fb net_ixgbe EAL: PCI device 0000:04:00.1 on NUMA socket -1 EAL: probe driver: 8086:10fb net_ixgbe acl context <extFilter-ipv4-acl0-0>@0x7f0f3f35c100 socket_id=0 alg=2 max_rules=100000 rule_size=96 num_rules=49 num_categories=1 num_tries=1 acl context <extFilter-ipv4-acl1-0>@0x7f0cff6d8000 socket_id=1 alg=2 max_rules=100000 rule_size=96 num_rules=49 num_categories=1 num_tries=1 PMD: ixgbe_dev_link_status_print(): Port 0: Link Up - speed 0 Mbps - half-duplex Aborted   cat /sys/devices/system/node/node0/hugepages/hugepages-1048576kB/nr_hugepages 8 cat /sys/devices/system/node/node1/hugepages/hugepages-1048576kB/nr_hugepages 8 cat /usr/lib/tuned/dpdk-tune/tuned.conf [main] include=latency-performance [bootloader] cmdline=isolcpus=2,4,6,8,10 default_hugepagesz=1G hugepagesz=1G hugepages=16   2017-10-24 15:09:37.084 [3286] Information Application - Initializing dpi flow hash with ipv4 max flows 200000, ipv6 max flows 4000. 2017-10-24 15:09:37.085 [3286] Information Application - Create pool 'URLPool-10' for urls with number of entries: 40800, size: 24520800 bytes 2017-10-24 15:09:37.088 [3286] Information Application - Create pool 'DPIPool-10' for http dissector with number of entries: 40800, size: 1305600 bytes 2017-10-24 15:09:37.107 [3286] Fatal WorkerThread-10 - Not enough memory for flows pool. Tried to allocate 71808000 bytes 2017-10-24 15:09:37.107 [3286] Error Application - Exception: Not enough memory for flows pool   Может ему при загрузке память отдавать только на одну ноду? echo 31 > /sys/devices/system/node/node0/hugepages/hugepages-1048576kB/nr_hugepages
  9. max1976 queues = 0,2; 1,4; 2,6; 3,8; 4,10 правильно же? (но с такими очередями вылетает: Aborted) Делаю queues = 0,1; 1,2; 2,3; 3,4; 4,5 - работает...
  10. flowhash_size = 1048576 удалить? я почему про расчет спрашиваю - у меня 2 сервера разной конфигурации. вот и пытаюсь понять для себя как оно считается. чтоб меньше форум засорять. Да и кому то возможно это поможет. (EAL: invalid coremask на 21845)
  11. Спасибо большое! Последний вопрос: как посчитать маску? как она считается? я вижу тут советуют людям 0101010101010101‬ = 21845 это я могу в калькуляторен. но вот где где взять сие магическое 0101010101010101‬ ? Вот есть у меня cores = [0, 8, 2, 10, 1, 9] sockets = [0, 1] Socket 0 Socket 1 -------- -------- Core 0 [0] [1] Core 8 [2] [3] Core 2 [4] [5] Core 10 [6] [7] Core 1 [8] [9] Core 9 [10] [11] я в cmdline=isolcpus=2,4,6,8,10 изолирую. правильно же? А для extfiltra coremask мне как расчитать?
  12. dee То есть мне проще soket 0 использовать для менеджмента а 1 - для extfilter? или наоборот лучше? UPD lstopo-no-graphics - зависает...
  13. Спасибо за развернутый ответ! А как узнать на шине какого процессора сетевая карта? и вот насчет расчета маски.. как ее посчитать? и что же делает параметр flowhash_size = 4194304 ? поглядел - cat /sys/class/net/ens1f1/device/local_cpulist 0-11 cat /sys/class/net/ens1f1/device/numa_node -1 Чего то у меня еще больше вопросов...
  14. чего то насмерть запутался с ядрами для extfilter: гипертренинг отключил, (правильно же? ) Из вопросов еще - многопроцессорность поддерживается? cores = [0, 8, 2, 10, 1, 9] sockets = [0, 1] Socket 0 Socket 1 -------- -------- Core 0 [0] [1] Core 8 [2] [3] Core 2 [4] [5] Core 10 [6] [7] Core 1 [8] [9] Core 9 [10] [11] Как правильно посчитать какие ядра отключать и какую маску вписывать? пока вроде так вышло: core_mask = 2047 cmdline=isolcpus=2,4,6,8,10,3,5,7,9,11 default_hugepagesz=1G hugepagesz=1G hugepages=16 - получилось по 8 гигов на ядро. И пропуски: Было больше, добавил flowhash_size = 1048576 стало лучше: Information Application - Port 0 input packets 4788357175, input errors: 0, mbuf errors: 0, missed packets: 5635 num_of_senders = 8 [port 0] queues = 0,2; 1,3; 2,4; 3,5; 4,6; 5,7; 6,8; 7,9 трафика 1.42 M pps UDP сделал flowhash_size = 4194304 - миссы пропали...