roma33rus Опубликовано 13 октября, 2016 · Жалоба размер пакета не имеет значения, нагрузка идёт от их количества Хорошо понял, спасибо. Буду смотреть. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 13 октября, 2016 · Жалоба Внимание обращать на большой пакетрейт от кого то одного. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
pronix Опубликовано 27 декабря, 2016 (изменено) · Жалоба Скорее всего всплеск трафа от одного клиента, сетевуха его в одно прерывание и складывает. А известно по какому принципу она раскидывает трафик по queues и можно ли на это влиять? Изменено 27 декабря, 2016 пользователем pronix Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 27 декабря, 2016 · Жалоба Известно. Всё описано в доке на чип. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
napTu Опубликовано 9 ноября, 2017 · Жалоба удалось снизить нагрузку dummynet на 20% за счет установки параметра pipe burst на 20 мегабайт Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
GrandPr1de Опубликовано 9 ноября, 2017 · Жалоба если включен net.inet.ip.dummynet.io_fast=1 то там просто пока труба не полная оно даже не пытается резать скорость, тем самым не занимая ресурсов. грубо говоря, вы установив burst просто подняли потолок, когда контент опять потяжелеет и полисер снова начнет включаться чаще всё снова станет грустно. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
gosti96admin Опубликовано 18 февраля, 2019 · Жалоба добрый всем день! Прошу помощи у более опытных админов, ибо сам не могу разобраться, опыта не хватает! есть сервер freebsd 11.1 FreeBSD 11.1-RELEASE FreeBSD 11.1-RELEASE используется для того чтобы Натить и Полосить абонентов, в выводе команды top заметил странное распределение нагрузки по процессорам: CPU 0: 0.0% user, 0.0% nice, 19.7% system, 0.0% interrupt, 80.3% idle CPU 1: 0.0% user, 0.0% nice, 0.8% system, 0.8% interrupt, 100% idle CPU 2: 0.0% user, 0.0% nice, 1.6% system, 0.0% interrupt, 98.4% idle CPU 3: 0.0% user, 0.0% nice, 2.4% system, 0.0% interrupt, 97.6% idle CPU 4: 0.0% user, 0.0% nice, 3.1% system, 0.0% interrupt, 96.9% idle CPU 5: 0.0% user, 0.0% nice, 1.6% system, 0.0% interrupt, 98.4% idle CPU 6: 0.0% user, 0.0% nice, 1.6% system, 0.0% interrupt, 98.4% idle CPU 7: 0.0% user, 0.0% nice, 2.4% system, 0.0% interrupt, 97.6% idle CPU 8: 0.0% user, 0.0% nice, 0.0% system, 48.8% interrupt, 51.2% idle CPU 9: 0.0% user, 0.0% nice, 0.0% system, 44.1% interrupt, 55.9% idle CPU 10: 0.0% user, 0.0% nice, 0.0% system, 50.4% interrupt, 49.6% idle CPU 11: 0.0% user, 0.0% nice, 0.0% system, 39.4% interrupt, 60.6% idle CPU 12: 0.0% user, 0.0% nice, 0.8% system, 48.0% interrupt, 52.0% idle CPU 13: 0.0% user, 0.0% nice, 0.0% system, 33.9% interrupt, 66.1% idle CPU 14: 0.0% user, 0.0% nice, 0.0% system, 37.8% interrupt, 62.2% idle CPU 15: 0.0% user, 0.0% nice, 0.0% system, 33.1% interrupt, 66.9% idle Причем общая нагрузка от 2 до 4 даже в час пик, трафик в час пик около 900 Мегабит, но иногда по непонятной причине, общая нагрузка на процессор взлетает до 8 или 10, минут через 20 все само нормализуется. В чем дело не пойму, прошу помощи у более опытных! Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 18 февраля, 2019 · Жалоба 1. 11.1 - EOL, обновляйся 2. В /boot/loader.conf # NetISR net.isr.maxthreads="1024" # Use at most this many CPUs for netisr processing net.isr.bindthreads="1" # Bind netisr threads to CPUs. net.isr.defaultqlimit="65536" # Default netisr per-protocol, per-CPU queue limit if not set by protocol net.isr.maxqlimit="65536" # Maximum netisr per-protocol, per-CPU queue depth. 3. не понятно ни какая у тебя сетевуха ни какая нагрузка и где top -aSCHIP для начала в момент когда есть то что тебя смущает Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
gosti96admin Опубликовано 19 февраля, 2019 · Жалоба last pid: 45568; load averages: 5.34, 3.85, 2.75 up 0+18:48:22 10:06:08 354 processes: 23 running, 251 sleeping, 80 waiting CPU 0: 0.6% user, 0.0% nice, 2.9% system, 0.6% interrupt, 96.0% idle CPU 1: 0.0% user, 0.0% nice, 16.2% system, 0.0% interrupt, 83.8% idle CPU 2: 1.2% user, 0.0% nice, 6.9% system, 0.0% interrupt, 91.9% idle CPU 3: 1.2% user, 0.0% nice, 5.2% system, 0.0% interrupt, 93.6% idle CPU 4: 1.2% user, 0.0% nice, 9.8% system, 0.0% interrupt, 89.0% idle CPU 5: 2.3% user, 0.0% nice, 6.4% system, 0.0% interrupt, 91.3% idle CPU 6: 1.7% user, 0.0% nice, 8.0% system, 0.0% interrupt, 90.2% idle CPU 7: 0.6% user, 0.0% nice, 2.9% system, 0.0% interrupt, 96.6% idle CPU 8: 0.0% user, 0.0% nice, 1.2% system, 53.2% interrupt, 45.7% idle CPU 9: 0.6% user, 0.0% nice, 0.6% system, 55.5% interrupt, 43.4% idle CPU 10: 0.0% user, 0.0% nice, 1.2% system, 63.0% interrupt, 35.8% idle CPU 11: 0.6% user, 0.0% nice, 1.2% system, 56.6% interrupt, 41.6% idle CPU 12: 0.0% user, 0.0% nice, 1.2% system, 59.5% interrupt, 39.3% idle CPU 13: 0.0% user, 0.0% nice, 1.2% system, 59.5% interrupt, 39.3% idle CPU 14: 0.0% user, 0.0% nice, 0.0% system, 56.1% interrupt, 43.9% idle CPU 15: 0.0% user, 0.0% nice, 0.6% system, 59.0% interrupt, 40.5% idle Mem: 507M Active, 271M Inact, 1134M Wired, 557M Buf, 5937M Free Swap: 6144M Total, 6144M Free PID USERNAME PRI NICE SIZE RES STATE C TIME CPU COMMAND 11 root 155 ki31 0K 256K RUN 0 17.2H 96.61% [idle{idle: cpu0}] 11 root 155 ki31 0K 256K CPU7 7 18.6H 94.56% [idle{idle: cpu7}] 11 root 155 ki31 0K 256K CPU5 5 18.6H 94.02% [idle{idle: cpu5}] 11 root 155 ki31 0K 256K CPU3 3 18.6H 92.70% [idle{idle: cpu3}] 11 root 155 ki31 0K 256K CPU2 2 18.6H 92.06% [idle{idle: cpu2}] 11 root 155 ki31 0K 256K CPU6 6 18.6H 92.02% [idle{idle: cpu6}] 11 root 155 ki31 0K 256K CPU4 4 18.6H 90.46% [idle{idle: cpu4}] 11 root 155 ki31 0K 256K RUN 1 18.6H 86.03% [idle{idle: cpu1}] 12 root -92 - 0K 1376K CPU13 13 172:55 59.38% [intr{irq271: igb2:que 5}] 12 root -92 - 0K 1376K WAIT 12 170:09 57.90% [intr{irq270: igb2:que 4}] 12 root -92 - 0K 1376K WAIT 11 173:39 57.44% [intr{irq269: igb2:que 3}] 12 root -92 - 0K 1376K CPU10 10 172:34 57.10% [intr{irq268: igb2:que 2}] 12 root -92 - 0K 1376K CPU9 9 167:18 56.95% [intr{irq267: igb2:que 1}] 12 root -92 - 0K 1376K CPU15 15 165:59 56.67% [intr{irq273: igb2:que 7}] 12 root -92 - 0K 1376K CPU8 8 168:55 56.07% [intr{irq266: igb2:que 0}] 12 root -92 - 0K 1376K CPU14 14 170:47 51.50% [intr{irq272: igb2:que 6}] 11 root 155 ki31 0K 256K RUN 14 954:48 48.22% [idle{idle: cpu14}] 11 root 155 ki31 0K 256K RUN 15 959:37 42.67% [idle{idle: cpu15}] 11 root 155 ki31 0K 256K RUN 8 956:49 42.31% [idle{idle: cpu8}] 11 root 155 ki31 0K 256K RUN 10 952:54 42.05% [idle{idle: cpu10}] 11 root 155 ki31 0K 256K CPU11 11 952:17 41.99% [idle{idle: cpu11}] 11 root 155 ki31 0K 256K RUN 9 958:33 41.92% [idle{idle: cpu9}] 11 root 155 ki31 0K 256K RUN 12 955:27 41.45% [idle{idle: cpu12}] 11 root 155 ki31 0K 256K RUN 13 952:50 39.69% [idle{idle: cpu13}] 0 root -92 - 0K 832K - 6 3:29 12.95% [kernel{igb2 que (qid 8)}] 0 root -92 - 0K 832K - 1 98:19 11.83% [kernel{dummynet}] 0 root -92 - 0K 832K - 3 3:34 8.14% [kernel{igb2 que (qid 13)}] 0 root -92 - 0K 832K - 2 3:11 7.16% [kernel{igb2 que (qid 11)}] 0 root -92 - 0K 832K - 5 2:53 5.92% [kernel{igb2 que (qid 12)}] 0 root -92 - 0K 832K - 4 3:16 5.46% [kernel{igb2 que (qid 10)}] 0 root -92 - 0K 832K - 4 3:23 4.74% [kernel{igb2 que (qid 15)}] 0 root -92 - 0K 832K - 7 3:27 2.97% [kernel{igb2 que (qid 9)}] 35792 root 20 -15 34280K 20572K select 10 1:07 2.48% /usr/local/bin/ipcad -rds -c /usr/local/etc/ipcad.conf{ipcad} 0 root -92 - 0K 832K - 3 3:23 1.32% [kernel{igb2 que (qid 14)}] 35853 root 21 0 200M 74652K uwait 0 0:03 1.17% /netup/utm5/bin/utm5_core{utm5_core} 35853 root 20 0 200M 74652K uwait 5 0:22 0.70% /netup/utm5/bin/utm5_core{utm5_core} 35792 root 20 -15 34280K 20572K select 3 0:17 0.50% /usr/local/bin/ipcad -rds -c /usr/local/etc/ipcad.conf{ipcad} 35783 mysql 20 0 2083M 626M select 9 0:01 0.48% [mysqld{mysqld}] 35853 root 20 0 200M 74652K uwait 4 0:03 0.41% /netup/utm5/bin/utm5_core{utm5_core} 35783 mysql 20 0 2083M 626M select 6 0:01 0.41% [mysqld{mysqld}] 35783 mysql 20 0 2083M 626M select 2 0:01 0.39% [mysqld{mysqld}] 35783 mysql 20 0 2083M 626M select 5 0:04 0.39% [mysqld{mysqld}] 35792 root 20 -15 34280K 20572K nanslp 2 0:07 0.39% /usr/local/bin/ipcad -rds -c /usr/local/etc/ipcad.conf{ipcad} 35783 mysql 20 0 2083M 626M select 7 0:01 0.35% [mysqld{mysqld}] 35783 mysql 20 0 2083M 626M select 2 0:01 0.32% [mysqld{mysqld}] 35783 mysql 20 0 2083M 626M select 4 0:01 0.32% [mysqld{mysqld}] 35783 mysql 20 0 2083M 626M select 7 0:01 0.32% [mysqld{mysqld}] 35853 root 20 0 200M 74652K uwait 4 0:01 0.24% /netup/utm5/bin/utm5_core{utm5_core} 35783 mysql 20 0 2083M 626M uwait 0 0:01 0.23% [mysqld{mysqld}] 15 root -16 - 0K 16K - 1 2:33 0.22% [rand_harvestq] 35853 root 20 0 200M 74652K uwait 4 0:04 0.15% /netup/utm5/bin/utm5_core{utm5_core} 45554 root 20 0 22208K 4856K CPU0 0 0:00 0.13% top -aSCHIP 12 root -88 - 0K 1376K WAIT 11 0:29 0.09% [intr{irq288: ahci0:ch1}] 35853 root 20 0 200M 74652K select 1 0:02 0.07% /netup/utm5/bin/utm5_core{utm5_core} 35783 mysql 20 0 2083M 626M uwait 6 0:00 0.07% [mysqld{mysqld}] 35783 mysql 20 0 2083M 626M uwait 14 0:00 0.06% [mysqld{mysqld}] Вот информация о сетевой карте: igb2@pci0:2:0:0: class=0x020000 card=0x15228086 chip=0x15228086 rev=0x01 hdr=0x00 vendor = 'Intel Corporation' device = 'I350 Gigabit Fiber Network Connection' class = network subclass = ethernet Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jffulcrum Опубликовано 19 февраля, 2019 · Жалоба @gosti96admin Ну, нормально, i350 имеет 8 аппаратных очередей, вот он 8 ядер нагрузил и всё. Хотите более равномерного распределения - выключайте RSS и включайте RPS, под FreeBSD его придется тащить патчами ядра вроде https://github.com/gokzy/freebsd-rps/wiki/Receive-Packet-Steering-on-FreeBSD , но при этом общая нагрузка на CPU при обработке прерываний несколько вырастет. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
polmax Опубликовано 19 февраля, 2019 (изменено) · Жалоба В 18.02.2019 в 14:07, gosti96admin сказал: используется для того чтобы Натить и Полосить абонентов В момент проблемы посмотрите, сколько у вас соединений ната, недавно тоже наткнулись на такую проблему, один юзер (вируса) по 445 порту открывал до 70к соединений, и системе становилось очень плохо. А и да, если используется ipfw nat, попробуйте убрать опцию same_ports (это в том случает если проблема именно с натом) И ещё заметил в 11.2 версии прибитие dummynet к нулевому ядру не дает визуального результата как раньше, он теперь всегда показывает нагрузку на dummynet, примерно так: 0 root -92 - 0K 6128K - 0 706:54 12.49% kernel{dummynet} Изменено 19 февраля, 2019 пользователем polmax Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 19 февраля, 2019 · Жалоба 11 часов назад, jffulcrum сказал: Ну, нормально, i350 имеет 8 аппаратных очередей, вот он 8 ядер нагрузил и всё. Хотите более равномерного распределения - выключайте RSS и включайте RPS, под FreeBSD его придется тащить патчами ядра вроде https://github.com/gokzy/freebsd-rps/wiki/Receive-Packet-Steering-on-FreeBSD , но при этом общая нагрузка на CPU при обработке прерываний несколько вырастет. Лучше бы ничего не писал :) Всё что нужно давно в базе, достаточно задать количество рабочих потоков isr и сисцтл покрутить: net.isr.dispatch=deferred # direct / hybrid / deffered // Interrupt handling via multiple CPU, but with context switch. крутится из sysctl - вот прямо на ходу можно менять и сравнивать. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jffulcrum Опубликовано 20 февраля, 2019 · Жалоба @Ivan_83 А разве isr в direct не прибит гвоздями начиная еще с девятки? И как он поможет увеличить число очередей больше поддерживаемого драйвером? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 20 февраля, 2019 · Жалоба 1 час назад, jffulcrum сказал: А разве isr в direct не прибит гвоздями начиная еще с девятки? Нет. 1 час назад, jffulcrum сказал: И как он поможет увеличить число очередей больше поддерживаемого драйвером? Легко: в обработчике драйвер не гонит пакет по всему стёку а ставит в очередь на обработку, которая может быть уже на другом ядре. Даже если ISR когданить сломают то есть нетграф, где свои обработчики и свои очереди и всегда можно там раскидать. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jffulcrum Опубликовано 20 февраля, 2019 · Жалоба 1 час назад, Ivan_83 сказал: Нет. Я помню вот такое обсуждение: Цитата The net.isr.dispatch is automatically set to direct on our systems. Not sure if that's the default or not. We used to set that via /boot/loader.conf as well, but it was removed in the upgrade to 9-STABLE something as it no longer did anything. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 20 февраля, 2019 · Жалоба 2 часа назад, jffulcrum сказал: Я помню вот такое обсуждение: Удалили всякие: net.isr.direct=1 net.isr.direct_force=1 и сделали одну крутилку, как я написал выше. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
gosti96admin Опубликовано 12 марта, 2019 · Жалоба С распределением нагрузки по ядрам решил вопрос поднятием Lagg0 теперь 2 гигабитные сетевухи распределяют ее приммерно одинаково! last pid: 15462; load averages: 1.60, 1.56, 1.18 up 0+01:40:30 12:07:21 345 processes: 17 running, 257 sleeping, 71 waiting CPU 0: 0.0% user, 0.0% nice, 6.1% system, 7.8% interrupt, 86.1% idle CPU 1: 0.0% user, 0.0% nice, 0.0% system, 7.0% interrupt, 93.0% idle CPU 2: 0.0% user, 0.0% nice, 0.0% system, 7.8% interrupt, 92.2% idle CPU 3: 0.0% user, 0.0% nice, 0.0% system, 8.7% interrupt, 91.3% idle CPU 4: 0.0% user, 0.0% nice, 0.0% system, 6.1% interrupt, 93.9% idle CPU 5: 0.0% user, 0.0% nice, 0.0% system, 8.7% interrupt, 91.3% idle CPU 6: 0.0% user, 0.0% nice, 0.9% system, 4.3% interrupt, 94.8% idle CPU 7: 0.0% user, 0.0% nice, 0.0% system, 6.1% interrupt, 93.9% idle CPU 8: 0.0% user, 0.0% nice, 0.0% system, 7.0% interrupt, 93.0% idle CPU 9: 0.9% user, 0.0% nice, 0.0% system, 8.7% interrupt, 90.4% idle CPU 10: 0.0% user, 0.0% nice, 0.0% system, 6.1% interrupt, 93.9% idle CPU 11: 1.7% user, 0.0% nice, 0.0% system, 5.2% interrupt, 93.0% idle CPU 12: 0.0% user, 0.0% nice, 0.0% system, 10.4% interrupt, 89.6% idle CPU 13: 0.0% user, 0.0% nice, 0.0% system, 7.0% interrupt, 93.0% idle CPU 14: 0.0% user, 0.0% nice, 0.0% system, 6.1% interrupt, 93.9% idle CPU 15: 0.0% user, 0.0% nice, 0.0% system, 7.0% interrupt, 93.0% idle Mem: 579M Active, 1442M Inact, 1069M Wired, 779M Buf, 4760M Free Swap: 6144M Total, 6144M Free PID USERNAME PRI NICE SIZE RES STATE C TIME CPU COMMAND 11 root 155 ki31 0K 256K CPU8 8 96:23 95.36% [idle{idle: cpu8}] 11 root 155 ki31 0K 256K CPU6 6 95:59 94.62% [idle{idle: cpu6}] 11 root 155 ki31 0K 256K CPU5 5 96:11 94.45% [idle{idle: cpu5}] 11 root 155 ki31 0K 256K CPU13 13 95:40 94.19% [idle{idle: cpu13}] 11 root 155 ki31 0K 256K CPU11 11 96:10 94.11% [idle{idle: cpu11}] 11 root 155 ki31 0K 256K CPU1 1 95:53 93.56% [idle{idle: cpu1}] 11 root 155 ki31 0K 256K RUN 15 96:27 93.50% [idle{idle: cpu15}] 11 root 155 ki31 0K 256K CPU2 2 96:02 93.31% [idle{idle: cpu2}] 11 root 155 ki31 0K 256K CPU10 10 95:28 93.04% [idle{idle: cpu10}] 11 root 155 ki31 0K 256K CPU14 14 96:09 93.00% [idle{idle: cpu14}] 11 root 155 ki31 0K 256K CPU4 4 96:22 92.95% [idle{idle: cpu4}] 11 root 155 ki31 0K 256K CPU7 7 96:20 92.94% [idle{idle: cpu7}] 11 root 155 ki31 0K 256K CPU3 3 96:17 91.44% [idle{idle: cpu3}] 11 root 155 ki31 0K 256K RUN 9 95:34 91.04% [idle{idle: cpu9}] 11 root 155 ki31 0K 256K RUN 12 96:22 90.67% [idle{idle: cpu12}] 11 root 155 ki31 0K 256K CPU0 0 92:22 88.51% [idle{idle: cpu0}] 12 root -92 - 0K 1136K WAIT 12 3:46 8.88% [intr{irq270: igb2:que 12 root -92 - 0K 1136K WAIT 9 4:41 8.69% [intr{irq267: igb2:que 12 root -92 - 0K 1136K WAIT 3 4:01 8.39% [intr{irq278: igb3:que 12 root -92 - 0K 1136K WAIT 4 3:55 6.87% [intr{irq279: igb3:que 12 root -92 - 0K 1136K WAIT 7 3:57 6.82% [intr{irq282: igb3:que 12 root -92 - 0K 1136K WAIT 10 4:45 6.69% [intr{irq268: igb2:que 12 root -92 - 0K 1136K WAIT 14 4:03 6.54% [intr{irq272: igb2:que 12 root -92 - 0K 1136K WAIT 0 3:54 6.50% [intr{irq275: igb3:que 12 root -92 - 0K 1136K WAIT 2 4:15 6.47% [intr{irq277: igb3:que 12 root -92 - 0K 1136K WAIT 1 4:29 6.29% [intr{irq276: igb3:que 12 root -92 - 0K 1136K WAIT 15 3:45 6.16% [intr{irq273: igb2:que 12 root -92 - 0K 1136K WAIT 13 4:33 5.58% [intr{irq271: igb2:que 12 root -92 - 0K 1136K WAIT 11 4:05 5.38% [intr{irq269: igb2:que 12 root -92 - 0K 1136K WAIT 5 4:06 5.33% [intr{irq280: igb3:que 12 root -92 - 0K 1136K WAIT 6 4:16 5.17% [intr{irq281: igb3:que Теперь вопрос в другом: Можно ли на моем железе натить и шейпить 2Gb трафика, а то непонятная ситуация то при нагрузке в один гигабит interrupt не выше 2х, то при нагрузке в 700 Мегабит, interrupt взлетает до 10-15. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
gosti96admin Опубликовано 12 марта, 2019 · Жалоба hw.model: Intel(R) Xeon(R) CPU E5630 @ 2.53GHz Память: 8Гб Сеть: 'Intel Corporation' 'I350 Gigabit Fiber Network Connection' Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jffulcrum Опубликовано 12 марта, 2019 · Жалоба 49 минут назад, gosti96admin сказал: то при нагрузке в один гигабит interrupt не выше 2х, то при нагрузке в 700 Мегабит, interrupt взлетает до 10-15. Нагрузку создает PPS, много мелких пакетов нагрузят систему куда больше, чем меньшее число с полным заполнением. Смотрите, есть ли корреляция с PPS. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
gosti96admin Опубликовано 22 марта, 2019 (изменено) · Жалоба Спасибо, настроил ограничение 2000 pps на каждого абонента, 3 день - полет нормальный! В час пик доходит до 450К пакетов, при этом нагрузка на систему 30-40%, можно ли еще что то оптимизировать, или смотреть уже в сторону аппаратного (процессор, память) апгрейда? И еще один момент, что бы я не указал в /boot/loader.conf, после перезагрузки параметры не применяются! Может кто сталкивался с похожей ситуацией!? Изменено 22 марта, 2019 пользователем gosti96admin Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nixx Опубликовано 23 марта, 2019 · Жалоба В 22.03.2019 в 10:43, gosti96admin сказал: настроил ограничение 2000 pps на каждого абонента каким способом, если не секрет? оптимизировать можно саму bsd путем обновления до 12-stable. там прилично по части скорости ipfw / обработки pps поменяли. впрочем, в 11.2, кажется, тоже. В 22.03.2019 в 10:43, gosti96admin сказал: что бы я не указал в /boot/loader.conf, после перезагрузки параметры не применяются может их надо в /etc/sysctl.conf вписать? параметры какие? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
polmax Опубликовано 22 апреля, 2019 · Жалоба Что намудрили в FreeBSD 12? Я так понял что теперь крутится всё через iflib, но при дефолтных настройках из 2 процессоров теперь используется только один, в топе вижу примерно следующее: Скрытый текст last pid: 22997; load averages: 2.37, 2.55, 2.49 up 0+07:05:28 19:44:09 620 threads: 19 running, 544 sleeping, 57 waiting CPU 0: 0.0% user, 0.0% nice, 33.3% system, 0.0% interrupt, 66.7% idle CPU 1: 1.6% user, 0.0% nice, 19.4% system, 0.0% interrupt, 79.1% idle CPU 2: 1.6% user, 0.0% nice, 17.1% system, 0.0% interrupt, 81.4% idle CPU 3: 1.6% user, 0.0% nice, 23.3% system, 0.0% interrupt, 75.2% idle CPU 4: 0.0% user, 0.0% nice, 24.0% system, 0.0% interrupt, 76.0% idle CPU 5: 0.0% user, 0.0% nice, 28.7% system, 0.0% interrupt, 71.3% idle CPU 6: 0.0% user, 0.0% nice, 25.6% system, 0.0% interrupt, 74.4% idle CPU 7: 0.0% user, 0.0% nice, 24.0% system, 0.0% interrupt, 76.0% idle CPU 8: 0.8% user, 0.0% nice, 4.7% system, 0.0% interrupt, 94.6% idle CPU 9: 0.8% user, 0.0% nice, 0.8% system, 0.0% interrupt, 98.5% idle CPU 10: 1.3% user, 0.0% nice, 1.3% system, 0.6% interrupt, 96.8% idle CPU 11: 0.0% user, 0.0% nice, 3.1% system, 0.0% interrupt, 96.9% idle CPU 12: 0.8% user, 0.0% nice, 4.6% system, 0.0% interrupt, 94.7% idle CPU 13: 0.0% user, 0.0% nice, 4.5% system, 0.0% interrupt, 95.5% idle CPU 14: 0.0% user, 0.0% nice, 0.8% system, 0.0% interrupt, 99.2% idle CPU 15: 1.5% user, 0.0% nice, 5.3% system, 0.0% interrupt, 93.2% idle Mem: 111M Active, 394M Inact, 3254M Wired, 665M Buf, 27G Free ARC: 696M Total, 128M MFU, 124M MRU, 288K Anon, 4809K Header, 439M Other 41M Compressed, 211M Uncompressed, 5.18:1 Ratio Swap: 4096M Total, 4096M Free PID USERNAME PRI NICE SIZE RES STATE C TIME WCPU COMMAND 11 root 155 ki31 0 256K CPU10 10 407:22 100.00% [idle{idle: cpu10}] 11 root 155 ki31 0 256K CPU13 13 406:13 99.40% [idle{idle: cpu13}] 11 root 155 ki31 0 256K CPU14 14 405:39 99.08% [idle{idle: cpu14}] 11 root 155 ki31 0 256K CPU9 9 407:45 98.99% [idle{idle: cpu9}] 11 root 155 ki31 0 256K CPU8 8 414:26 97.31% [idle{idle: cpu8}] 11 root 155 ki31 0 256K RUN 15 405:16 96.85% [idle{idle: cpu15}] 11 root 155 ki31 0 256K CPU12 12 406:41 96.26% [idle{idle: cpu12}] 11 root 155 ki31 0 256K RUN 11 407:08 95.45% [idle{idle: cpu11}] 11 root 155 ki31 0 256K CPU2 2 352:19 80.28% [idle{idle: cpu2}] 11 root 155 ki31 0 256K CPU1 1 350:32 77.45% [idle{idle: cpu1}] 11 root 155 ki31 0 256K RUN 3 352:01 76.41% [idle{idle: cpu3}] 11 root 155 ki31 0 256K CPU4 4 349:27 74.74% [idle{idle: cpu4}] 11 root 155 ki31 0 256K CPU5 5 351:07 73.20% [idle{idle: cpu5}] 11 root 155 ki31 0 256K CPU7 7 343:33 72.37% [idle{idle: cpu7}] 11 root 155 ki31 0 256K CPU6 6 350:32 71.73% [idle{idle: cpu6}] 11 root 155 ki31 0 256K CPU0 0 329:45 65.72% [idle{idle: cpu0}] 0 root -76 - 0 6160K - 6 69:09 26.13% [kernel{if_io_tqg_6}] 0 root -76 - 0 6160K - 7 76:12 25.86% [kernel{if_io_tqg_7}] 0 root -76 - 0 6160K - 5 68:41 24.98% [kernel{if_io_tqg_5}] 0 root -76 - 0 6160K - 0 70:12 23.79% [kernel{if_io_tqg_0}] 0 root -76 - 0 6160K - 4 70:26 23.38% [kernel{if_io_tqg_4}] 0 root -76 - 0 6160K - 3 67:54 21.41% [kernel{if_io_tqg_3}] 0 root -76 - 0 6160K - 1 69:21 20.91% [kernel{if_io_tqg_1}] 0 root -76 - 0 6160K - 2 67:36 17.84% [kernel{if_io_tqg_2}] 0 root -92 - 0 6160K - 0 25:59 12.64% [kernel{dummynet}] Сетевые ix (Intel(R) PRO/10GbE PCI-Express Network Driver) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jffulcrum Опубликовано 22 апреля, 2019 · Жалоба MSI-X попробуйте выключить (hw.pci.enable_msix=0) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vlad11 Опубликовано 2 мая, 2019 · Жалоба В 22.03.2019 в 09:43, gosti96admin сказал: И еще один момент, что бы я не указал в /boot/loader.conf, после перезагрузки параметры не применяются! Может кто сталкивался с похожей ситуацией!? Выдержка из мана rc.conf: ... kld_list (str) A list of kernel modules to load right after the local disks are mounted. Loading modules at this point in the boot process is much faster than doing it via /boot/loader.conf for those modules not necessary for mounting local disk. ... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 2 мая, 2019 · Жалоба 10 часов назад, vlad11 сказал: Выдержка из мана rc.conf С модулями то ладно, но есть настройки которые только через loader.conf задаются. В 22.03.2019 в 10:43, gosti96admin сказал: И еще один момент, что бы я не указал в /boot/loader.conf, после перезагрузки параметры не применяются! Может кто сталкивался с похожей ситуацией!? Может проблемы парсинга? Все значения переменных должны быть в ковычках param_name="value" ну и количество ковычек проверить заодно. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...