Jump to content
Калькуляторы

FreeBSD + 10 Gbit ixgbe + dummynet

размер пакета не имеет значения, нагрузка идёт от их количества

 

Хорошо понял, спасибо. Буду смотреть.

Share this post


Link to post
Share on other sites

Внимание обращать на большой пакетрейт от кого то одного.

Share this post


Link to post
Share on other sites

Скорее всего всплеск трафа от одного клиента, сетевуха его в одно прерывание и складывает.

А известно по какому принципу она раскидывает трафик по queues и можно ли на это влиять?

Edited by pronix

Share this post


Link to post
Share on other sites

удалось снизить нагрузку dummynet на 20% за счет установки параметра pipe burst на 20 мегабайт

Share this post


Link to post
Share on other sites

если включен net.inet.ip.dummynet.io_fast=1 то там просто пока труба не полная оно даже не пытается резать скорость, тем самым не занимая ресурсов.

грубо говоря, вы установив burst просто подняли потолок, когда контент опять потяжелеет и полисер снова начнет включаться чаще всё снова станет грустно.

Share this post


Link to post
Share on other sites

добрый всем день!

Прошу помощи у более опытных админов, ибо сам не могу разобраться, опыта не хватает!

 

есть сервер freebsd 11.1

FreeBSD 11.1-RELEASE FreeBSD 11.1-RELEASE 

используется для того чтобы Натить и Полосить абонентов, в выводе команды top заметил странное распределение нагрузки по процессорам: 

CPU 0:   0.0% user,  0.0% nice, 19.7% system,  0.0% interrupt, 80.3% idle
CPU 1:   0.0% user,  0.0% nice,  0.8% system,  0.8% interrupt,  100% idle
CPU 2:   0.0% user,  0.0% nice,  1.6% system,  0.0% interrupt, 98.4% idle
CPU 3:   0.0% user,  0.0% nice,  2.4% system,  0.0% interrupt, 97.6% idle
CPU 4:   0.0% user,  0.0% nice,  3.1% system,  0.0% interrupt, 96.9% idle
CPU 5:   0.0% user,  0.0% nice,  1.6% system,  0.0% interrupt, 98.4% idle
CPU 6:   0.0% user,  0.0% nice,  1.6% system,  0.0% interrupt, 98.4% idle
CPU 7:   0.0% user,  0.0% nice,  2.4% system,  0.0% interrupt, 97.6% idle
CPU 8:   0.0% user,  0.0% nice,  0.0% system, 48.8% interrupt, 51.2% idle
CPU 9:   0.0% user,  0.0% nice,  0.0% system, 44.1% interrupt, 55.9% idle
CPU 10:  0.0% user,  0.0% nice,  0.0% system, 50.4% interrupt, 49.6% idle
CPU 11:  0.0% user,  0.0% nice,  0.0% system, 39.4% interrupt, 60.6% idle
CPU 12:  0.0% user,  0.0% nice,  0.8% system, 48.0% interrupt, 52.0% idle
CPU 13:  0.0% user,  0.0% nice,  0.0% system, 33.9% interrupt, 66.1% idle
CPU 14:  0.0% user,  0.0% nice,  0.0% system, 37.8% interrupt, 62.2% idle
CPU 15:  0.0% user,  0.0% nice,  0.0% system, 33.1% interrupt, 66.9% idle

 

Причем общая нагрузка от 2 до 4 даже в час пик, трафик в час пик около 900 Мегабит, но иногда по непонятной причине, общая нагрузка на процессор взлетает до 8 или 10, минут через 20 все само нормализуется.

В чем дело не пойму, прошу помощи у более опытных!

Share this post


Link to post
Share on other sites

1. 11.1 - EOL, обновляйся

 

2. В /boot/loader.conf

# NetISR
net.isr.maxthreads="1024"    # Use at most this many CPUs for netisr processing
net.isr.bindthreads="1"        # Bind netisr threads to CPUs.
net.isr.defaultqlimit="65536"    # Default netisr per-protocol, per-CPU queue limit if not set by protocol
net.isr.maxqlimit="65536"    # Maximum netisr per-protocol, per-CPU queue depth.

 

3. не понятно ни какая у тебя сетевуха ни какая нагрузка и где

top -aSCHIP для начала в момент когда есть то что тебя смущает

Share this post


Link to post
Share on other sites

last pid: 45568;  load averages:  5.34,  3.85,  2.75                                                                                                                                                        up 0+18:48:22  10:06:08
354 processes: 23 running, 251 sleeping, 80 waiting
CPU 0:   0.6% user,  0.0% nice,  2.9% system,  0.6% interrupt, 96.0% idle
CPU 1:   0.0% user,  0.0% nice, 16.2% system,  0.0% interrupt, 83.8% idle
CPU 2:   1.2% user,  0.0% nice,  6.9% system,  0.0% interrupt, 91.9% idle
CPU 3:   1.2% user,  0.0% nice,  5.2% system,  0.0% interrupt, 93.6% idle
CPU 4:   1.2% user,  0.0% nice,  9.8% system,  0.0% interrupt, 89.0% idle
CPU 5:   2.3% user,  0.0% nice,  6.4% system,  0.0% interrupt, 91.3% idle
CPU 6:   1.7% user,  0.0% nice,  8.0% system,  0.0% interrupt, 90.2% idle
CPU 7:   0.6% user,  0.0% nice,  2.9% system,  0.0% interrupt, 96.6% idle
CPU 8:   0.0% user,  0.0% nice,  1.2% system, 53.2% interrupt, 45.7% idle
CPU 9:   0.6% user,  0.0% nice,  0.6% system, 55.5% interrupt, 43.4% idle
CPU 10:  0.0% user,  0.0% nice,  1.2% system, 63.0% interrupt, 35.8% idle
CPU 11:  0.6% user,  0.0% nice,  1.2% system, 56.6% interrupt, 41.6% idle
CPU 12:  0.0% user,  0.0% nice,  1.2% system, 59.5% interrupt, 39.3% idle
CPU 13:  0.0% user,  0.0% nice,  1.2% system, 59.5% interrupt, 39.3% idle
CPU 14:  0.0% user,  0.0% nice,  0.0% system, 56.1% interrupt, 43.9% idle
CPU 15:  0.0% user,  0.0% nice,  0.6% system, 59.0% interrupt, 40.5% idle
Mem: 507M Active, 271M Inact, 1134M Wired, 557M Buf, 5937M Free
Swap: 6144M Total, 6144M Free

  PID USERNAME   PRI NICE   SIZE    RES STATE   C   TIME     CPU COMMAND
   11 root       155 ki31     0K   256K RUN     0  17.2H  96.61% [idle{idle: cpu0}]
   11 root       155 ki31     0K   256K CPU7    7  18.6H  94.56% [idle{idle: cpu7}]
   11 root       155 ki31     0K   256K CPU5    5  18.6H  94.02% [idle{idle: cpu5}]
   11 root       155 ki31     0K   256K CPU3    3  18.6H  92.70% [idle{idle: cpu3}]
   11 root       155 ki31     0K   256K CPU2    2  18.6H  92.06% [idle{idle: cpu2}]
   11 root       155 ki31     0K   256K CPU6    6  18.6H  92.02% [idle{idle: cpu6}]
   11 root       155 ki31     0K   256K CPU4    4  18.6H  90.46% [idle{idle: cpu4}]
   11 root       155 ki31     0K   256K RUN     1  18.6H  86.03% [idle{idle: cpu1}]
   12 root       -92    -     0K  1376K CPU13  13 172:55  59.38% [intr{irq271: igb2:que 5}]
   12 root       -92    -     0K  1376K WAIT   12 170:09  57.90% [intr{irq270: igb2:que 4}]
   12 root       -92    -     0K  1376K WAIT   11 173:39  57.44% [intr{irq269: igb2:que 3}]
   12 root       -92    -     0K  1376K CPU10  10 172:34  57.10% [intr{irq268: igb2:que 2}]
   12 root       -92    -     0K  1376K CPU9    9 167:18  56.95% [intr{irq267: igb2:que 1}]
   12 root       -92    -     0K  1376K CPU15  15 165:59  56.67% [intr{irq273: igb2:que 7}]
   12 root       -92    -     0K  1376K CPU8    8 168:55  56.07% [intr{irq266: igb2:que 0}]
   12 root       -92    -     0K  1376K CPU14  14 170:47  51.50% [intr{irq272: igb2:que 6}]
   11 root       155 ki31     0K   256K RUN    14 954:48  48.22% [idle{idle: cpu14}]
   11 root       155 ki31     0K   256K RUN    15 959:37  42.67% [idle{idle: cpu15}]
   11 root       155 ki31     0K   256K RUN     8 956:49  42.31% [idle{idle: cpu8}]
   11 root       155 ki31     0K   256K RUN    10 952:54  42.05% [idle{idle: cpu10}]
   11 root       155 ki31     0K   256K CPU11  11 952:17  41.99% [idle{idle: cpu11}]
   11 root       155 ki31     0K   256K RUN     9 958:33  41.92% [idle{idle: cpu9}]
   11 root       155 ki31     0K   256K RUN    12 955:27  41.45% [idle{idle: cpu12}]
   11 root       155 ki31     0K   256K RUN    13 952:50  39.69% [idle{idle: cpu13}]
    0 root       -92    -     0K   832K -       6   3:29  12.95% [kernel{igb2 que (qid 8)}]
    0 root       -92    -     0K   832K -       1  98:19  11.83% [kernel{dummynet}]
    0 root       -92    -     0K   832K -       3   3:34   8.14% [kernel{igb2 que (qid 13)}]
    0 root       -92    -     0K   832K -       2   3:11   7.16% [kernel{igb2 que (qid 11)}]
    0 root       -92    -     0K   832K -       5   2:53   5.92% [kernel{igb2 que (qid 12)}]
    0 root       -92    -     0K   832K -       4   3:16   5.46% [kernel{igb2 que (qid 10)}]
    0 root       -92    -     0K   832K -       4   3:23   4.74% [kernel{igb2 que (qid 15)}]
    0 root       -92    -     0K   832K -       7   3:27   2.97% [kernel{igb2 que (qid 9)}]
35792 root        20  -15 34280K 20572K select 10   1:07   2.48% /usr/local/bin/ipcad -rds -c /usr/local/etc/ipcad.conf{ipcad}
    0 root       -92    -     0K   832K -       3   3:23   1.32% [kernel{igb2 que (qid 14)}]
35853 root        21    0   200M 74652K uwait   0   0:03   1.17% /netup/utm5/bin/utm5_core{utm5_core}
35853 root        20    0   200M 74652K uwait   5   0:22   0.70% /netup/utm5/bin/utm5_core{utm5_core}
35792 root        20  -15 34280K 20572K select  3   0:17   0.50% /usr/local/bin/ipcad -rds -c /usr/local/etc/ipcad.conf{ipcad}
35783 mysql       20    0  2083M   626M select  9   0:01   0.48% [mysqld{mysqld}]
35853 root        20    0   200M 74652K uwait   4   0:03   0.41% /netup/utm5/bin/utm5_core{utm5_core}
35783 mysql       20    0  2083M   626M select  6   0:01   0.41% [mysqld{mysqld}]
35783 mysql       20    0  2083M   626M select  2   0:01   0.39% [mysqld{mysqld}]
35783 mysql       20    0  2083M   626M select  5   0:04   0.39% [mysqld{mysqld}]
35792 root        20  -15 34280K 20572K nanslp  2   0:07   0.39% /usr/local/bin/ipcad -rds -c /usr/local/etc/ipcad.conf{ipcad}
35783 mysql       20    0  2083M   626M select  7   0:01   0.35% [mysqld{mysqld}]
35783 mysql       20    0  2083M   626M select  2   0:01   0.32% [mysqld{mysqld}]
35783 mysql       20    0  2083M   626M select  4   0:01   0.32% [mysqld{mysqld}]
35783 mysql       20    0  2083M   626M select  7   0:01   0.32% [mysqld{mysqld}]
35853 root        20    0   200M 74652K uwait   4   0:01   0.24% /netup/utm5/bin/utm5_core{utm5_core}
35783 mysql       20    0  2083M   626M uwait   0   0:01   0.23% [mysqld{mysqld}]
   15 root       -16    -     0K    16K -       1   2:33   0.22% [rand_harvestq]
35853 root        20    0   200M 74652K uwait   4   0:04   0.15% /netup/utm5/bin/utm5_core{utm5_core}
45554 root        20    0 22208K  4856K CPU0    0   0:00   0.13% top -aSCHIP
   12 root       -88    -     0K  1376K WAIT   11   0:29   0.09% [intr{irq288: ahci0:ch1}]
35853 root        20    0   200M 74652K select  1   0:02   0.07% /netup/utm5/bin/utm5_core{utm5_core}
35783 mysql       20    0  2083M   626M uwait   6   0:00   0.07% [mysqld{mysqld}]
35783 mysql       20    0  2083M   626M uwait  14   0:00   0.06% [mysqld{mysqld}]

 

 

Вот информация о сетевой карте:

igb2@pci0:2:0:0:        class=0x020000 card=0x15228086 chip=0x15228086 rev=0x01 hdr=0x00
    vendor     = 'Intel Corporation'
    device     = 'I350 Gigabit Fiber Network Connection'
    class      = network
    subclass   = ethernet

 

Share this post


Link to post
Share on other sites

@gosti96admin Ну, нормально, i350 имеет 8 аппаратных очередей, вот он 8 ядер нагрузил и всё. Хотите более равномерного распределения - выключайте RSS и включайте RPS, под FreeBSD его придется тащить патчами ядра вроде https://github.com/gokzy/freebsd-rps/wiki/Receive-Packet-Steering-on-FreeBSD , но при этом общая нагрузка на CPU при обработке прерываний несколько вырастет.

Share this post


Link to post
Share on other sites
В 18.02.2019 в 14:07, gosti96admin сказал:

используется для того чтобы Натить и Полосить абонентов

В момент проблемы посмотрите, сколько у вас соединений ната, недавно тоже наткнулись на такую проблему, один юзер (вируса) по 445 порту открывал до 70к соединений, и системе становилось очень плохо. А и да, если используется ipfw nat, попробуйте убрать опцию same_ports (это в том случает если проблема именно с натом)

 

И ещё заметил в 11.2 версии прибитие dummynet к нулевому ядру не дает визуального результата как раньше, он теперь всегда показывает нагрузку на dummynet, примерно так:

0 root       -92    -     0K  6128K -       0 706:54  12.49% kernel{dummynet}

 

Edited by polmax

Share this post


Link to post
Share on other sites
11 часов назад, jffulcrum сказал:

Ну, нормально, i350 имеет 8 аппаратных очередей, вот он 8 ядер нагрузил и всё. Хотите более равномерного распределения - выключайте RSS и включайте RPS, под FreeBSD его придется тащить патчами ядра вроде https://github.com/gokzy/freebsd-rps/wiki/Receive-Packet-Steering-on-FreeBSD , но при этом общая нагрузка на CPU при обработке прерываний несколько вырастет.

Лучше бы ничего не писал :)

Всё что нужно давно в базе, достаточно задать количество рабочих потоков isr и сисцтл покрутить:

net.isr.dispatch=deferred               # direct / hybrid / deffered // Interrupt handling via multiple CPU, but with context switch.

крутится из sysctl - вот прямо на ходу можно менять и сравнивать.

Share this post


Link to post
Share on other sites

@Ivan_83 А разве isr в direct не прибит гвоздями начиная еще с девятки? И как он поможет  увеличить число очередей больше поддерживаемого драйвером?

Share this post


Link to post
Share on other sites
1 час назад, jffulcrum сказал:

А разве isr в direct не прибит гвоздями начиная еще с девятки?

Нет.

 

1 час назад, jffulcrum сказал:

И как он поможет  увеличить число очередей больше поддерживаемого драйвером?

Легко: в обработчике драйвер не гонит пакет по всему стёку а ставит в очередь на обработку, которая может быть уже на другом ядре.

Даже если ISR когданить сломают то есть нетграф, где свои обработчики и свои очереди и всегда можно там раскидать.

Share this post


Link to post
Share on other sites
1 час назад, Ivan_83 сказал:

Нет.

Я помню вот такое обсуждение:

 

Цитата

The net.isr.dispatch is automatically set to direct on our systems. Not sure if that's the default or not. We used to set that via /boot/loader.conf as well, but it was removed in the upgrade to 9-STABLE something as it no longer did anything.

 

Share this post


Link to post
Share on other sites
2 часа назад, jffulcrum сказал:

Я помню вот такое обсуждение:

Удалили всякие:

net.isr.direct=1

net.isr.direct_force=1

и сделали одну крутилку, как я написал выше.

Share this post


Link to post
Share on other sites

С распределением нагрузки по ядрам решил вопрос поднятием Lagg0 теперь 2 гигабитные сетевухи распределяют ее приммерно одинаково!

 

last pid: 15462;  load averages:  1.60,  1.56,  1.18             up 0+01:40:30  12:07:21
345 processes: 17 running, 257 sleeping, 71 waiting
CPU 0:   0.0% user,  0.0% nice,  6.1% system,  7.8% interrupt, 86.1% idle
CPU 1:   0.0% user,  0.0% nice,  0.0% system,  7.0% interrupt, 93.0% idle
CPU 2:   0.0% user,  0.0% nice,  0.0% system,  7.8% interrupt, 92.2% idle
CPU 3:   0.0% user,  0.0% nice,  0.0% system,  8.7% interrupt, 91.3% idle
CPU 4:   0.0% user,  0.0% nice,  0.0% system,  6.1% interrupt, 93.9% idle
CPU 5:   0.0% user,  0.0% nice,  0.0% system,  8.7% interrupt, 91.3% idle
CPU 6:   0.0% user,  0.0% nice,  0.9% system,  4.3% interrupt, 94.8% idle
CPU 7:   0.0% user,  0.0% nice,  0.0% system,  6.1% interrupt, 93.9% idle
CPU 8:   0.0% user,  0.0% nice,  0.0% system,  7.0% interrupt, 93.0% idle
CPU 9:   0.9% user,  0.0% nice,  0.0% system,  8.7% interrupt, 90.4% idle
CPU 10:  0.0% user,  0.0% nice,  0.0% system,  6.1% interrupt, 93.9% idle
CPU 11:  1.7% user,  0.0% nice,  0.0% system,  5.2% interrupt, 93.0% idle
CPU 12:  0.0% user,  0.0% nice,  0.0% system, 10.4% interrupt, 89.6% idle
CPU 13:  0.0% user,  0.0% nice,  0.0% system,  7.0% interrupt, 93.0% idle
CPU 14:  0.0% user,  0.0% nice,  0.0% system,  6.1% interrupt, 93.9% idle
CPU 15:  0.0% user,  0.0% nice,  0.0% system,  7.0% interrupt, 93.0% idle
Mem: 579M Active, 1442M Inact, 1069M Wired, 779M Buf, 4760M Free
Swap: 6144M Total, 6144M Free

  PID USERNAME   PRI NICE   SIZE    RES STATE   C   TIME     CPU COMMAND
   11 root       155 ki31     0K   256K CPU8    8  96:23  95.36% [idle{idle: cpu8}]
   11 root       155 ki31     0K   256K CPU6    6  95:59  94.62% [idle{idle: cpu6}]
   11 root       155 ki31     0K   256K CPU5    5  96:11  94.45% [idle{idle: cpu5}]
   11 root       155 ki31     0K   256K CPU13  13  95:40  94.19% [idle{idle: cpu13}]
   11 root       155 ki31     0K   256K CPU11  11  96:10  94.11% [idle{idle: cpu11}]
   11 root       155 ki31     0K   256K CPU1    1  95:53  93.56% [idle{idle: cpu1}]
   11 root       155 ki31     0K   256K RUN    15  96:27  93.50% [idle{idle: cpu15}]
   11 root       155 ki31     0K   256K CPU2    2  96:02  93.31% [idle{idle: cpu2}]
   11 root       155 ki31     0K   256K CPU10  10  95:28  93.04% [idle{idle: cpu10}]
   11 root       155 ki31     0K   256K CPU14  14  96:09  93.00% [idle{idle: cpu14}]
   11 root       155 ki31     0K   256K CPU4    4  96:22  92.95% [idle{idle: cpu4}]
   11 root       155 ki31     0K   256K CPU7    7  96:20  92.94% [idle{idle: cpu7}]
   11 root       155 ki31     0K   256K CPU3    3  96:17  91.44% [idle{idle: cpu3}]
   11 root       155 ki31     0K   256K RUN     9  95:34  91.04% [idle{idle: cpu9}]
   11 root       155 ki31     0K   256K RUN    12  96:22  90.67% [idle{idle: cpu12}]
   11 root       155 ki31     0K   256K CPU0    0  92:22  88.51% [idle{idle: cpu0}]
   12 root       -92    -     0K  1136K WAIT   12   3:46   8.88% [intr{irq270: igb2:que 
   12 root       -92    -     0K  1136K WAIT    9   4:41   8.69% [intr{irq267: igb2:que 
   12 root       -92    -     0K  1136K WAIT    3   4:01   8.39% [intr{irq278: igb3:que 
   12 root       -92    -     0K  1136K WAIT    4   3:55   6.87% [intr{irq279: igb3:que 
   12 root       -92    -     0K  1136K WAIT    7   3:57   6.82% [intr{irq282: igb3:que 
   12 root       -92    -     0K  1136K WAIT   10   4:45   6.69% [intr{irq268: igb2:que 
   12 root       -92    -     0K  1136K WAIT   14   4:03   6.54% [intr{irq272: igb2:que 
   12 root       -92    -     0K  1136K WAIT    0   3:54   6.50% [intr{irq275: igb3:que 
   12 root       -92    -     0K  1136K WAIT    2   4:15   6.47% [intr{irq277: igb3:que 
   12 root       -92    -     0K  1136K WAIT    1   4:29   6.29% [intr{irq276: igb3:que 
   12 root       -92    -     0K  1136K WAIT   15   3:45   6.16% [intr{irq273: igb2:que 
   12 root       -92    -     0K  1136K WAIT   13   4:33   5.58% [intr{irq271: igb2:que 
   12 root       -92    -     0K  1136K WAIT   11   4:05   5.38% [intr{irq269: igb2:que 
   12 root       -92    -     0K  1136K WAIT    5   4:06   5.33% [intr{irq280: igb3:que 
   12 root       -92    -     0K  1136K WAIT    6   4:16   5.17% [intr{irq281: igb3:que 

 

Теперь вопрос в другом: Можно ли на моем железе натить и шейпить 2Gb трафика, а то непонятная ситуация то при нагрузке в  один гигабит interrupt не выше 2х, то при нагрузке в 700 Мегабит,  interrupt взлетает до 10-15.

Share this post


Link to post
Share on other sites

hw.model: Intel(R) Xeon(R) CPU           E5630  @ 2.53GHz

Память: 8Гб

Сеть: 'Intel Corporation' 'I350 Gigabit Fiber Network Connection'

Share this post


Link to post
Share on other sites
49 минут назад, gosti96admin сказал:

то при нагрузке в  один гигабит interrupt не выше 2х, то при нагрузке в 700 Мегабит,  interrupt взлетает до 10-15.

Нагрузку создает PPS, много мелких пакетов нагрузят систему куда больше, чем меньшее число с полным заполнением. Смотрите, есть ли корреляция с PPS.

Share this post


Link to post
Share on other sites

Спасибо, настроил ограничение 2000 pps на каждого абонента, 3 день - полет нормальный! В час пик доходит до 450К пакетов, при этом нагрузка на систему 30-40%, можно ли еще что то оптимизировать, или смотреть уже в сторону аппаратного (процессор, память) апгрейда? 

 

И еще один момент, что бы я не указал в /boot/loader.conf, после перезагрузки параметры не применяются! Может кто сталкивался с похожей ситуацией!?

Edited by gosti96admin

Share this post


Link to post
Share on other sites
В 22.03.2019 в 10:43, gosti96admin сказал:

настроил ограничение 2000 pps на каждого абонента

каким способом, если не секрет?

оптимизировать можно саму bsd путем обновления до 12-stable. там прилично по части скорости ipfw / обработки pps поменяли.

впрочем, в 11.2, кажется, тоже.

 

В 22.03.2019 в 10:43, gosti96admin сказал:

что бы я не указал в /boot/loader.conf, после перезагрузки параметры не применяются

может их надо в /etc/sysctl.conf вписать? параметры какие?

Share this post


Link to post
Share on other sites

Что намудрили в FreeBSD 12? 

Я так понял что теперь крутится всё через iflib, но при дефолтных настройках из 2 процессоров теперь  используется только один, в топе вижу примерно следующее:
 

Скрытый текст

last pid: 22997;  load averages:  2.37,  2.55,  2.49                                                                                                                                                                 up 0+07:05:28  19:44:09
620 threads:   19 running, 544 sleeping, 57 waiting
CPU 0:   0.0% user,  0.0% nice, 33.3% system,  0.0% interrupt, 66.7% idle
CPU 1:   1.6% user,  0.0% nice, 19.4% system,  0.0% interrupt, 79.1% idle
CPU 2:   1.6% user,  0.0% nice, 17.1% system,  0.0% interrupt, 81.4% idle
CPU 3:   1.6% user,  0.0% nice, 23.3% system,  0.0% interrupt, 75.2% idle
CPU 4:   0.0% user,  0.0% nice, 24.0% system,  0.0% interrupt, 76.0% idle
CPU 5:   0.0% user,  0.0% nice, 28.7% system,  0.0% interrupt, 71.3% idle
CPU 6:   0.0% user,  0.0% nice, 25.6% system,  0.0% interrupt, 74.4% idle
CPU 7:   0.0% user,  0.0% nice, 24.0% system,  0.0% interrupt, 76.0% idle
CPU 8:   0.8% user,  0.0% nice,  4.7% system,  0.0% interrupt, 94.6% idle
CPU 9:   0.8% user,  0.0% nice,  0.8% system,  0.0% interrupt, 98.5% idle
CPU 10:  1.3% user,  0.0% nice,  1.3% system,  0.6% interrupt, 96.8% idle
CPU 11:  0.0% user,  0.0% nice,  3.1% system,  0.0% interrupt, 96.9% idle
CPU 12:  0.8% user,  0.0% nice,  4.6% system,  0.0% interrupt, 94.7% idle
CPU 13:  0.0% user,  0.0% nice,  4.5% system,  0.0% interrupt, 95.5% idle
CPU 14:  0.0% user,  0.0% nice,  0.8% system,  0.0% interrupt, 99.2% idle
CPU 15:  1.5% user,  0.0% nice,  5.3% system,  0.0% interrupt, 93.2% idle
Mem: 111M Active, 394M Inact, 3254M Wired, 665M Buf, 27G Free
ARC: 696M Total, 128M MFU, 124M MRU, 288K Anon, 4809K Header, 439M Other
     41M Compressed, 211M Uncompressed, 5.18:1 Ratio
Swap: 4096M Total, 4096M Free

  PID USERNAME    PRI NICE   SIZE    RES STATE    C   TIME    WCPU COMMAND
   11 root        155 ki31      0   256K CPU10   10 407:22 100.00% [idle{idle: cpu10}]
   11 root        155 ki31      0   256K CPU13   13 406:13  99.40% [idle{idle: cpu13}]
   11 root        155 ki31      0   256K CPU14   14 405:39  99.08% [idle{idle: cpu14}]
   11 root        155 ki31      0   256K CPU9     9 407:45  98.99% [idle{idle: cpu9}]
   11 root        155 ki31      0   256K CPU8     8 414:26  97.31% [idle{idle: cpu8}]
   11 root        155 ki31      0   256K RUN     15 405:16  96.85% [idle{idle: cpu15}]
   11 root        155 ki31      0   256K CPU12   12 406:41  96.26% [idle{idle: cpu12}]
   11 root        155 ki31      0   256K RUN     11 407:08  95.45% [idle{idle: cpu11}]
   11 root        155 ki31      0   256K CPU2     2 352:19  80.28% [idle{idle: cpu2}]
   11 root        155 ki31      0   256K CPU1     1 350:32  77.45% [idle{idle: cpu1}]
   11 root        155 ki31      0   256K RUN      3 352:01  76.41% [idle{idle: cpu3}]
   11 root        155 ki31      0   256K CPU4     4 349:27  74.74% [idle{idle: cpu4}]
   11 root        155 ki31      0   256K CPU5     5 351:07  73.20% [idle{idle: cpu5}]
   11 root        155 ki31      0   256K CPU7     7 343:33  72.37% [idle{idle: cpu7}]
   11 root        155 ki31      0   256K CPU6     6 350:32  71.73% [idle{idle: cpu6}]
   11 root        155 ki31      0   256K CPU0     0 329:45  65.72% [idle{idle: cpu0}]
    0 root        -76    -      0  6160K -        6  69:09  26.13% [kernel{if_io_tqg_6}]
    0 root        -76    -      0  6160K -        7  76:12  25.86% [kernel{if_io_tqg_7}]
    0 root        -76    -      0  6160K -        5  68:41  24.98% [kernel{if_io_tqg_5}]
    0 root        -76    -      0  6160K -        0  70:12  23.79% [kernel{if_io_tqg_0}]
    0 root        -76    -      0  6160K -        4  70:26  23.38% [kernel{if_io_tqg_4}]
    0 root        -76    -      0  6160K -        3  67:54  21.41% [kernel{if_io_tqg_3}]
    0 root        -76    -      0  6160K -        1  69:21  20.91% [kernel{if_io_tqg_1}]
    0 root        -76    -      0  6160K -        2  67:36  17.84% [kernel{if_io_tqg_2}]
    0 root        -92    -      0  6160K -        0  25:59  12.64% [kernel{dummynet}]
 

 

Сетевые ix (Intel(R) PRO/10GbE PCI-Express Network Driver) 

Share this post


Link to post
Share on other sites
В 22.03.2019 в 09:43, gosti96admin сказал:

И еще один момент, что бы я не указал в /boot/loader.conf, после перезагрузки параметры не применяются! Может кто сталкивался с похожей ситуацией!? 

Выдержка из мана rc.conf:
 

...

     kld_list     (str) A list of kernel    modules    to load    right after the    local
         disks are mounted.  Loading modules at    this point in the boot
         process is much faster    than doing it via /boot/loader.conf
         for those modules not necessary for mounting local disk.

...

 

Share this post


Link to post
Share on other sites
10 часов назад, vlad11 сказал:

Выдержка из мана rc.conf

С модулями то ладно, но есть настройки которые только через loader.conf задаются.

 

В 22.03.2019 в 10:43, gosti96admin сказал:

И еще один момент, что бы я не указал в /boot/loader.conf, после перезагрузки параметры не применяются! Может кто сталкивался с похожей ситуацией!?

Может проблемы парсинга?

Все значения переменных должны быть в ковычках

param_name="value"

ну и количество ковычек проверить заодно.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now