Перейти к содержимому
Калькуляторы

freebsd 7.1 роутер, em0 тест и тюнинг

Где-то тут на форуме был уже подобный топик.

в итоге dummynet прибили к одному из ядер, и он сразу стал сильно меньше процессора кушать.

поиск поможет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Проблемы и вопросы:

1) нормально ли, что при примерно одинаковом трафике количество прерываний от сетевых карт на сервере corequad+intel вчетверо больше, чем на coreduo+bge?

9000 это как-то дофига, поиграйся со значениями hw.em.[r|t]x_[abs_]int_delay, мне помогло.

Сейчас стоит вот так:

root@Bastinda:/usr/home/dyr (255) sysctl dev.em
dev.em.0.%desc: Intel(R) PRO/1000 Network Connection 6.9.6.Yandex[$Revision: 1.36.2.10 $]
dev.em.0.%driver: em
dev.em.0.%location: slot=0 function=0
dev.em.0.%pnpinfo: vendor=0x8086 device=0x108c subvendor=0x15d9 subdevice=0x108c class=0x020000
dev.em.0.%parent: pci13
dev.em.0.debug: -1
dev.em.0.stats: -1
dev.em.0.rx_kthreads: 1
dev.em.0.rx_int_delay: 900
dev.em.0.tx_int_delay: 900
dev.em.0.rx_abs_int_delay: 1800
dev.em.0.tx_abs_int_delay: 1800
dev.em.0.rx_kthread_priority: 127
dev.em.1.%desc: Intel(R) PRO/1000 Network Connection 6.9.6.Yandex[$Revision: 1.36.2.10 $]
dev.em.1.%driver: em
dev.em.1.%location: slot=0 function=0
dev.em.1.%pnpinfo: vendor=0x8086 device=0x109a subvendor=0x15d9 subdevice=0x109a class=0x020000
dev.em.1.%parent: pci15
dev.em.1.debug: -1
dev.em.1.stats: -1
dev.em.1.rx_kthreads: 1
dev.em.1.rx_int_delay: 900
dev.em.1.tx_int_delay: 900
dev.em.1.rx_abs_int_delay: 1800
dev.em.1.tx_abs_int_delay: 1800
dev.em.1.rx_kthread_priority: 127

 

Попутно заметил весьма странную проблему: пока не выполнишь sysctl dev.em.[0|1].rx_int_delay с тем же самым значением, которое уже установлено после загрузки, количество прерываний также существенно больше, с вышеперечисленными настройками порядка 7000 прерываний/сек против 500 после:

 

Mem:KB    REAL            VIRTUAL                       VN PAGER   SWAP PAGER
        Tot   Share      Tot    Share    Free           in   out     in   out
Act   51460    9904   235712    12892  817144  count
All  284536   12416  4491432    20776          pages
Proc:                                                            Interrupts
  r   p   d   s   w   Csw  Trp  Sys  Int  Sof  Flt        cow   22508 total
          1  88       48k    9  192  18k  993             zfod        atkbd0 1
                                                          ozfod     6 atapci1 17
33.1%Sys   0.4%Intr  0.0%User  0.0%Nice 66.5%Idle        %ozfod  4578 skc0 irq24
|    |    |    |    |    |    |    |    |    |    |       daefr  2001 cpu0: time
=================                                         prcfr  6677 em0 irq256
                                        88 dtbuf          totfr  7245 em1 irq257
Namei     Name-cache   Dir-cache    100000 desvn          react  2001 cpu1: time
   Calls    hits   %    hits   %     82299 numvn          pdwak
                                     24971 frevn          pdpgs
                                                          intrn
Disks   ad6                                        411712 wire
KB/t   4.00                                         38440 act
tps       3                                        781660 inact
MB/s   0.01                                           160 cache
%busy     0                                        816984 free

root@Bastinda:/usr/home/dyr (257) sysctl dev.em.0.rx_int_delay=900
dev.em.0.rx_int_delay: 900 -> 900
root@Bastinda:/usr/home/dyr (258) systat -v 1
    1 users    Load  1.36  0.92  0.78                  29 дек 13:40

Mem:KB    REAL            VIRTUAL                       VN PAGER   SWAP PAGER
        Tot   Share      Tot    Share    Free           in   out     in   out
Act   51468    9904   235712    12892  817104  count
All  284560   12416  4491432    20776          pages
Proc:                                                            Interrupts
  r   p   d   s   w   Csw  Trp  Sys  Int  Sof  Flt        cow   15266 total
          1  88       37k    8  192  11k  998    1      1 zfod        atkbd0 1
                                                          ozfod       atapci1 17
21.3%Sys   0.7%Intr  0.0%User  0.0%Nice 78.0%Idle        %ozfod  3923 skc0 irq24
|    |    |    |    |    |    |    |    |    |    |       daefr  2011 cpu0: time
===========                                               prcfr   510 em0 irq256
                                        66 dtbuf          totfr  6811 em1 irq257
Namei     Name-cache   Dir-cache    100000 desvn          react  2011 cpu1: time
   Calls    hits   %    hits   %     82299 numvn          pdwak
                                     24971 frevn          pdpgs
                                                          intrn
Disks   ad6                                        411744 wire
KB/t   0.00                                         38436 act
tps       0                                        781672 inact
MB/s   0.00                                           160 cache
%busy     0                                        816944 free
                                                   204096 buf
root@Bastinda:/usr/home/dyr (259) sysctl dev.em.1.rx_int_delay=900
dev.em.1.rx_int_delay: 900 -> 900
root@Bastinda:/usr/home/dyr (260) systat -v 1
    1 users    Load  1.30  0.92  0.79                  29 дек 13:40

Mem:KB    REAL            VIRTUAL                       VN PAGER   SWAP PAGER
        Tot   Share      Tot    Share    Free           in   out     in   out
Act   51468    9904   235712    12892  817104  count
All  284560   12416  4491432    20776          pages
Proc:                                                            Interrupts
  r   p   d   s   w   Csw  Trp  Sys  Int  Sof  Flt        cow    8448 total
          1  87       25k    5  184 4451  994             zfod        atkbd0 1
                                                          ozfod       atapci1 17
15.2%Sys   1.5%Intr  0.0%User  0.0%Nice 83.3%Idle        %ozfod  3430 skc0 irq24
|    |    |    |    |    |    |    |    |    |    |       daefr  1999 cpu0: time
========                                                  prcfr   510 em0 irq256
                                        11 dtbuf          totfr   510 em1 irq257
Namei     Name-cache   Dir-cache    100000 desvn          react  1999 cpu1: time
   Calls    hits   %    hits   %     82299 numvn          pdwak
                                     24971 frevn          pdpgs
                                                          intrn
Disks   ad6                                        411744 wire
KB/t   0.00                                         38436 act
tps       0                                        781672 inact
MB/s   0.00                                           160 cache
%busy     0                                        816944 free
                                                   204096 buf

Изменено пользователем Dyr

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ну да :), есть такое дело и исправляется достаточно легко:

# cat /boot/loader.conf
# 3. Intel Gigabit Adapters tunning
hw.em.rxd=4096
hw.em.txd=4096
hw.em.rx_int_delay=600
hw.em.tx_int_delay=600
hw.em.rx_abs_int_delay=1000
hw.em.tx_abs_int_delay=1000

 

# cat /etc/rc.local 
#!/bin/sh

# 1. Using delayed interrupts on em(4) ifaces - use carefully
# This sysctl values are not implemented on startup, so we try to use it here.
echo "Tuning em(4) interfaces"
for i in `jot - 0 3 `; do 
    sysctl dev.em.$i.rx_int_delay=600 > /dev/null 2>&1
    sysctl dev.em.$i.tx_int_delay=600 > /dev/null 2>&1
    sysctl dev.em.$i.rx_abs_int_delay=1000 > /dev/null 2>&1
    sysctl dev.em.$i.tx_abs_int_delay=1000 > /dev/null 2>&1
done

Изменено пользователем Dm1try

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

FreeBSD 6.4 Intel DualPort

Эффект есть. было 3600 прерываний, стало 900

dev.em.0.rx_int_delay: 600 -> 600
dev.em.0.tx_int_delay: 600 -> 600
dev.em.0.rx_abs_int_delay: 1000 -> 1000
dev.em.0.tx_abs_int_delay: 1000 -> 1000
dev.em.1.rx_int_delay: 600 -> 600
dev.em.1.tx_int_delay: 600 -> 600
dev.em.1.rx_abs_int_delay: 1000 -> 1000
dev.em.1.tx_abs_int_delay: 1000 -> 1000

надо send-pr делать.

Изменено пользователем LuckySB

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Смысл гоняться за таким количеством прерываний, оно на em более 8000 и не бывает, в драйвере так зашито если не ошибаюсь, Adaptive так сказать.

Или кто то считает что его машину сильно пугают 8 тысяч прерываний? которые еще кстати и не всегда будут этими 8 тысячами.

Изменено пользователем [GP]Villi

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ну, у кого по 8 тыщ -это может еще и неплохо.

У меня на сервере две ем карты. На каждой по 18 тысяч.

После выполнения вышеуказанной процедуры упало примерно до 800.

На душе стало спокойнее ))

 

п.с. С наступившин Новым годом всех ))

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

подскажите плиз, что можно на igb драфвере подтюнить , ну кроме

if_igb_load="YES"
hw.igb.rxd=2048
hw.igb.txd=2048

дровай на сетевушку стоят от интела, самые последнии, родные из ядра имеют низкую производительность (ядро 7.2-stable)

vpn1# sysctl dev.igb
dev.igb.0.%desc: Intel(R) PRO/1000 Network Connection version - 1.7.4
dev.igb.0.%driver: igb
dev.igb.0.%location: slot=0 function=0
dev.igb.0.%pnpinfo: vendor=0x8086 device=0x10c9 subvendor=0x8086 subdevice=0xa03c class=0x020000
dev.igb.0.%parent: pci1
dev.igb.0.debug: -1
dev.igb.0.stats: -1
dev.igb.0.flow_control: 3
dev.igb.0.enable_aim: 1
dev.igb.0.low_latency: 128
dev.igb.0.ave_latency: 450
dev.igb.0.bulk_latency: 1200
dev.igb.0.rx_processing_limit: 100
dev.igb.1.%desc: Intel(R) PRO/1000 Network Connection version - 1.7.4
dev.igb.1.%driver: igb
dev.igb.1.%location: slot=0 function=1
dev.igb.1.%pnpinfo: vendor=0x8086 device=0x10c9 subvendor=0x8086 subdevice=0xa03c class=0x020000
dev.igb.1.%parent: pci1
dev.igb.1.debug: -1
dev.igb.1.stats: -1
dev.igb.1.flow_control: 3
dev.igb.1.enable_aim: 1
dev.igb.1.low_latency: 128
dev.igb.1.ave_latency: 450
dev.igb.1.bulk_latency: 1200
dev.igb.1.rx_processing_limit: 100

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

к примеру так:

dev.igb.0.low_latency: 1000

dev.igb.0.ave_latency: 2000

dev.igb.0.bulk_latency: 4000

dev.igb.0.rx_processing_limit: 1000

 

единственное что при dev.igb.0.enable_aim: 1 проявляются очень странные эффекты замирания траффика, которые пропадают при выводе этого параметра в ноль.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

ок, попробую

вот именно такие эффекты и присутствовали при использовании стандартных драйверов, и частично ушли при обновлении

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

ок, попробую

вот именно такие эффекты и присутствовали при использовании стандартных драйверов, и частично ушли при обновлении

у меня FreeBSD 8.0-STABLE #1 r200852M и

igb0: <Intel® PRO/1000 Network Connection version - 1.7.3>

 

vmstat -i

interrupt total rate

irq266: igb1 462535587 1673

irq267: igb1 340462773 1231

irq270: igb1 447849971 1619

irq271: igb1 342491604 1238

irq272: igb1 332036250 1201

irq273: igb1 343347531 1241

irq274: igb1 8 0

 

едет ~50kpps ~300Mbps

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

подскажите, в чём может быть проблема. не могу передать через роутер 1gbit full duplex. в отдельности 1gbit in или out без проблем. то есть сумма in + out всегда около гигабита. проц при этом особо не загружен. операционные системы пробовал freebsd 7.2 и 8.0 сетевухи двухпортовые em и igb. пробовал как через бридж так и роутинг. эффект одинаковый.

 

sysctl

 

net.inet.ip.fw.one_pass=1

net.link.bridge.ipfw=1

#net.inet.ip.fastforwarding=1

#net.isr.direct=1

 

net.inet.ip.dummynet.io_fast=1

net.inet.ip.intr_queue_maxlen=1000

net.route.netisr_maxqlen=100

net.inet.ip.dummynet.hash_size=65536

net.inet.ip.fw.dyn_buckets=16384

 

#net.inet.icmp.icmplim=1024

 

dev.em.0.rx_int_delay=250

dev.em.0.tx_int_delay=250

dev.em.0.rx_abs_int_delay=300

dev.em.0.tx_abs_int_delay=300

dev.em.0.rx_processing_limit=300

 

dev.em.1.rx_int_delay=250

dev.em.1.tx_int_delay=250

dev.em.1.rx_abs_int_delay=300

dev.em.1.tx_abs_int_delay=300

dev.em.1.rx_processing_limit=300

 

прерываний не больше 2000-2300

 

dummynet отключал. точнее заменял на allow. ipfw тоже выключал.

проц Intel® Core™2 Quad CPU Q9550 @ 2.83GHz

мать http://intel.com/design/servers/boards/S3200SH/index.htm

 

упираюсь в железо ? что ещё может быть ?

Изменено пользователем emp

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

подскажите, в чём может быть проблема. не могу передать через роутер 1gbit full duplex. в отдельности 1gbit in или out без проблем. то есть сумма in + out всегда около гигабита. проц при этом особо не загружен. операционные системы пробовал freebsd 7.2 и 8.0 сетевухи двухпортовые em и igb. пробовал как через бридж так и роутинг. эффект одинаковый.

 

dummynet отключал. точнее заменял на allow. ipfw тоже выключал.

проц Intel® Core2 Quad CPU Q9550 @ 2.83GHz

мать http://intel.com/design/servers/boards/S3200SH/index.htm

 

упираюсь в железо ? что ещё может быть ?

Есть INTEL S3200SHL+C2D 6320, на встроенных сетевых картах не более 800Мбит суммарно(наверно ограничение pci), на четырех портовой intel 1200Мбит в каждую сторону(Linux)... была однопортовая карта intel ~ 850Мбит в каждую сторону

Есть INTEL S3200SHC+C2D 8500, на двух четырех портовых intel добился 6000Мбит суммарный трафик(FreeBSD 7.2)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Есть INTEL S3200SHL+C2D 6320, на встроенных сетевых картах не более 800Мбит суммарно(наверно ограничение pci), на четырех портовой intel 1200Мбит в каждую сторону(Linux)... была однопортовая карта intel ~ 850Мбит в каждую сторону

Есть INTEL S3200SHC+C2D 8500, на двух четырех портовых intel добился 6000Мбит суммарный трафик(FreeBSD 7.2)

проблема была в свитче. oversubscription мать его. теперь другая проблема. dummynet жрёт 80-100% при гигабите.

 

из настроек dummynet net.inet.ip.dummynet.hash_size=65536

чего ещё можно покрутить ?

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

прицепить его к одному ядру.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

из настроек dummynet net.inet.ip.dummynet.hash_size=65536

чего ещё можно покрутить ?

Поставить 1024.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

из настроек dummynet net.inet.ip.dummynet.hash_size=65536

чего ещё можно покрутить ?

Поставить 1024.

не помогло. как и приколачивание к процу. выходит что core quad на роутерах - зло. надо или core2duo или i7.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

доброго времени суток, проблема с появлением input errors на em1 во время средней нагрузки выглядит примерно так:

 

netstat с шагом 1 сек

            input          (em1)           output
  packets  errs      bytes    packets  errs      bytes colls drops
    24818   578   17943184      27702     0   20823221     0     0
    24575   533   17902730      27445     0   20452996     0     0
    24699   638   18034949      27769     0   20817537     0     0
    24709   662   17977483      27472     0   20764103     0     0
    25334   534   18938736      27715     0   21120407     0     0
    24358   740   17858651      27439     0   20394805     0     0
    23940   871   17481453      27494     0   20556939     0     0
    25079   927   18302953      27789     0   20101465     0     0
    25544   726   19542439      28091     0   20148346     0     0
    24215   946   17804620      27779     0   20110945     0     0
    24297   493   17585398      27912     0   20917097     0     0
    24356   905   17442567      27742     0   20633410     0     0
    25290   691   18958576      27872     0   20634327     0     0

 

Дебаг и статс в момент нагрузки

em1: Adapter hardware address = 0xc6dbe224
em1: CTRL = 0x48140248 RCTL = 0x8002
em1: Packet buffer = Tx=20k Rx=12k
em1: Flow control watermarks high = 10240 low = 8740
em1: tx_int_delay = 66, tx_abs_int_delay = 66
em1: rx_int_delay = 32, rx_abs_int_delay = 0
em1: fifo workaround = 0, fifo_reset_count = 0
em1: hw tdh = 72, hw tdt = 72
em1: hw rdh = 128, hw rdt = 127
em1: Num Tx descriptors avail = 256
em1: Tx Descriptors not avail1 = 2
em1: Tx Descriptors not avail2 = 0
em1: Std mbuf failed = 0
em1: Std mbuf cluster failed = 0
em1: Driver dropped packets = 0
em1: Driver tx dma failure in encap = 0
em1: Excessive collisions = 0
em1: Sequence errors = 0
em1: Defer count = 276240
em1: Missed Packets = 1630476
em1: Receive No Buffers = 0
em1: Receive Length Errors = 0
em1: Receive errors = 0
em1: Crc errors = 0
em1: Alignment errors = 0
em1: Collision/Carrier extension errors = 0
em1: RX overruns = 135569
em1: watchdog timeouts = 0
em1: XON Rcvd = 0
em1: XON Xmtd = 0
em1: XOFF Rcvd = 275987
em1: XOFF Xmtd = 0
em1: Good Packets Rcvd = 546422855
em1: Good Packets Xmtd = 626350540
em1: TSO Contexts Xmtd = 813667
em1: TSO Contexts Failed = 0

 

systat -vmstat


  11 users    Load  0.06  0.12  0.08                  Jan 18 16:03

Mem:KB    REAL            VIRTUAL                       VN PAGER   SWAP PAGER
       Tot   Share      Tot    Share    Free           in   out     in   out
Act  199744   14592   510164    31744 1797600  count
All  327560   20260  2677792    53796          pages
Proc:                                                            Interrupts
 r   p   d   s   w   Csw  Trp  Sys  Int  Sof  Flt     19 cow   17237 total
         1  95       29k   81 3329  13k 1026   55     20 zfod        atkbd0 1
                                                         ozfod       ata0 irq14
12.4%Sys   0.0%Intr  0.6%User  0.0%Nice 87.0%Idle        %ozfod  7684 em2 irq17
|    |    |    |    |    |    |    |    |    |    |       daefr    27 uhci1+ 19
======                                                 36 prcfr  2000 cpu0: time
                                       56 dtbuf      159 totfr       em0 irq256
Namei     Name-cache   Dir-cache    100000 desvn          react  5526 em1 irq257
  Calls    hits   %    hits   %     87796 numvn          pdwak  2000 cpu1: time
    256     256 100                 24999 frevn          pdpgs
                                                         intrn
Disks   ad4   ad6   ar0                            234468 wire
KB/t   0.00  0.00 59.05                            205596 act
tps       0     0     8                           1349884 inact
MB/s   0.00  0.00  0.44                               400 cache
%busy     0     0     0                           1797200 free
                                                  114480 buf

 

подскажите в какую сторону копать?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

подскажите в какую сторону копать?
Вам определенно в /boot/loader.conf:

hw.em.rxd=4096

hw.em.txd=4096

 

и в /etc/sysctl.conf:

dev.em.0.rx_int_delay=250

dev.em.1.rx_int_delay=250

dev.em.0.tx_int_delay=250

dev.em.1.tx_int_delay=250

dev.em.0.rx_abs_int_delay=250

dev.em.1.rx_abs_int_delay=250

dev.em.0.tx_abs_int_delay=250

dev.em.1.tx_abs_int_delay=250

dev.em.0.rx_processing_limit=2048

dev.em.1.rx_processing_limit=2048

 

И читать эту тему с самого начала до просвящения.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

не помогло. как и приколачивание к процу. выходит что core quad на роутерах - зло. надо или core2duo или i7.

Если у всех работает, а у Вас нет - меняйте прокладку.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

не помогло. как и приколачивание к процу. выходит что core quad на роутерах - зло. надо или core2duo или i7.
Вот это поможет?

ps -axo pid,command | egrep '^ +[0-9]+ \[' | while read pid cmd; do cpuset -l 0,1 -p $pid; done

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

подскажите в какую сторону копать?
и в /etc/sysctl.conf:

dev.em.0.rx_int_delay=250

...

Эти же команды желательно выполнить из /etc/rc.local, т.к. в sysctl.conf они почему-то игнорируются.

Например:

egrep '^dev\.em\.' /etc/sysctl.conf | while read line; do sysctl $line; done

 

Баг обсуждался в данной теме, сообщения с 27 декабря по 1 января (страница 13:-)).

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

проблема решилась так же как и у предыдущего оратора с такой же заморочкой, виновен был flow control на порту вышестоящего провайдера

 input          (em1)           output
  packets  errs      bytes    packets  errs      bytes colls drops
    26351     0   18155418      28515     0   22345722     0     0
    25450     0   17463587      27498     0   21513837     0     0
    26035     0   17734357      27911     0   21781480     0     0
    25747     0   17296702      28293     0   22130440     0     0
    24887     0   16474709      27615     0   22167681     0     0
    23467     0   15197988      27308     0   22082590     0     0
    24470     0   16173014      27591     0   22249455     0     0
    24770     0   15778643      27814     0   22780632     0     0
    24060     0   15750257      27520     0   21803385     0     0
    24660     0   16267616      27721     0   22156763     0     0
    26109     0   18591224      28115     0   21904605     0     0
    24921     0   16677197      27465     0   22162286     0     0
    25212     0   16634638      27312     0   21875819     0     0
    24883     0   16103959      26862     0   21736797     0     0
    25572     0   16427329      26803     0   22002157     0     0
    27055     0   17953296      27292     0   21667858     0     0
    24542     0   15980772      26581     0   21001845     0     0
    26464     0   18082372      28280     0   22517333     0     0
    23868     0   16017112      27270     0   21397766     0     0
    25254     0   16937235      28123     0   22163892     0     0
    26106     0   17731361      27592     0   21869084     0     0

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

не помогло. как и приколачивание к процу. выходит что core quad на роутерах - зло. надо или core2duo или i7.
Вот это поможет?

ps -axo pid,command | egrep '^ +[0-9]+ \[' | while read pid cmd; do cpuset -l 0,1 -p $pid; done

пока нет возможности проверить. попробую попозже. спасибо за инфу.

 

 

Например:

egrep '^dev\.em\.' /etc/sysctl.conf | while read line; do sysctl $line; done

 

Баг обсуждался в данной теме, сообщения с 27 декабря по 1 января (страница 13:-)).

об этом в курсе. запускаю из скрипта.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

dummynet жрёт 80-100% при гигабите.

 

чего ещё можно покрутить ?

правильно настроить.

 

создайте отдельно тему, кратко и ясно опишите суть проблемы, может и поможем.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

не помогло. как и приколачивание к процу. выходит что core quad на роутерах - зло. надо или core2duo или i7.
Вот это поможет?

ps -axo pid,command | egrep '^ +[0-9]+ \[' | while read pid cmd; do cpuset -l 0,1 -p $pid; done

помогло. спасибо!

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.