LuckySB Опубликовано 27 декабря, 2009 · Жалоба Где-то тут на форуме был уже подобный топик. в итоге dummynet прибили к одному из ядер, и он сразу стал сильно меньше процессора кушать. поиск поможет. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dyr Опубликовано 29 декабря, 2009 (изменено) · Жалоба Проблемы и вопросы:1) нормально ли, что при примерно одинаковом трафике количество прерываний от сетевых карт на сервере corequad+intel вчетверо больше, чем на coreduo+bge? 9000 это как-то дофига, поиграйся со значениями hw.em.[r|t]x_[abs_]int_delay, мне помогло.Сейчас стоит вот так: root@Bastinda:/usr/home/dyr (255) sysctl dev.em dev.em.0.%desc: Intel(R) PRO/1000 Network Connection 6.9.6.Yandex[$Revision: 1.36.2.10 $] dev.em.0.%driver: em dev.em.0.%location: slot=0 function=0 dev.em.0.%pnpinfo: vendor=0x8086 device=0x108c subvendor=0x15d9 subdevice=0x108c class=0x020000 dev.em.0.%parent: pci13 dev.em.0.debug: -1 dev.em.0.stats: -1 dev.em.0.rx_kthreads: 1 dev.em.0.rx_int_delay: 900 dev.em.0.tx_int_delay: 900 dev.em.0.rx_abs_int_delay: 1800 dev.em.0.tx_abs_int_delay: 1800 dev.em.0.rx_kthread_priority: 127 dev.em.1.%desc: Intel(R) PRO/1000 Network Connection 6.9.6.Yandex[$Revision: 1.36.2.10 $] dev.em.1.%driver: em dev.em.1.%location: slot=0 function=0 dev.em.1.%pnpinfo: vendor=0x8086 device=0x109a subvendor=0x15d9 subdevice=0x109a class=0x020000 dev.em.1.%parent: pci15 dev.em.1.debug: -1 dev.em.1.stats: -1 dev.em.1.rx_kthreads: 1 dev.em.1.rx_int_delay: 900 dev.em.1.tx_int_delay: 900 dev.em.1.rx_abs_int_delay: 1800 dev.em.1.tx_abs_int_delay: 1800 dev.em.1.rx_kthread_priority: 127 Попутно заметил весьма странную проблему: пока не выполнишь sysctl dev.em.[0|1].rx_int_delay с тем же самым значением, которое уже установлено после загрузки, количество прерываний также существенно больше, с вышеперечисленными настройками порядка 7000 прерываний/сек против 500 после: Mem:KB REAL VIRTUAL VN PAGER SWAP PAGER Tot Share Tot Share Free in out in out Act 51460 9904 235712 12892 817144 count All 284536 12416 4491432 20776 pages Proc: Interrupts r p d s w Csw Trp Sys Int Sof Flt cow 22508 total 1 88 48k 9 192 18k 993 zfod atkbd0 1 ozfod 6 atapci1 17 33.1%Sys 0.4%Intr 0.0%User 0.0%Nice 66.5%Idle %ozfod 4578 skc0 irq24 | | | | | | | | | | | daefr 2001 cpu0: time ================= prcfr 6677 em0 irq256 88 dtbuf totfr 7245 em1 irq257 Namei Name-cache Dir-cache 100000 desvn react 2001 cpu1: time Calls hits % hits % 82299 numvn pdwak 24971 frevn pdpgs intrn Disks ad6 411712 wire KB/t 4.00 38440 act tps 3 781660 inact MB/s 0.01 160 cache %busy 0 816984 free root@Bastinda:/usr/home/dyr (257) sysctl dev.em.0.rx_int_delay=900 dev.em.0.rx_int_delay: 900 -> 900 root@Bastinda:/usr/home/dyr (258) systat -v 1 1 users Load 1.36 0.92 0.78 29 дек 13:40 Mem:KB REAL VIRTUAL VN PAGER SWAP PAGER Tot Share Tot Share Free in out in out Act 51468 9904 235712 12892 817104 count All 284560 12416 4491432 20776 pages Proc: Interrupts r p d s w Csw Trp Sys Int Sof Flt cow 15266 total 1 88 37k 8 192 11k 998 1 1 zfod atkbd0 1 ozfod atapci1 17 21.3%Sys 0.7%Intr 0.0%User 0.0%Nice 78.0%Idle %ozfod 3923 skc0 irq24 | | | | | | | | | | | daefr 2011 cpu0: time =========== prcfr 510 em0 irq256 66 dtbuf totfr 6811 em1 irq257 Namei Name-cache Dir-cache 100000 desvn react 2011 cpu1: time Calls hits % hits % 82299 numvn pdwak 24971 frevn pdpgs intrn Disks ad6 411744 wire KB/t 0.00 38436 act tps 0 781672 inact MB/s 0.00 160 cache %busy 0 816944 free 204096 buf root@Bastinda:/usr/home/dyr (259) sysctl dev.em.1.rx_int_delay=900 dev.em.1.rx_int_delay: 900 -> 900 root@Bastinda:/usr/home/dyr (260) systat -v 1 1 users Load 1.30 0.92 0.79 29 дек 13:40 Mem:KB REAL VIRTUAL VN PAGER SWAP PAGER Tot Share Tot Share Free in out in out Act 51468 9904 235712 12892 817104 count All 284560 12416 4491432 20776 pages Proc: Interrupts r p d s w Csw Trp Sys Int Sof Flt cow 8448 total 1 87 25k 5 184 4451 994 zfod atkbd0 1 ozfod atapci1 17 15.2%Sys 1.5%Intr 0.0%User 0.0%Nice 83.3%Idle %ozfod 3430 skc0 irq24 | | | | | | | | | | | daefr 1999 cpu0: time ======== prcfr 510 em0 irq256 11 dtbuf totfr 510 em1 irq257 Namei Name-cache Dir-cache 100000 desvn react 1999 cpu1: time Calls hits % hits % 82299 numvn pdwak 24971 frevn pdpgs intrn Disks ad6 411744 wire KB/t 0.00 38436 act tps 0 781672 inact MB/s 0.00 160 cache %busy 0 816944 free 204096 buf Изменено 29 декабря, 2009 пользователем Dyr Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dm1try Опубликовано 29 декабря, 2009 (изменено) · Жалоба Ну да :), есть такое дело и исправляется достаточно легко: # cat /boot/loader.conf # 3. Intel Gigabit Adapters tunning hw.em.rxd=4096 hw.em.txd=4096 hw.em.rx_int_delay=600 hw.em.tx_int_delay=600 hw.em.rx_abs_int_delay=1000 hw.em.tx_abs_int_delay=1000 # cat /etc/rc.local #!/bin/sh # 1. Using delayed interrupts on em(4) ifaces - use carefully # This sysctl values are not implemented on startup, so we try to use it here. echo "Tuning em(4) interfaces" for i in `jot - 0 3 `; do sysctl dev.em.$i.rx_int_delay=600 > /dev/null 2>&1 sysctl dev.em.$i.tx_int_delay=600 > /dev/null 2>&1 sysctl dev.em.$i.rx_abs_int_delay=1000 > /dev/null 2>&1 sysctl dev.em.$i.tx_abs_int_delay=1000 > /dev/null 2>&1 done Изменено 29 декабря, 2009 пользователем Dm1try Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
LuckySB Опубликовано 29 декабря, 2009 (изменено) · Жалоба FreeBSD 6.4 Intel DualPort Эффект есть. было 3600 прерываний, стало 900 dev.em.0.rx_int_delay: 600 -> 600 dev.em.0.tx_int_delay: 600 -> 600 dev.em.0.rx_abs_int_delay: 1000 -> 1000 dev.em.0.tx_abs_int_delay: 1000 -> 1000 dev.em.1.rx_int_delay: 600 -> 600 dev.em.1.tx_int_delay: 600 -> 600 dev.em.1.rx_abs_int_delay: 1000 -> 1000 dev.em.1.tx_abs_int_delay: 1000 -> 1000 надо send-pr делать. Изменено 29 декабря, 2009 пользователем LuckySB Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
[GP]Villi Опубликовано 31 декабря, 2009 (изменено) · Жалоба Смысл гоняться за таким количеством прерываний, оно на em более 8000 и не бывает, в драйвере так зашито если не ошибаюсь, Adaptive так сказать. Или кто то считает что его машину сильно пугают 8 тысяч прерываний? которые еще кстати и не всегда будут этими 8 тысячами. Изменено 31 декабря, 2009 пользователем [GP]Villi Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Elisium Опубликовано 1 января, 2010 · Жалоба Ну, у кого по 8 тыщ -это может еще и неплохо. У меня на сервере две ем карты. На каждой по 18 тысяч. После выполнения вышеуказанной процедуры упало примерно до 800. На душе стало спокойнее )) п.с. С наступившин Новым годом всех )) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Mechanic Опубликовано 8 января, 2010 · Жалоба подскажите плиз, что можно на igb драфвере подтюнить , ну кроме if_igb_load="YES" hw.igb.rxd=2048 hw.igb.txd=2048 дровай на сетевушку стоят от интела, самые последнии, родные из ядра имеют низкую производительность (ядро 7.2-stable) vpn1# sysctl dev.igb dev.igb.0.%desc: Intel(R) PRO/1000 Network Connection version - 1.7.4 dev.igb.0.%driver: igb dev.igb.0.%location: slot=0 function=0 dev.igb.0.%pnpinfo: vendor=0x8086 device=0x10c9 subvendor=0x8086 subdevice=0xa03c class=0x020000 dev.igb.0.%parent: pci1 dev.igb.0.debug: -1 dev.igb.0.stats: -1 dev.igb.0.flow_control: 3 dev.igb.0.enable_aim: 1 dev.igb.0.low_latency: 128 dev.igb.0.ave_latency: 450 dev.igb.0.bulk_latency: 1200 dev.igb.0.rx_processing_limit: 100 dev.igb.1.%desc: Intel(R) PRO/1000 Network Connection version - 1.7.4 dev.igb.1.%driver: igb dev.igb.1.%location: slot=0 function=1 dev.igb.1.%pnpinfo: vendor=0x8086 device=0x10c9 subvendor=0x8086 subdevice=0xa03c class=0x020000 dev.igb.1.%parent: pci1 dev.igb.1.debug: -1 dev.igb.1.stats: -1 dev.igb.1.flow_control: 3 dev.igb.1.enable_aim: 1 dev.igb.1.low_latency: 128 dev.igb.1.ave_latency: 450 dev.igb.1.bulk_latency: 1200 dev.igb.1.rx_processing_limit: 100 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
adeep Опубликовано 8 января, 2010 · Жалоба к примеру так: dev.igb.0.low_latency: 1000 dev.igb.0.ave_latency: 2000 dev.igb.0.bulk_latency: 4000 dev.igb.0.rx_processing_limit: 1000 единственное что при dev.igb.0.enable_aim: 1 проявляются очень странные эффекты замирания траффика, которые пропадают при выводе этого параметра в ноль. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Mechanic Опубликовано 9 января, 2010 · Жалоба ок, попробую вот именно такие эффекты и присутствовали при использовании стандартных драйверов, и частично ушли при обновлении Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
adeep Опубликовано 9 января, 2010 · Жалоба ок, попробуювот именно такие эффекты и присутствовали при использовании стандартных драйверов, и частично ушли при обновлении у меня FreeBSD 8.0-STABLE #1 r200852M иigb0: <Intel® PRO/1000 Network Connection version - 1.7.3> vmstat -i interrupt total rate irq266: igb1 462535587 1673 irq267: igb1 340462773 1231 irq270: igb1 447849971 1619 irq271: igb1 342491604 1238 irq272: igb1 332036250 1201 irq273: igb1 343347531 1241 irq274: igb1 8 0 едет ~50kpps ~300Mbps Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
emp Опубликовано 20 января, 2010 (изменено) · Жалоба подскажите, в чём может быть проблема. не могу передать через роутер 1gbit full duplex. в отдельности 1gbit in или out без проблем. то есть сумма in + out всегда около гигабита. проц при этом особо не загружен. операционные системы пробовал freebsd 7.2 и 8.0 сетевухи двухпортовые em и igb. пробовал как через бридж так и роутинг. эффект одинаковый. sysctl net.inet.ip.fw.one_pass=1 net.link.bridge.ipfw=1 #net.inet.ip.fastforwarding=1 #net.isr.direct=1 net.inet.ip.dummynet.io_fast=1 net.inet.ip.intr_queue_maxlen=1000 net.route.netisr_maxqlen=100 net.inet.ip.dummynet.hash_size=65536 net.inet.ip.fw.dyn_buckets=16384 #net.inet.icmp.icmplim=1024 dev.em.0.rx_int_delay=250 dev.em.0.tx_int_delay=250 dev.em.0.rx_abs_int_delay=300 dev.em.0.tx_abs_int_delay=300 dev.em.0.rx_processing_limit=300 dev.em.1.rx_int_delay=250 dev.em.1.tx_int_delay=250 dev.em.1.rx_abs_int_delay=300 dev.em.1.tx_abs_int_delay=300 dev.em.1.rx_processing_limit=300 прерываний не больше 2000-2300 dummynet отключал. точнее заменял на allow. ipfw тоже выключал. проц Intel® Core2 Quad CPU Q9550 @ 2.83GHz мать http://intel.com/design/servers/boards/S3200SH/index.htm упираюсь в железо ? что ещё может быть ? Изменено 20 января, 2010 пользователем emp Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
a182ot Опубликовано 20 января, 2010 · Жалоба подскажите, в чём может быть проблема. не могу передать через роутер 1gbit full duplex. в отдельности 1gbit in или out без проблем. то есть сумма in + out всегда около гигабита. проц при этом особо не загружен. операционные системы пробовал freebsd 7.2 и 8.0 сетевухи двухпортовые em и igb. пробовал как через бридж так и роутинг. эффект одинаковый. dummynet отключал. точнее заменял на allow. ipfw тоже выключал. проц Intel® Core2 Quad CPU Q9550 @ 2.83GHz мать http://intel.com/design/servers/boards/S3200SH/index.htm упираюсь в железо ? что ещё может быть ? Есть INTEL S3200SHL+C2D 6320, на встроенных сетевых картах не более 800Мбит суммарно(наверно ограничение pci), на четырех портовой intel 1200Мбит в каждую сторону(Linux)... была однопортовая карта intel ~ 850Мбит в каждую сторону Есть INTEL S3200SHC+C2D 8500, на двух четырех портовых intel добился 6000Мбит суммарный трафик(FreeBSD 7.2) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
emp Опубликовано 26 января, 2010 · Жалоба Есть INTEL S3200SHL+C2D 6320, на встроенных сетевых картах не более 800Мбит суммарно(наверно ограничение pci), на четырех портовой intel 1200Мбит в каждую сторону(Linux)... была однопортовая карта intel ~ 850Мбит в каждую сторонуЕсть INTEL S3200SHC+C2D 8500, на двух четырех портовых intel добился 6000Мбит суммарный трафик(FreeBSD 7.2) проблема была в свитче. oversubscription мать его. теперь другая проблема. dummynet жрёт 80-100% при гигабите. из настроек dummynet net.inet.ip.dummynet.hash_size=65536 чего ещё можно покрутить ? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
TiFFolk Опубликовано 27 января, 2010 · Жалоба прицепить его к одному ядру. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jab Опубликовано 27 января, 2010 · Жалоба из настроек dummynet net.inet.ip.dummynet.hash_size=65536чего ещё можно покрутить ? Поставить 1024. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
emp Опубликовано 27 января, 2010 · Жалоба из настроек dummynet net.inet.ip.dummynet.hash_size=65536чего ещё можно покрутить ? Поставить 1024. не помогло. как и приколачивание к процу. выходит что core quad на роутерах - зло. надо или core2duo или i7. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
praeitor Опубликовано 27 января, 2010 · Жалоба доброго времени суток, проблема с появлением input errors на em1 во время средней нагрузки выглядит примерно так: netstat с шагом 1 сек input (em1) output packets errs bytes packets errs bytes colls drops 24818 578 17943184 27702 0 20823221 0 0 24575 533 17902730 27445 0 20452996 0 0 24699 638 18034949 27769 0 20817537 0 0 24709 662 17977483 27472 0 20764103 0 0 25334 534 18938736 27715 0 21120407 0 0 24358 740 17858651 27439 0 20394805 0 0 23940 871 17481453 27494 0 20556939 0 0 25079 927 18302953 27789 0 20101465 0 0 25544 726 19542439 28091 0 20148346 0 0 24215 946 17804620 27779 0 20110945 0 0 24297 493 17585398 27912 0 20917097 0 0 24356 905 17442567 27742 0 20633410 0 0 25290 691 18958576 27872 0 20634327 0 0 Дебаг и статс в момент нагрузки em1: Adapter hardware address = 0xc6dbe224 em1: CTRL = 0x48140248 RCTL = 0x8002 em1: Packet buffer = Tx=20k Rx=12k em1: Flow control watermarks high = 10240 low = 8740 em1: tx_int_delay = 66, tx_abs_int_delay = 66 em1: rx_int_delay = 32, rx_abs_int_delay = 0 em1: fifo workaround = 0, fifo_reset_count = 0 em1: hw tdh = 72, hw tdt = 72 em1: hw rdh = 128, hw rdt = 127 em1: Num Tx descriptors avail = 256 em1: Tx Descriptors not avail1 = 2 em1: Tx Descriptors not avail2 = 0 em1: Std mbuf failed = 0 em1: Std mbuf cluster failed = 0 em1: Driver dropped packets = 0 em1: Driver tx dma failure in encap = 0 em1: Excessive collisions = 0 em1: Sequence errors = 0 em1: Defer count = 276240 em1: Missed Packets = 1630476 em1: Receive No Buffers = 0 em1: Receive Length Errors = 0 em1: Receive errors = 0 em1: Crc errors = 0 em1: Alignment errors = 0 em1: Collision/Carrier extension errors = 0 em1: RX overruns = 135569 em1: watchdog timeouts = 0 em1: XON Rcvd = 0 em1: XON Xmtd = 0 em1: XOFF Rcvd = 275987 em1: XOFF Xmtd = 0 em1: Good Packets Rcvd = 546422855 em1: Good Packets Xmtd = 626350540 em1: TSO Contexts Xmtd = 813667 em1: TSO Contexts Failed = 0 systat -vmstat 11 users Load 0.06 0.12 0.08 Jan 18 16:03 Mem:KB REAL VIRTUAL VN PAGER SWAP PAGER Tot Share Tot Share Free in out in out Act 199744 14592 510164 31744 1797600 count All 327560 20260 2677792 53796 pages Proc: Interrupts r p d s w Csw Trp Sys Int Sof Flt 19 cow 17237 total 1 95 29k 81 3329 13k 1026 55 20 zfod atkbd0 1 ozfod ata0 irq14 12.4%Sys 0.0%Intr 0.6%User 0.0%Nice 87.0%Idle %ozfod 7684 em2 irq17 | | | | | | | | | | | daefr 27 uhci1+ 19 ====== 36 prcfr 2000 cpu0: time 56 dtbuf 159 totfr em0 irq256 Namei Name-cache Dir-cache 100000 desvn react 5526 em1 irq257 Calls hits % hits % 87796 numvn pdwak 2000 cpu1: time 256 256 100 24999 frevn pdpgs intrn Disks ad4 ad6 ar0 234468 wire KB/t 0.00 0.00 59.05 205596 act tps 0 0 8 1349884 inact MB/s 0.00 0.00 0.44 400 cache %busy 0 0 0 1797200 free 114480 buf подскажите в какую сторону копать? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
bsdelnik Опубликовано 27 января, 2010 · Жалоба подскажите в какую сторону копать?Вам определенно в /boot/loader.conf:hw.em.rxd=4096 hw.em.txd=4096 и в /etc/sysctl.conf: dev.em.0.rx_int_delay=250 dev.em.1.rx_int_delay=250 dev.em.0.tx_int_delay=250 dev.em.1.tx_int_delay=250 dev.em.0.rx_abs_int_delay=250 dev.em.1.rx_abs_int_delay=250 dev.em.0.tx_abs_int_delay=250 dev.em.1.tx_abs_int_delay=250 dev.em.0.rx_processing_limit=2048 dev.em.1.rx_processing_limit=2048 И читать эту тему с самого начала до просвящения. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jab Опубликовано 28 января, 2010 · Жалоба не помогло. как и приколачивание к процу. выходит что core quad на роутерах - зло. надо или core2duo или i7. Если у всех работает, а у Вас нет - меняйте прокладку. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ilya Evseev Опубликовано 29 января, 2010 · Жалоба не помогло. как и приколачивание к процу. выходит что core quad на роутерах - зло. надо или core2duo или i7.Вот это поможет? ps -axo pid,command | egrep '^ +[0-9]+ \[' | while read pid cmd; do cpuset -l 0,1 -p $pid; done Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ilya Evseev Опубликовано 29 января, 2010 · Жалоба подскажите в какую сторону копать?и в /etc/sysctl.conf:dev.em.0.rx_int_delay=250 ... Эти же команды желательно выполнить из /etc/rc.local, т.к. в sysctl.conf они почему-то игнорируются.Например: egrep '^dev\.em\.' /etc/sysctl.conf | while read line; do sysctl $line; done Баг обсуждался в данной теме, сообщения с 27 декабря по 1 января (страница 13:-)). Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
praeitor Опубликовано 2 февраля, 2010 · Жалоба проблема решилась так же как и у предыдущего оратора с такой же заморочкой, виновен был flow control на порту вышестоящего провайдера input (em1) output packets errs bytes packets errs bytes colls drops 26351 0 18155418 28515 0 22345722 0 0 25450 0 17463587 27498 0 21513837 0 0 26035 0 17734357 27911 0 21781480 0 0 25747 0 17296702 28293 0 22130440 0 0 24887 0 16474709 27615 0 22167681 0 0 23467 0 15197988 27308 0 22082590 0 0 24470 0 16173014 27591 0 22249455 0 0 24770 0 15778643 27814 0 22780632 0 0 24060 0 15750257 27520 0 21803385 0 0 24660 0 16267616 27721 0 22156763 0 0 26109 0 18591224 28115 0 21904605 0 0 24921 0 16677197 27465 0 22162286 0 0 25212 0 16634638 27312 0 21875819 0 0 24883 0 16103959 26862 0 21736797 0 0 25572 0 16427329 26803 0 22002157 0 0 27055 0 17953296 27292 0 21667858 0 0 24542 0 15980772 26581 0 21001845 0 0 26464 0 18082372 28280 0 22517333 0 0 23868 0 16017112 27270 0 21397766 0 0 25254 0 16937235 28123 0 22163892 0 0 26106 0 17731361 27592 0 21869084 0 0 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
emp Опубликовано 2 февраля, 2010 · Жалоба не помогло. как и приколачивание к процу. выходит что core quad на роутерах - зло. надо или core2duo или i7.Вот это поможет? ps -axo pid,command | egrep '^ +[0-9]+ \[' | while read pid cmd; do cpuset -l 0,1 -p $pid; done пока нет возможности проверить. попробую попозже. спасибо за инфу. Например:egrep '^dev\.em\.' /etc/sysctl.conf | while read line; do sysctl $line; done Баг обсуждался в данной теме, сообщения с 27 декабря по 1 января (страница 13:-)). об этом в курсе. запускаю из скрипта. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Giga-Byte Опубликовано 2 февраля, 2010 · Жалоба dummynet жрёт 80-100% при гигабите. чего ещё можно покрутить ? правильно настроить. создайте отдельно тему, кратко и ясно опишите суть проблемы, может и поможем. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
emp Опубликовано 15 февраля, 2010 · Жалоба не помогло. как и приколачивание к процу. выходит что core quad на роутерах - зло. надо или core2duo или i7.Вот это поможет? ps -axo pid,command | egrep '^ +[0-9]+ \[' | while read pid cmd; do cpuset -l 0,1 -p $pid; done помогло. спасибо! Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...