Jump to content

glat

Пользователи
  • Posts

    12
  • Joined

  • Last visited

About glat

  • Rank
    Абитуриент
    Абитуриент

Контакты

  • ICQ
    Array
  1. простите что донимаю вас своими вопросами, но сегодня на втором серваке, на нем тоже стоит система FreeBSD6.3, обнаружил такую странную штуку PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND 10 root 1 171 52 0K 8K CPU7 7 79:07 92.48% idle: cpu7 11 root 1 171 52 0K 8K CPU6 6 78:04 92.48% idle: cpu6 12 root 1 171 52 0K 8K CPU5 5 71:12 92.48% idle: cpu5 13 root 1 171 52 0K 8K CPU4 4 63:38 92.48% idle: cpu4 14 root 1 171 52 0K 8K CPU3 3 72:32 63.13% idle: cpu3 17 root 1 171 52 0K 8K CPU0 0 61:52 60.89% idle: cpu0 16 root 1 171 52 0K 8K RUN 1 44:21 51.86% idle: cpu1 15 root 1 171 52 0K 8K CPU2 2 67:11 42.09% idle: cpu2 3463 root 1 -16 0 4308K 2124K wdrain 2 0:56 23.29% mc 29 root 1 -68 -187 0K 8K WAIT 2 0:23 6.01% irq19: em1 uhci1+ 18 root 1 -44 -163 0K 8K WAIT 1 10:32 3.71% swi1: net 28 root 1 -68 -187 0K 8K WAIT 1 7:16 2.25% irq18: em0 arcmsr+ при этом на em1 даже не подняты никакие айпихи и порт no carrier. ifconfig em0: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> mtu 1500 options=1b<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING> inet 192.168.0.2 netmask 0xfffffc00 broadcast 192.168.0.255 ether 00:30:48:62:12:52 media: Ethernet autoselect (1000baseTX <full-duplex>) status: active em1: flags=8802<BROADCAST,SIMPLEX,MULTICAST> mtu 1500 options=1b<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING> ether 00:30:48:62:12:53 media: Ethernet autoselect status: no carrier lo0: flags=8049<UP,LOOPBACK,RUNNING,MULTICAST> mtu 163
  2. может быть, но тогда как объяснить то что после ребута загрузка в top снижается в двое, а сегодня утром например загрузка была даже выше на пару % чем вчера вечером в пик, а количество ппс меньше процентов на 40. если бы хоть одно из вышеперечисленного дало хоть какойто результат хоть на 5-10% улучшилось, но нет, такое впечатление что я просто вытер пыль с монитора. Ни в лево ни в право. посмейтесь, а мне прийдется лить систему с нуля, может хоть это даст какието результаты.
  3. В этом посте достаточно много информации как раз по теме этих интерраптов... проблема не столько с интераптами сколько с производительностью сетевой подсистемы. вот например netstat -I em2 -w1 input (em2) output packets errs bytes packets errs bytes colls 22779 0 9269182 7340 0 4471123 0 21494 0 10282791 8086 0 4835633 0 и при этом загрузка сетевой 90% PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND 30 root 1 -68 -187 0K 8K CPU6 7 698:26 92.48% irq19: em2 12 root 1 171 52 0K 8K RUN 5 23.9H 65.38% idle: cpu5 14 root 1 171 52 0K 8K RUN 3 19.7H 52.59% idle: cpu3 13 root 1 171 52 0K 8K RUN 4 24.1H 51.86% idle: cpu4 28 root 1 -68 -187 0K 8K CPU7 7 279:17 51.12% irq16: em0 29 root 1 -68 -187 0K 8K RUN 7 391:47 50.34% irq18: em1 arcmsr0 17 root 1 171 52 0K 8K RUN 0 734:46 48.83% idle: cpu0 15 root 1 171 52 0K 8K RUN 2 18.6H 44.34% idle: cpu2 что произошло с системой понять не могу. раньше грузило 50-60% при трафике по 30-40 мбайт в каждую сторону и pps суммарно 80-100к а тут при суммарном 15 мбайт и pps 30 грузит на 90% кстати почти все рекомендации я сделал но так и не получил никакого результата Да вот, за два дня до начала этих проблем была обновлена система с 6,2 до 6,3, и после обновления все было нормально два дня.
  4. Можно ли как то в tcpdump захватить пакеты определенного размера или до какогото размера, например все пакеты до 64 байт
  5. Как это можно сделать? прошу прощения за глупый вопрос,
  6. что тут другое, вчера перешел с natd на pf нина грам не улучшилось сейчас утром нагрузка на интерфейса такая же, а работает идеально. и еще вот что меня настораживает, раньше когда вводил шейп на внутренний трафик серв начинал тормозить, правда система была 6.2, а сейчас 6.3 и получается полностью наоборот, включаю шейп, пусть даже ставлю там ограничение по 100 мбит на каждого работает лучше чем с правилом allow from any to any кстати для проверки правил ipfw ставил такую строку в самом начале после ната, ничего не менялось. ничё не понимаю, в какомто тупике просто.
  7. я конечно новичок в этом, но может хоть намек дадите куда копать, система freebsd 6.3, используется ipfw + dammynet + natd,
  8. в общем то в топе ничего такого не видно last pid: 23602; load averages: 1.56, 2.48, 2.96 up 0+01:58:07 15:46:33 199 processes: 14 running, 170 sleeping, 15 waiting CPU states: 5.3% user, 0.0% nice, 15.4% system, 32.2% interrupt, 47.1% idle Mem: 282M Active, 367M Inact, 173M Wired, 40K Cache, 112M Buf, 1180M Free Swap: 4069M Total, 4069M Free PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND 14 root 1 171 52 0K 8K RUN 3 90:38 76.66% idle: cpu3 13 root 1 171 52 0K 8K CPU4 4 78:19 68.41% idle: cpu4 15 root 1 171 52 0K 8K RUN 2 86:50 66.89% idle: cpu2 31 root 1 -68 -187 0K 8K WAIT 1 97:03 66.16% irq24: bge0 12 root 1 171 52 0K 8K RUN 5 81:19 62.40% idle: cpu5 28 root 1 -68 -187 0K 8K WAIT 6 39:30 42.82% irq16: em0 29 root 1 -68 -187 0K 8K CPU7 7 79:41 42.09% irq18: em1 ar 18 root 1 -44 -163 0K 8K CPU6 6 25:12 38.33% swi1: net 10 root 1 171 52 0K 8K RUN 7 48:18 34.57% idle: cpu7 17 root 1 171 52 0K 8K CPU0 0 37:55 30.81% idle: cpu0 16 root 1 171 52 0K 8K RUN 1 47:48 26.27% idle: cpu1 11 root 1 171 52 0K 8K RUN 6 21:53 24.02% idle: cpu6 30 root 1 -68 -187 0K 8K WAIT 0 60:58 23.29% irq19: em2 911 root 1 87 0 6912K 6452K RUN 0 23:35 14.26% natd 37 root 1 -68 0 0K 8K - 6 12:16 14.26% dummynet 1686 mysql 14 20 0 151M 55284K kserel 2 38:46 12.70% mysqld 917 root 1 80 0 5408K 4884K select 7 11:59 5.22% natd 1809 root 1 8 0 103M 82844K nanslp 3 4:53 2.25% perl 1648 root 13 76 -15 39432K 37704K CPU3 0 29:03 0.00% ipcad 1555 icecast 22 20 0 11964K 6644K kserel 0 5:45 0.00% icecast 19 root 1 -32 -151 0K 8K WAIT 0 1:58 0.00% swi4: clock s 1460 bind 1 76 0 17352K 16540K select 0 0:49 0.00% named но вот что заметил, снижает количество ошибок если я вместо add 4950 allow ip from "table(20)" to "table(20)" ставлю add 4950 pipe 15 ip from "table(20)" to "table(20)" pipe 15 config bw 10000Kbit/s mask dst-ip 0XFFFFFFFF в таблице 20 список внутренних адресов с маской 32, всего около 1500-2000 штук и еще когда прут ошибки, здесь топ когда мало ошибок, то строка 31 root 1 -68 -187 0K 8K WAIT 1 97:03 66.16% irq24: bge0 показывает загрузку 80-98%
  9. А как бороться с ошибками на BGE? кто то с таким сталкивался? при команде netstat -I bge0 -w 1 input (bge0) output packets errs bytes packets errs bytes colls 21822 764 17627673 27335 0 16352345 0 21706 625 17480872 26536 0 16087454 0 21177 458 18105983 25317 0 14178432 0 21589 767 17947001 26902 0 15989540 0 21026 754 17610183 26181 0 15674706 0 21458 603 17711420 26296 0 14662730 0 Что интересно после полного ребута сервера все нормализуется и производительность вырастает в 1.5-2 раза и ошибок 1-2 или 0, по прошествии 40минут-1го часа снова начинаются ошибки, сперва прыгает то 2-10 то 100, потом до 200-300 вырастает а уже через пару-тройку часов до 1000 доходит, подскажете куда копать?
  10. Есть такая проблема, поставил модуль под оптику-гигабит на BPS2000. но они не хотят коннектиться с оборудованием других производителей. BPS+BPS все отлично работает. если же ставлю BPS+d-link или ( вместо д-линка) Planet , Allied Telesin то не с одним из этих производителей оптический гигабит не работает. Модули пробовал от разных производителей тоже. Только на AT линк загорается, но тоже связь не идет. Ктонибудь с такой проблемой сталкивался и как ее решил, если конечно удалось решить. Буду признателен за помощь. А то два свича лежит без дела.