

glat
Пользователи-
Posts
12 -
Joined
-
Last visited
About glat
-
Rank
Абитуриент
Контакты
-
ICQ
Array
-
простите что донимаю вас своими вопросами, но сегодня на втором серваке, на нем тоже стоит система FreeBSD6.3, обнаружил такую странную штуку PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND 10 root 1 171 52 0K 8K CPU7 7 79:07 92.48% idle: cpu7 11 root 1 171 52 0K 8K CPU6 6 78:04 92.48% idle: cpu6 12 root 1 171 52 0K 8K CPU5 5 71:12 92.48% idle: cpu5 13 root 1 171 52 0K 8K CPU4 4 63:38 92.48% idle: cpu4 14 root 1 171 52 0K 8K CPU3 3 72:32 63.13% idle: cpu3 17 root 1 171 52 0K 8K CPU0 0 61:52 60.89% idle: cpu0 16 root 1 171 52 0K 8K RUN 1 44:21 51.86% idle: cpu1 15 root 1 171 52 0K 8K CPU2 2 67:11 42.09% idle: cpu2 3463 root 1 -16 0 4308K 2124K wdrain 2 0:56 23.29% mc 29 root 1 -68 -187 0K 8K WAIT 2 0:23 6.01% irq19: em1 uhci1+ 18 root 1 -44 -163 0K 8K WAIT 1 10:32 3.71% swi1: net 28 root 1 -68 -187 0K 8K WAIT 1 7:16 2.25% irq18: em0 arcmsr+ при этом на em1 даже не подняты никакие айпихи и порт no carrier. ifconfig em0: flags=8843<UP,BROADCAST,RUNNING,SIMPLEX,MULTICAST> mtu 1500 options=1b<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING> inet 192.168.0.2 netmask 0xfffffc00 broadcast 192.168.0.255 ether 00:30:48:62:12:52 media: Ethernet autoselect (1000baseTX <full-duplex>) status: active em1: flags=8802<BROADCAST,SIMPLEX,MULTICAST> mtu 1500 options=1b<RXCSUM,TXCSUM,VLAN_MTU,VLAN_HWTAGGING> ether 00:30:48:62:12:53 media: Ethernet autoselect status: no carrier lo0: flags=8049<UP,LOOPBACK,RUNNING,MULTICAST> mtu 163
-
может быть, но тогда как объяснить то что после ребута загрузка в top снижается в двое, а сегодня утром например загрузка была даже выше на пару % чем вчера вечером в пик, а количество ппс меньше процентов на 40. если бы хоть одно из вышеперечисленного дало хоть какойто результат хоть на 5-10% улучшилось, но нет, такое впечатление что я просто вытер пыль с монитора. Ни в лево ни в право. посмейтесь, а мне прийдется лить систему с нуля, может хоть это даст какието результаты.
-
В этом посте достаточно много информации как раз по теме этих интерраптов... проблема не столько с интераптами сколько с производительностью сетевой подсистемы. вот например netstat -I em2 -w1 input (em2) output packets errs bytes packets errs bytes colls 22779 0 9269182 7340 0 4471123 0 21494 0 10282791 8086 0 4835633 0 и при этом загрузка сетевой 90% PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND 30 root 1 -68 -187 0K 8K CPU6 7 698:26 92.48% irq19: em2 12 root 1 171 52 0K 8K RUN 5 23.9H 65.38% idle: cpu5 14 root 1 171 52 0K 8K RUN 3 19.7H 52.59% idle: cpu3 13 root 1 171 52 0K 8K RUN 4 24.1H 51.86% idle: cpu4 28 root 1 -68 -187 0K 8K CPU7 7 279:17 51.12% irq16: em0 29 root 1 -68 -187 0K 8K RUN 7 391:47 50.34% irq18: em1 arcmsr0 17 root 1 171 52 0K 8K RUN 0 734:46 48.83% idle: cpu0 15 root 1 171 52 0K 8K RUN 2 18.6H 44.34% idle: cpu2 что произошло с системой понять не могу. раньше грузило 50-60% при трафике по 30-40 мбайт в каждую сторону и pps суммарно 80-100к а тут при суммарном 15 мбайт и pps 30 грузит на 90% кстати почти все рекомендации я сделал но так и не получил никакого результата Да вот, за два дня до начала этих проблем была обновлена система с 6,2 до 6,3, и после обновления все было нормально два дня.
-
Можно ли как то в tcpdump захватить пакеты определенного размера или до какогото размера, например все пакеты до 64 байт
-
Как это можно сделать? прошу прощения за глупый вопрос,
-
что тут другое, вчера перешел с natd на pf нина грам не улучшилось сейчас утром нагрузка на интерфейса такая же, а работает идеально. и еще вот что меня настораживает, раньше когда вводил шейп на внутренний трафик серв начинал тормозить, правда система была 6.2, а сейчас 6.3 и получается полностью наоборот, включаю шейп, пусть даже ставлю там ограничение по 100 мбит на каждого работает лучше чем с правилом allow from any to any кстати для проверки правил ipfw ставил такую строку в самом начале после ната, ничего не менялось. ничё не понимаю, в какомто тупике просто.
-
как на em включить fast_intr
-
я конечно новичок в этом, но может хоть намек дадите куда копать, система freebsd 6.3, используется ipfw + dammynet + natd,
-
как решу проблему обязательно с вами посмеюсь.
-
в общем то в топе ничего такого не видно last pid: 23602; load averages: 1.56, 2.48, 2.96 up 0+01:58:07 15:46:33 199 processes: 14 running, 170 sleeping, 15 waiting CPU states: 5.3% user, 0.0% nice, 15.4% system, 32.2% interrupt, 47.1% idle Mem: 282M Active, 367M Inact, 173M Wired, 40K Cache, 112M Buf, 1180M Free Swap: 4069M Total, 4069M Free PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND 14 root 1 171 52 0K 8K RUN 3 90:38 76.66% idle: cpu3 13 root 1 171 52 0K 8K CPU4 4 78:19 68.41% idle: cpu4 15 root 1 171 52 0K 8K RUN 2 86:50 66.89% idle: cpu2 31 root 1 -68 -187 0K 8K WAIT 1 97:03 66.16% irq24: bge0 12 root 1 171 52 0K 8K RUN 5 81:19 62.40% idle: cpu5 28 root 1 -68 -187 0K 8K WAIT 6 39:30 42.82% irq16: em0 29 root 1 -68 -187 0K 8K CPU7 7 79:41 42.09% irq18: em1 ar 18 root 1 -44 -163 0K 8K CPU6 6 25:12 38.33% swi1: net 10 root 1 171 52 0K 8K RUN 7 48:18 34.57% idle: cpu7 17 root 1 171 52 0K 8K CPU0 0 37:55 30.81% idle: cpu0 16 root 1 171 52 0K 8K RUN 1 47:48 26.27% idle: cpu1 11 root 1 171 52 0K 8K RUN 6 21:53 24.02% idle: cpu6 30 root 1 -68 -187 0K 8K WAIT 0 60:58 23.29% irq19: em2 911 root 1 87 0 6912K 6452K RUN 0 23:35 14.26% natd 37 root 1 -68 0 0K 8K - 6 12:16 14.26% dummynet 1686 mysql 14 20 0 151M 55284K kserel 2 38:46 12.70% mysqld 917 root 1 80 0 5408K 4884K select 7 11:59 5.22% natd 1809 root 1 8 0 103M 82844K nanslp 3 4:53 2.25% perl 1648 root 13 76 -15 39432K 37704K CPU3 0 29:03 0.00% ipcad 1555 icecast 22 20 0 11964K 6644K kserel 0 5:45 0.00% icecast 19 root 1 -32 -151 0K 8K WAIT 0 1:58 0.00% swi4: clock s 1460 bind 1 76 0 17352K 16540K select 0 0:49 0.00% named но вот что заметил, снижает количество ошибок если я вместо add 4950 allow ip from "table(20)" to "table(20)" ставлю add 4950 pipe 15 ip from "table(20)" to "table(20)" pipe 15 config bw 10000Kbit/s mask dst-ip 0XFFFFFFFF в таблице 20 список внутренних адресов с маской 32, всего около 1500-2000 штук и еще когда прут ошибки, здесь топ когда мало ошибок, то строка 31 root 1 -68 -187 0K 8K WAIT 1 97:03 66.16% irq24: bge0 показывает загрузку 80-98%
-
А как бороться с ошибками на BGE? кто то с таким сталкивался? при команде netstat -I bge0 -w 1 input (bge0) output packets errs bytes packets errs bytes colls 21822 764 17627673 27335 0 16352345 0 21706 625 17480872 26536 0 16087454 0 21177 458 18105983 25317 0 14178432 0 21589 767 17947001 26902 0 15989540 0 21026 754 17610183 26181 0 15674706 0 21458 603 17711420 26296 0 14662730 0 Что интересно после полного ребута сервера все нормализуется и производительность вырастает в 1.5-2 раза и ошибок 1-2 или 0, по прошествии 40минут-1го часа снова начинаются ошибки, сперва прыгает то 2-10 то 100, потом до 200-300 вырастает а уже через пару-тройку часов до 1000 доходит, подскажете куда копать?
-
BPS 2000 + модуль GBIC
glat posted a topic in Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
Есть такая проблема, поставил модуль под оптику-гигабит на BPS2000. но они не хотят коннектиться с оборудованием других производителей. BPS+BPS все отлично работает. если же ставлю BPS+d-link или ( вместо д-линка) Planet , Allied Telesin то не с одним из этих производителей оптический гигабит не работает. Модули пробовал от разных производителей тоже. Только на AT линк загорается, но тоже связь не идет. Ктонибудь с такой проблемой сталкивался и как ее решил, если конечно удалось решить. Буду признателен за помощь. А то два свича лежит без дела.