Перейти к содержимому
Калькуляторы

Freebsd 7.0 - NAS server \ проблема с SMP

FreeBSD 7.1 Release; mpd-4.4.1_1; ng_nat; шейпер dymmynet c использованием таблиц.

 

За последние сутки эта связка глюкнула два раза. Первый раз слетел MPD. Юзеров всех выкинуло, и более подключится не дало. Через ifconfig было видно все интерфейсы ng (250шт). В tope в поле STATE стояло значение ngsock. Второй раз слетел шейпер. После удаления правил шейпера из фаервола юзеры продолжали работать. Привожу вывод по top и top -S:

 

last pid: 62455; load averages: 0.99, 0.65, 0.30 up 1+03:15:09 01:21:50

39 processes: 1 running, 38 sleeping

CPU: 0.3% user, 0.0% nice, 50.1% system, 4.6% interrupt, 45.0% idle

Mem: 41M Active, 22M Inact, 190M Wired, 31M Cache, 157M Buf, 3639M Free

Swap: 6144M Total, 6144M Free

 

PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND

717 root 1 96 0 25936K 7492K ngsock 1 5:41 0.00% mpd4

508 root 1 96 0 5688K 1372K select 1 0:03 0.00% syslogd

635 root 1 96 0 22876K 3708K select 1 0:02 0.00% sshd

 

 

last pid: 62489; load averages: 0.99, 0.67, 0.32 up 1+03:15:39 01:22:20

74 processes: 5 running, 58 sleeping, 11 waiting

CPU: 0.0% user, 0.0% nice, 50.0% system, 4.5% interrupt, 45.5% idle

Mem: 41M Active, 22M Inact, 190M Wired, 31M Cache, 157M Buf, 3639M Free

Swap: 6144M Total, 6144M Free

 

PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND

26 root 1 -68 - 0K 16K CPU0 0 39:13 99.02% dummynet

11 root 1 171 ki31 0K 16K RUN 1 26.1H 89.99% idle: cpu1

15 root 1 -44 - 0K 16K WAIT 1 84:26 4.74% swi1: net

21 root 1 -68 - 0K 16K RUN 1 57:14 1.03% irq16: fxp0+

12 root 1 171 ki31 0K 16K RUN 0 24.8H 0.00% idle: cpu0

22 root 1 -68 - 0K 16K WAIT 1 14:28 0.00% irq17: fxp1

717 root 1 96 0 25936K 7492K ngsock 1 5:41 0.00% mpd4

13 root 1 -32 - 0K 16K WAIT 1 3:36 0.00% swi4: clock

 

Откуда ноги растут у этого глюка?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

За последние сутки эта связка глюкнула два раза.

Ищите, что меняли перед последними сутками.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

> 26 root 1 -68 - 0K 16K CPU0 0 39:13 99.02% dummynet

очень странные данный.

ipfw sho покажите что ли

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

 

например так

 

настройки ng_ipfw+ng_car если надо могу выслать в ПМ.

при каком кол-ве сессий работает система?

и при каком кол-ве тарифов ?

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

> 26 root 1 -68 - 0K 16K CPU0 0 39:13 99.02% dummynet

очень странные данный.

ipfw sho покажите что ли

00002 60641 2912268 deny tcp from 10.0.0.0/8 to any dst-port 25

00003 4322 337016 deny ip from any to 195.5.221.23 dst-port 1-21,23-1024 via fxp0

00011 532426 32226180 deny ip from any to any dst-port 135-139,445 via ng*

00014 3325 250474 allow tcp from 192.168.111.5,192.168.111.7,192.168.33.132 to 192.168.2.1 dst-port 22,80 via fxp1

00015 154 8870 deny ip from 10.0.0.0/8,192.168.0.0/16 to 192.168.2.1 dst-port 1-20,23-1024 via fxp1

00031 121710424 121697520418 netgraph 61 ip from any to 195.5.221.23 in via fxp0

00035 91767346 26247293267 netgraph 60 ip from 10.1.1.0/24,10.1.2.0/24,10.1.3.0/24,10.0.0.0/24 to any out via fxp0

00038 1039 50511 pipe 9000 ip from any to 192.168.2.2 via ng*

00038 0 0 pipe 9001 ip from 192.168.2.2 to any via ng*

00038 2 190 pipe 3102 ip from any to 10.0.0.2 via ng*

00038 0 0 pipe 3202 ip from 10.0.0.2 to any via ng*

00038 1694818 1640352208 pipe 3103 ip from any to 10.0.0.3 via ng*

00038 1373752 194966209 pipe 3203 ip from 10.0.0.3 to any via ng*

00100 102045224 97235545247 pipe tablearg ip from any to table(3) out via ng*

00110 82669423 27256793269 pipe tablearg ip from table(4) to any in via ng*

65535 676130059 461964032861 allow ip from any to any

 

Сейчас откатился назад на FreeBSD 6.3. 12 часов прошло, пока все ок.

Изменено пользователем Progamer

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Была такая же проблема, сервер стабильно вис каждые 12 часов. Пришлось поставить sysctl net.inet.ip.dummynet.io_fast=1 . Пока аптайм 14 дней.

Багу уже год: http://www.freebsd.org/cgi/query-pr.cgi?pr=118128

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

например так

 

настройки ng_ipfw+ng_car если надо могу выслать в ПМ.

при каком кол-ве сессий работает система?

и при каком кол-ве тарифов ?

кол-во тарифов у меня = количеству пользователей.

пока лользователей ~500

10% геренят 80% трафика (сетки)

нагрузка - pps - 59K Bps - 45M в каждую из сторон.

вопрос сессий неосилил, о каких именно сессиях идёт речь?

 

> 26 root 1 -68 - 0K 16K CPU0 0 39:13 99.02% dummynet

очень странные данный.

ipfw sho покажите что ли

00002 60641 2912268 deny tcp from 10.0.0.0/8 to any dst-port 25

00003 4322 337016 deny ip from any to 195.5.221.23 dst-port 1-21,23-1024 via fxp0

------------------

Сейчас откатился назад на FreeBSD 6.3. 12 часов прошло, пока все ок.

и ipfw pipe show в приват что бы не оверсквотить или тэмплэйт настройки пайпа

и ещё

 

sysctl -a|egrep "dummy|ip.fw"

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

сколько одновременно в онлайне ?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Походу, получил ту же проблему. Дома стоит сервер чисто для себя. В конце зимы поабгрейдился до фри 7.1, mpd 5.3. Пока система жила на одноядерном пне 4 было всё нормально. В конце мая чёрт дернул поабгрейдится на i5000 и два ксеона 5050 (благо подешовке досталось). Система переехала через пересборку ядра, мира и некоторых портов, в том числе и mpd.

 

Описание проблемы: сервер-шлюз на работе, сервер дома. Между ними посредством mpd поднят тоннель. Домашний сервер торчит ещё в домашнюю локалку. На домашнем сервере крутится вэб сервер с кое-какой статистикой. На работе открываю или обновляю страничку со статистикой по ip из домашней локалки (т.е. вэб трафик идёт через тоннель), в 90 % случаев получаю вис сервера. Прихожу домой, вижу кучу записей на экране: такой-то IP поменял мак с такого-то на такой (это банилка должников работает), т.е. арп, вроде бы, продолжает работать.

 

Т.е. трафик через тоннель - никакой, на сервере одна сессия, и всё рушится. Сегодня перекину консоль на ком-порт и прицеплю к другой машине. Будем посмотреть.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

В 7.1 был баг с удалением интерфейсов, они из списка не удялись и пф к ним пытался обращатся и всё падало.

А так, у меня похожая проблема: инет через пппое, пптп сервер, когда мдп делает пппое и к впн подключаются то кернел паник тут же, а когда пппое силами ппп (тун интерфейс) то всё нормально.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

апдейт то стейбла решает проблему?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.