Перейти к содержимому
Калькуляторы

Freebsd 8.0-RELEASE + mpd 5.3 траблы

http://osm.interlan.ru/diff1.tar.gz

Код арп взят из pppd и подправлен.

а как его ставить ?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Цитата(alex_001 @ 6.4.2010, 0:41)

Код

http://osm.interlan.ru/diff1.tar.gz

 

Код арп взят из pppd и подправлен.

 

 

а как его ставить ?

+1, и собственно для чего он нужен

 

сегодня опять mpd выкинул всех, и отвечал только на пинг, нельзя было даже зайти по ssh, в итоге как всегда помог физический ребут. Продержался сервер ровно 6 дней.

Изменено пользователем kolovrat

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Цитата(alex_001 @ 6.4.2010, 0:41)

Код

http://osm.interlan.ru/diff1.tar.gz

 

Код арп взят из pppd и подправлен.

File to patch: iface.c

No file found--skip this patch? [n]

Чото понял....

 

http://people.freebsd.org/~qingli/ppp-prox...tch-121515.diff к слову скачать не успел, там теперь 404

Зато есть http://people.freebsd.org/~qingli/mpd-patch.diff (2010-Mar-31 01:20:18 1.1K ) и http://people.freebsd.org/~qingli/if_age.c.diff (2010-Mar-18 21:23:39 0.4K).

 

спать...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Обновился в очередной раз, увидел драйвер для em 7.0.0 думал исправили, а на самом деле ещё хуже стало.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

можно узнать что этот патч устраняет?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Кто нибудь осилил, что делать с

Apr 20 00:52:38 pppoe1 kernel: em1: discard frame w/o packet header

Apr 20 00:53:13 pppoe1 last message repeated 23 times

Apr 20 00:55:02 pppoe1 last message repeated 26 times

и в core ?

при freebsd от 7 до 8 , mpd 5 при шейпе ng_car+ipfw ? Или снова в топу его? Осенью пробовал, было тоже самое, но тогда сервер был 1 и не было возможности поэкспериментировать и все свалили на amd64 ядро, сейчас же пробовал и 64 и i386 сервер стоит сутками если ничего не делать, как только появляются пакеты от мпд сразу сыпет

discard frame w/o packet header и от 1 минуты до пары часов уходит в коре, от нагрузки не зависит, гуглил, искал похоже что за 9 месяцев ничего особо не изменилось в этом направлении и стоит вернутся к dummynet ?

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Кто нибудь осилил, что делать с

Apr 20 00:52:38 pppoe1 kernel: em1: discard frame w/o packet header

Apr 20 00:53:13 pppoe1 last message repeated 23 times

Apr 20 00:55:02 pppoe1 last message repeated 26 times

и в core ?

Вот здесь народ пишет, что нашел решение:

http://sysadmins.ru/topic244491.html

Нашёл Гуглом.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Спасибо, читал, пробовал , не помогает (

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

X-RaY™

Не уверен, но возможно причина в net.inet.ip.fastforwarding.

Изменено пользователем _longhorn_

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

loader.conf

kern.ipc.nmbclusters=65536

 

sysctl.conf

kern.ipc.maxsockbuf=8388608

kern.ipc.nmbclusters=65536

net.graph.recvspace=256000

 

перестало валится с discard frame w/o packet header , простояло часов 12, в тесте 5-10 сессий, трафф до 200 мбит, и свалилось в коре, уже без

discard frame w/o packet header , причем на минимальной нагрузке, десятки мбит.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

перестало валится с discard frame w/o packet header , простояло часов 12, в тесте 5-10 сессий, трафф до 200 мбит, и свалилось в коре, уже без discard frame w/o packet header , причем на минимальной нагрузке, десятки мбит.
У меня такой вопрос: если pppoe-терминацию оставить на одной машине,

а nat+netflow+dummynet вынести на другую, какая из них продолжит глючить?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

теперь есть 2 вида дампов одни по em вторые по discard frame w/o packet header O_o

em

http://www.copypastecode.com/27142/

discard frame w/o packet header

http://www.copypastecode.com/27138/

Изменено пользователем X-RaY™

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Если выдавали реальные адреса и использовали в mpd proxy-arp, то текла память в lltable и сервер периодически зависал

исправили для FreeBSD8-STABLE

http://svn.freebsd.org/viewvc/base?view=re...revision=207013

Configurations still affected: with options FLOWTABLE

т.е. обязательно отключаем в ядре FLOWTABLE

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

vadislaus

Ни у кого не было, что FreeBSD 8.0-STABLE amd64 c mpd 5.4 работает ~неделю крича в логи - kernel: ifa_del_loopback_route: deletion failed потом падала? При этом замечается утечка ~1Gb оперативки (за неделю). mpd 5.4 шейпинг, quagga/ospf. Клиентов ~200-300.
Имеется точно такая-же ситуация, как-то смогли с ней побороться?

FreeBSD 8.0-RELEASE FreeBSD 8.0-RELEASE #8: Fri Jun 25 10:13:45 EEST 2010 root@xxxx:/usr/obj/usr/src/sys/GENERIC amd64

Изменено пользователем tux

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Было замечены проблемы, через 4-5 дней uptime начинает завышаться пинг к внешним (мировым) ресурсам. Что характерно, те кто работают не через nat (роутинг выделенных ip) у них проблем нет. После пересоздания ноды которая делает nat, все нормализуется, правда не на долго, от 20 минут до 12 часов. Затем история повторяется.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

переполняется табличка трансляций?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Возможно. Как можно проверить? Есть решения для исправления данной проблемы?

Сегодня после продолжительных симптомов пришлось ребутать сервер :(

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ну наконец-то :)

 

http://www.freebsd.org/releases/8.1R/relnotes-detailed.html

 

A bug that proxy ARP entries cannot be added over point-to-point link types has been fixed.

 

A memory alignment issue in the ng_ksocket(4) and ng_ppp(4), Netgraph node drivers have been fixed. This fixes kernel panics due to the misalignment.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

proxyarp починили , но добавили новых багофичей.

Вновь собранный сервер. 8.1-STABLE x64. Ядро в панику не уходит , proxyarp ok. Но теперь появилась новая фишка - отваливаются клиенты (раз в 15-20 минут)

 

Судя по всему из за этого:

Aug 18 00:22:25 vpn2 mpd: pptp14: write: Permission denied
Aug 18 00:26:26 vpn2 mpd: pptp0: write: Permission denied
Aug 18 00:30:33 vpn2 mpd: pptp7: write: Permission denied
Aug 18 00:31:13 vpn2 mpd: pptp4: write: Permission denied
Aug 18 00:31:58 vpn2 mpd: pptp8: write: Permission denied
Aug 18 00:36:40 vpn2 mpd: pptp3: write: Permission denied

Откуда этот Permission denied берется - совершенно не понятно. loader.conf , sysctl.conf , исходники mpd - все с рабочего vpn'a взяты.

Отличается только сама система.. (причем та что более-менее работает - тоже 8ка . Иногда падает но таких проблем нет)

 

Если тестирую ночью (когда народу мало) соединение может провисеть веьма долго правда. От траффика проходящего через vpn глюк не зависит - качал через него специально iperf'om.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

MPD из портов?

Глюк странный какой-то, сам использую 8.1 релиз, клиентов 5-6 сотен, трафика дофига, проблем нет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

MPD из портов?

Глюк странный какой-то, сам использую 8.1 релиз, клиентов 5-6 сотен, трафика дофига, проблем нет.

MPD не из портов , патченный (исключительно на предмет авторизации через mysql)

Проблема решилась включением polling'a . Причем даже если 10 клиентов висит особо не качающих (2-3KPPS) - эффект есть. Интерфейсы bge , возможно в 8.1 чтото с драйверами намутили - раньше этот сервак работал нормально и в polling и в interrupt.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Попробуйте пересобрать заново MPD.

Если не выйдет, попробуйте собрать из портов. Я аунтификацию тоже из mysql беру простым скриптом, который радиус-атрибутами задает еще и скорость. Очень удобно и просто. Сам радиус не использую.

Вообще для фри сетевухи лучше интел юзать.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

После рестарта mpd5 система намертво виснет.

 

FreeBSD 9.0-CURRENT #0: Sun Aug 15 23:17:47 EEST 2010  amd64
mpd-5.5             Multi-link PPP daemon based on netgraph(4)

сетевые карточки re(4)

re0: <RealTek 8168/8111 B/C/CP/D/DP/E PCIe Gigabit Ethernet> port 0xd800-0xd8ff mem 0xfdfff000-0xfdffffff,0xfdff8000-0xfdffbfff irq 18 at device 0.0 on pci2

 

попытался сымитировать на другой машинке с похожим ядром и настройками, но машинка не вешается...

Что посоветуете для решения проблемы?

Изменено пользователем vlad11

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.