Jump to content

Recommended Posts

Posted

Прошу помощи, сам уже не знаю что делать. Отваливается от vlan интерфейса линк PPPoE сервера MPD.

Машинка: пара ксеонов, не помню каких. Конфигурация машинки такая:

 

# cat /boot/loader.conf | grep -vE '^#|^$'

if_igb_load="YES"

net.graph.recvspace=81920

net.graph.maxdgram=81920

net.graph.maxdata=10266

net.graph.maxalloc=10266

kern.maxusers=2048

kern.ipc.maxpipekva=134217728

kern.ipc.nmbclusters=65536

# cat /etc/sysctl.conf | grep -vE '^#|^$'

kern.smp.active=2

kern.smp.disabled=0

net.inet.tcp.blackhole=2

net.inet.udp.blackhole=1

kern.corefile=/tmp/%U.%N.%P.core

net.inet.tcp.sendspace=65535

net.inet.tcp.recvspace=65535

net.inet.udp.recvspace=65535

kern.maxfiles=65536

kern.maxfilesperproc=32768

kern.ipc.somaxconn=4096

net.inet.ip.fastforwarding=1

net.inet.icmp.icmplim=500

# uname -a

FreeBSD 7.3-RELEASE-p1 FreeBSD 7.3-RELEASE-p1 #9: Thu Jun 17 19:12:47 MSD 2010 root@:/usr/obj/usr/src/sys/MYCONF amd64

#

 

Всё вроде как работает нормально:

 

# vmstat -z | grep -E 'ITEM|NetGraph'

ITEM SIZE LIMIT USED FREE REQUESTS FAILURES

NetGraph items: 72, 10305, 27, 918, 1547350621, 0

NetGraph data items: 72, 10305, 0, 900, 6026124940, 0

 

На ipfw 15 правил, нат есть, но в очень малом количестве.

# ifconfig | grep 172.16.153. | wc -l

38

 

Всего нагрузка небольшая, 600 клиентов, по вечер доходит до 1000:

 

# ifconfig | grep ng | wc -l

594

#

 

PPPoE линк MPD на vlan интерфейс просто отваливается и всё, если зайти в консоль - там всё ок, пересоздаю линк - всё работает.

Что делать? Куда копать?

Posted
net.inet.ip.fastforwarding=1

попробуйте 0, нагрузка должна упасть.

 

vmstat -z - нужно на файлурес смотреть.

 

net.inet.tcp. - это вообще не при делах, у вас L2 там и IP от L3, до тсп не доходит, пока вы сами ссш на машину не цепляетесь :)

 

В качестве альтернативного решения могу предложить заюзать нетграф для работы с вланами - подцепится к ether хуку на сетевухе, нодой vlan и на неё насажать ngeth нод по одной на каждый влан.

 

Ещё не плохо бы обновится.

Posted

vmstat -z - нужно на файлурес смотреть.

Я привёл вывод по нетграфу, там по нулям. Если в общей массе, то файлуры есть только вот тут:

32 Bucket:                280,        0,      176,      104,      324,        2
64 Bucket:                536,        0,      312,       73,      589,        4
128 Bucket:              1048,        0,     1609,        2,     6737,    20089

 

В качестве альтернативного решения могу предложить заюзать нетграф для работы с вланами - подцепится к ether хуку на сетевухе, нодой vlan и на неё насажать ngeth нод по одной на каждый влан.

А pppoe линки mpd уже к ngeth цеплять?

Posted

Обновился до 8-ки, в ядро запихнул подгружаемые модули (в частности ng_pppoe), посмотрим, как будет себя чуствовать.

фаилуры по vmstat -z так и остались на 128 Bucket: и 64 Bucket:

:(

Posted

Посмотрел в свои роутеры, тоже есть в небольших колличествах.

 

В выходные ещё в исходниках покапаюсь на предмет откуда берутся.

 

 

Posted

Тюнинг системы и обновление до 8 Stable не помогли.

Основная причина в падении линков PPPoE, как выяснилось, заключается в образовании петель внутри вланов на доступе: MPD тупо забразывается огромным количеством PADI пакетов за очень которкое время, не успевает их обработать и роняет PPPoE линк. В случае, если петель образуется сразу несколько - демон mpd тупо падает.

  • 2 weeks later...
Posted

Тюнинг системы и обновление до 8 Stable не помогли.

Основная причина в падении линков PPPoE, как выяснилось, заключается в образовании петель внутри вланов на доступе: MPD тупо забразывается огромным количеством PADI пакетов за очень которкое время, не успевает их обработать и роняет PPPoE линк.

 

Если ещё только этап обработки PADI-пакета, то линка ещё никакого нет и ронять нечего.

 

В случае, если петель образуется сразу несколько - демон mpd тупо падает.

 

У меня были случаи, когда более 9Kpps бродкастами флудило mpd - ничего не падало, нормально всё обрабатывало.

  • 2 months later...
Posted

Добрый день всем. Столкнулся возможно с похожей проблемой, иногда время от времени на сервере доступа падает трафик в сторону одного из вланов, при этом у абонентов видны потери в инет, думал проблема в середине влана, но нет по локальноу ip адресу абонент пингуеться без потерь. Подскажите куда копать как лечить.

Posted

ping -s 1024 -A XX.XX.XX.XX

во время того как начинаються потери смотрю на сервер доступа

netstat -w1 -h -IvlanXXX

вижу что трафик падает до 10 - 30К в нормальном режиме 1 - 10M.

Posted (edited)

Для эксперимента переключил один дом с проблемного влана на другой сервер доступа, проблемы нету. Логи и коммутаторы смотрел, нечего не вижу.

 

Могут ли не справляться сетевухи?

em0@pci0:5:0:0: class=0x020000 card=0x10a48086 chip=0x10a48086 rev=0x06 hdr=0x00

vendor = 'Intel Corporation'

device = '82571EB Gigabit Ethernet Controller'

class = network

subclass = ethernet

em1@pci0:5:0:1: class=0x020000 card=0x10a48086 chip=0x10a48086 rev=0x06 hdr=0x00

vendor = 'Intel Corporation'

device = '82571EB Gigabit Ethernet Controller'

class = network

subclass = ethernet

em2@pci0:6:0:0: class=0x020000 card=0x10a48086 chip=0x10a48086 rev=0x06 hdr=0x00

vendor = 'Intel Corporation'

device = '82571EB Gigabit Ethernet Controller'

class = network

subclass = ethernet

em3@pci0:6:0:1: class=0x020000 card=0x10a48086 chip=0x10a48086 rev=0x06 hdr=0x00

vendor = 'Intel Corporation'

device = '82571EB Gigabit Ethernet Controller'

class = network

subclass = ethernet

em4@pci0:8:0:0: class=0x020000 card=0x34848086 chip=0x10968086 rev=0x01 hdr=0x00

vendor = 'Intel Corporation'

device = 'Intel PRO/1000 EB (Intel PRO/1000 EB)'

class = network

subclass = ethernet

em5@pci0:8:0:1: class=0x020000 card=0x34848086 chip=0x10968086 rev=0x01 hdr=0x00

vendor = 'Intel Corporation'

device = 'Intel PRO/1000 EB (Intel PRO/1000 EB)'

class = network

subclass = ethernet

 

netstat -w1 -h

input (Total) output

packets errs bytes packets errs bytes colls

177K 0 135M 185K 0 148M 0

169K 0 130M 177K 0 141M 0

165K 0 125M 173K 0 139M 0

164K 0 125M 171K 0 137M 0

172K 0 132M 181K 0 146M 0

Edited by mcsim_ck

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...
На сайте используются файлы cookie и сервисы аналитики для корректной работы форума и улучшения качества обслуживания. Продолжая использовать сайт, вы соглашаетесь с использованием файлов cookie и с Политикой конфиденциальности.