terrible Опубликовано 15 апреля, 2011 · Жалоба Прошу помощи, сам уже не знаю что делать. Отваливается от vlan интерфейса линк PPPoE сервера MPD. Машинка: пара ксеонов, не помню каких. Конфигурация машинки такая: # cat /boot/loader.conf | grep -vE '^#|^$' if_igb_load="YES" net.graph.recvspace=81920 net.graph.maxdgram=81920 net.graph.maxdata=10266 net.graph.maxalloc=10266 kern.maxusers=2048 kern.ipc.maxpipekva=134217728 kern.ipc.nmbclusters=65536 # cat /etc/sysctl.conf | grep -vE '^#|^$' kern.smp.active=2 kern.smp.disabled=0 net.inet.tcp.blackhole=2 net.inet.udp.blackhole=1 kern.corefile=/tmp/%U.%N.%P.core net.inet.tcp.sendspace=65535 net.inet.tcp.recvspace=65535 net.inet.udp.recvspace=65535 kern.maxfiles=65536 kern.maxfilesperproc=32768 kern.ipc.somaxconn=4096 net.inet.ip.fastforwarding=1 net.inet.icmp.icmplim=500 # uname -a FreeBSD 7.3-RELEASE-p1 FreeBSD 7.3-RELEASE-p1 #9: Thu Jun 17 19:12:47 MSD 2010 root@:/usr/obj/usr/src/sys/MYCONF amd64 # Всё вроде как работает нормально: # vmstat -z | grep -E 'ITEM|NetGraph' ITEM SIZE LIMIT USED FREE REQUESTS FAILURES NetGraph items: 72, 10305, 27, 918, 1547350621, 0 NetGraph data items: 72, 10305, 0, 900, 6026124940, 0 На ipfw 15 правил, нат есть, но в очень малом количестве. # ifconfig | grep 172.16.153. | wc -l 38 Всего нагрузка небольшая, 600 клиентов, по вечер доходит до 1000: # ifconfig | grep ng | wc -l 594 # PPPoE линк MPD на vlan интерфейс просто отваливается и всё, если зайти в консоль - там всё ок, пересоздаю линк - всё работает. Что делать? Куда копать? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 18 апреля, 2011 · Жалоба net.inet.ip.fastforwarding=1 попробуйте 0, нагрузка должна упасть. vmstat -z - нужно на файлурес смотреть. net.inet.tcp. - это вообще не при делах, у вас L2 там и IP от L3, до тсп не доходит, пока вы сами ссш на машину не цепляетесь :) В качестве альтернативного решения могу предложить заюзать нетграф для работы с вланами - подцепится к ether хуку на сетевухе, нодой vlan и на неё насажать ngeth нод по одной на каждый влан. Ещё не плохо бы обновится. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
terrible Опубликовано 18 апреля, 2011 · Жалоба vmstat -z - нужно на файлурес смотреть. Я привёл вывод по нетграфу, там по нулям. Если в общей массе, то файлуры есть только вот тут: 32 Bucket: 280, 0, 176, 104, 324, 2 64 Bucket: 536, 0, 312, 73, 589, 4 128 Bucket: 1048, 0, 1609, 2, 6737, 20089 В качестве альтернативного решения могу предложить заюзать нетграф для работы с вланами - подцепится к ether хуку на сетевухе, нодой vlan и на неё насажать ngeth нод по одной на каждый влан. А pppoe линки mpd уже к ngeth цеплять? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 19 апреля, 2011 · Жалоба Да, к ним, это будут сетевые интерфейсы для вланов. Но у вас памяти не хватает, потому и отваливается. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
terrible Опубликовано 21 апреля, 2011 · Жалоба Обновился до 8-ки, в ядро запихнул подгружаемые модули (в частности ng_pppoe), посмотрим, как будет себя чуствовать. фаилуры по vmstat -z так и остались на 128 Bucket: и 64 Bucket: :( Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 22 апреля, 2011 · Жалоба Посмотрел в свои роутеры, тоже есть в небольших колличествах. В выходные ещё в исходниках покапаюсь на предмет откуда берутся. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
dadv Опубликовано 27 апреля, 2011 · Жалоба Обновился до 8-ки, в ядро запихнул подгружаемые модули (в частности ng_pppoe), посмотрим, как будет себя чуствовать. фаилуры по vmstat -z так и остались на 128 Bucket: и 64 Bucket: :( http://dadv.livejournal.com/137221.html Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
terrible Опубликовано 4 мая, 2011 · Жалоба Тюнинг системы и обновление до 8 Stable не помогли. Основная причина в падении линков PPPoE, как выяснилось, заключается в образовании петель внутри вланов на доступе: MPD тупо забразывается огромным количеством PADI пакетов за очень которкое время, не успевает их обработать и роняет PPPoE линк. В случае, если петель образуется сразу несколько - демон mpd тупо падает. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
dadv Опубликовано 18 мая, 2011 · Жалоба Тюнинг системы и обновление до 8 Stable не помогли. Основная причина в падении линков PPPoE, как выяснилось, заключается в образовании петель внутри вланов на доступе: MPD тупо забразывается огромным количеством PADI пакетов за очень которкое время, не успевает их обработать и роняет PPPoE линк. Если ещё только этап обработки PADI-пакета, то линка ещё никакого нет и ронять нечего. В случае, если петель образуется сразу несколько - демон mpd тупо падает. У меня были случаи, когда более 9Kpps бродкастами флудило mpd - ничего не падало, нормально всё обрабатывало. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
terrible Опубликовано 19 мая, 2011 · Жалоба Был глупцом. Оттюнинговал систему правильно и больше ничего не падает и не отваливается. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mcsim_ck Опубликовано 9 августа, 2011 · Жалоба Добрый день всем. Столкнулся возможно с похожей проблемой, иногда время от времени на сервере доступа падает трафик в сторону одного из вланов, при этом у абонентов видны потери в инет, думал проблема в середине влана, но нет по локальноу ip адресу абонент пингуеться без потерь. Подскажите куда копать как лечить. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 9 августа, 2011 · Жалоба Пингуете большими пакетами или п 32-64 байта? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mcsim_ck Опубликовано 10 августа, 2011 · Жалоба ping -s 1024 -A XX.XX.XX.XX во время того как начинаються потери смотрю на сервер доступа netstat -w1 -h -IvlanXXX вижу что трафик падает до 10 - 30К в нормальном режиме 1 - 10M. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Ivan_83 Опубликовано 11 августа, 2011 · Жалоба Проверьте ещё порты и логи на комутаторах, не факт что дело именно в софт роутере. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mcsim_ck Опубликовано 12 августа, 2011 (изменено) · Жалоба Для эксперимента переключил один дом с проблемного влана на другой сервер доступа, проблемы нету. Логи и коммутаторы смотрел, нечего не вижу. Могут ли не справляться сетевухи? em0@pci0:5:0:0: class=0x020000 card=0x10a48086 chip=0x10a48086 rev=0x06 hdr=0x00 vendor = 'Intel Corporation' device = '82571EB Gigabit Ethernet Controller' class = network subclass = ethernet em1@pci0:5:0:1: class=0x020000 card=0x10a48086 chip=0x10a48086 rev=0x06 hdr=0x00 vendor = 'Intel Corporation' device = '82571EB Gigabit Ethernet Controller' class = network subclass = ethernet em2@pci0:6:0:0: class=0x020000 card=0x10a48086 chip=0x10a48086 rev=0x06 hdr=0x00 vendor = 'Intel Corporation' device = '82571EB Gigabit Ethernet Controller' class = network subclass = ethernet em3@pci0:6:0:1: class=0x020000 card=0x10a48086 chip=0x10a48086 rev=0x06 hdr=0x00 vendor = 'Intel Corporation' device = '82571EB Gigabit Ethernet Controller' class = network subclass = ethernet em4@pci0:8:0:0: class=0x020000 card=0x34848086 chip=0x10968086 rev=0x01 hdr=0x00 vendor = 'Intel Corporation' device = 'Intel PRO/1000 EB (Intel PRO/1000 EB)' class = network subclass = ethernet em5@pci0:8:0:1: class=0x020000 card=0x34848086 chip=0x10968086 rev=0x01 hdr=0x00 vendor = 'Intel Corporation' device = 'Intel PRO/1000 EB (Intel PRO/1000 EB)' class = network subclass = ethernet netstat -w1 -h input (Total) output packets errs bytes packets errs bytes colls 177K 0 135M 185K 0 148M 0 169K 0 130M 177K 0 141M 0 165K 0 125M 173K 0 139M 0 164K 0 125M 171K 0 137M 0 172K 0 132M 181K 0 146M 0 Изменено 12 августа, 2011 пользователем mcsim_ck Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...