doubtpoint Posted June 17, 2007 Posted June 17, 2007 (edited) На рабочем сервере происходит периодический(раз в несколько часов) разрыв соединения с VPN(pptp). Сразу после этого можно пересоединится еще раз. Проблема началась с увеличением загрузки сервера до 300-700 одновременных подключений. На тестовом сервере с небольшой загрузкой такого не заметно. Куда копать? Freebsd 6.2-BETA3+Mpd 3.18_3 Freebsd 6.2-RC2+Mpd 3.18_4 (Это разные сервера) В конфиге, вроде, ни чего не обычного. mpd4 не использую поскольку иногда происходит "зависание" интерфейса и клиенты не могут на него подключится(если сразу несколько подключаются то подключение происходит на след. интерфейс). Edited June 17, 2007 by doubtpoint Вставить ник Quote
doubtpoint Posted June 18, 2007 Author Posted June 18, 2007 Кто ни будь использует mpd c нагрузками 500-1000 ссесий? Если нет. То чем можно заменить? Вставить ник Quote
Илья Дмитриевич Posted June 18, 2007 Posted June 18, 2007 могу предположить что б не особо париться с поиском ошибки и тюнингом сервера на freebsd. Хорошим бизнесс решением была бы cisco. Поставил и забыл... Вставить ник Quote
doubtpoint Posted June 20, 2007 Author Posted June 20, 2007 могу предположить что б не особо париться с поиском ошибки и тюнингом сервера на freebsd. Хорошим бизнесс решением была бы cisco. Поставил и забыл... А какую циску посоветуешь? Требование: держащие 1000-2000 одновременных ссесий с шифрацией и трафиком 100-200 мбит(10 000-40 000 pps) и шейпер на 20 000 правил по 64-10240 кбит. Вставить ник Quote
t0ly Posted June 20, 2007 Posted June 20, 2007 sysctl переменные все по умолчанию? это курили? Вставить ник Quote
jab Posted June 20, 2007 Posted June 20, 2007 sysctl переменные все по умолчанию?это курили? Зачем лечить человека, который ставит беты на боевые сервера... Пусть киску покупает. Вставить ник Quote
doubtpoint Posted June 20, 2007 Author Posted June 20, 2007 sysctl переменные все по умолчанию?это курили? kern.maxusers="1024"kern.ipc.maxpipekva="200000000" vm.kmem_size_max="536870912" vm.kmem_size_scale="8" ng_ether_load="YES" ng_netflow_load="YES" net.link.ether.inet.log_arp_movements=0 net.link.ether.inet.log_arp_wrong_iface=0 kern.polling.enable=1 kern.polling.burst_max=10 kern.maxfiles=65000 kern.maxfilesperproc=32000 Текст читал(правда на другом сайте). Вставить ник Quote
doubtpoint Posted June 20, 2007 Author Posted June 20, 2007 Зачем лечить человека, который ставит беты на боевые сервера... Пусть киску покупает. К сожалению 6.1 имел существенные ограничения(правда я сейчас забыл какие) А на момент установки эти бетты были последние и отработали уже полгода без особых проблем(кроме описанной выше). Думаю обновлением ядра проблему не решу, да и не охота по ночам компилировать ядро и потом гадать загрузится или придется 30 км ехать к серверу. Как купим новый сервер. Поставим 6.2 relase. Может загрузка 50% уже много... Вставить ник Quote
ingress Posted June 20, 2007 Posted June 20, 2007 7200 NPE-G2. без шифрования, не нужно оно. Вставить ник Quote
jab Posted June 20, 2007 Posted June 20, 2007 7200 NPE-G2. без шифрования, не нужно оно. А потом на ём подымем NAT. :-) Вставить ник Quote
ingress Posted June 20, 2007 Posted June 20, 2007 согласен, для ната отдельно компьютер кроме компов нат никто не умеет. но обычно покупают под это дело пару-четвёрку C белых подсетей что выгодней - ещё вопрос :) Вставить ник Quote
jab Posted June 21, 2007 Posted June 21, 2007 согласен, для ната отдельно компьютеркроме компов нат никто не умеет. PIX ? Вставить ник Quote
doubtpoint Posted June 21, 2007 Author Posted June 21, 2007 А по описанной проблеме мысли есть? Выяснил, что проблема возникает при увеличении трафика, а не количества ссесий (уже при 100 пользователях по несколько мегабит) такие глюки. PS: Кто ни будь mpd4 запустил в боевом сервере? Уже год пробовал его на 5.2, 5.4, 6.2 и разных версиях 4.0b1-4.0b4. Везде одинаковая проблема. Вставить ник Quote
andriko Posted June 22, 2007 Posted June 22, 2007 (edited) читал-читал и не удержался зарегистрироваться :) А по описанной проблеме мысли есть?Выяснил, что проблема возникает при увеличении трафика, а не количества ссесий (уже при 100 пользователях по несколько мегабит) такие глюки. А битые пакетики, случайно, не появляються на интерфейсе? Встречал похожую проблему, долго ковырялся с мпд, пока не выяснилось, что при увеличении нагрузки свичик кде-то по дороге начинал шалить... Пробуйте отмониторить одну сесию полностю, тспдамп по маку клиента, потом долго читать вайршарком, ну и шифрование можно отключить, ну, не для всех.... PS: Кто ни будь mpd4 запустил в боевом сервере?Уже год пробовал его на 5.2, 5.4, 6.2 и разных версиях 4.0b1-4.0b4. Везде одинаковая проблема. 4.1 не бета на 200 сесий до 10Мбит в суме без шифрования, пра тама надо напильник и желательно патчи автору что было похоже на законченный продукт... Edited June 22, 2007 by andriko Вставить ник Quote
doubtpoint Posted June 23, 2007 Author Posted June 23, 2007 Да по сети, чего только не бегает. Но от этого не должно быть таких глюков. Тем более у разных пользователей отрывается в разное время. Вставить ник Quote
mikevlz Posted June 24, 2007 Posted June 24, 2007 тема вроде подходящая... При запуске mpd3.18 на FreeBSD 6.1 p10 получаю такие строки в логе: Jun 24 19:37:23 ns mpd: [pp49] using interface ng49 Jun 24 19:37:23 ns mpd: [pp50] ppp node is "mpd611-pp50" Jun 24 19:37:23 ns mpd: [pp50] can't set bpf node program: No such file or direc tory Jun 24 19:37:23 ns mpd: mpd: fatal error, exiting Jun 24 19:37:23 ns mpd: [pp1] IPCP: Down event Jun 24 19:37:23 ns mpd: [pp1] IFACE: Close event Jun 24 19:37:23 ns mpd: [pp2] IPCP: Down event Jun 24 19:37:23 ns mpd: [pp2] IFACE: Close event Jun 24 19:37:23 ns mpd: [pp3] IPCP: Down event Jun 24 19:37:23 ns mpd: [pp3] IFACE: Close event после этого в лог сыпет следущее: Jun 24 19:37:23 ns mpd: mpd: process 611 terminated Jun 24 19:38:46 ns mpd: mpd: pid 7223, version 3.18 (user@host 18:19 1 9-Nov-2006) Jun 24 19:38:46 ns mpd: [pp1] ppp node is "mpd7223-pp1" Jun 24 19:38:46 ns mpd: [pp1] using interface ng1 ... Jun 24 19:38:46 ns mpd: [pp49] using interface ng49 Jun 24 19:38:46 ns mpd: [pp50] ppp node is "mpd7223-pp50" Jun 24 19:38:46 ns mpd: [pp50] can't connect iface and inet: File exists Jun 24 19:38:46 ns mpd: [pp50] netgraph initialization failed Jun 24 19:38:46 ns mpd: [pp51] ppp node is "mpd7223-pp51" Jun 24 19:38:46 ns mpd: [pp51] using interface ng51 чем это можно вылечить? Наблюдается так же проблема сброса сессий. Сброс явно не по таймауту сессии от Radius Вставить ник Quote
doubtpoint Posted June 24, 2007 Author Posted June 24, 2007 Почитай ссылку которую дал t0ly. Попробуй увеличить kern.maxusers="1024" kern.ipc.maxpipekva="200000000" kern.maxfiles=65000 kern.maxfilesperproc=32000 По поводу обрывов: Были потери на внешнем(Internet) интерфейсе. Сейчас исправили, и количество обрывов сократилось. С чем это может быть связанно? Вставить ник Quote
mikevlz Posted June 25, 2007 Posted June 25, 2007 ns# cat /boot/loader.conf net.graph.maxalloc=512 kern.ipc.maxsockets=65535 net.graph.maxdgram=350000 net.graph.recvspace=350000 kern.ipc.maxsockbuf=4096000 dummynet_load="YES" net.inet.ip.fw.one_pass=0 kern.maxusers="512" kern.ipc.maxpipekva="40000000" vm.kmem_size_max="536870912" vm.kmem_size_scale="2" ns# cat /etc/sysctl.conf # $FreeBSD: src/etc/sysctl.conf,v 1.8 2003/03/13 18:43:50 mux Exp $ # # This file is read when going to multi-user and its contents piped thru # ``sysctl'' to adjust kernel values. ``man 5 sysctl.conf'' for details. # # Uncomment this to prevent users from seeing information about processes that # are being run under another UID. #security.bsd.see_other_uids=0 kern.ipc.somaxconn=65535 net.inet.ip.portrange.first=6192 net.inet.ip.portrange.hifirst=6192 net.inet.ip.maxfragsperpacket=44 kern.maxfiles=65536 kern.maxfilesperproc=32768 net.inet.tcp.delayed_ack=0 net.inet.ip.fw.one_pass=0 Вставить ник Quote
Recommended Posts
Join the conversation
You can post now and register later. If you have an account, sign in now to post with your account.