Abram Опубликовано 26 ноября, 2009 · Жалоба fix-accel-pptp-install.patch diff -r e43ada2bd7fc Makefile.am --- a/Makefile.am Thu Nov 26 17:31:21 2009 +0200 +++ b/Makefile.am Thu Nov 26 17:32:13 2009 +0200 @@ -3,7 +3,7 @@ @SET_MAKE@ -export LIBDIR=$(libdir)/pptpd +export LIBDIR=$(DESTDIR)/$(libdir)/pptpd INCLUDES = -I. ## Change this if you don't have gcc ## -pedantic removed for now (OpenBSD header files). diff -r e43ada2bd7fc plugins/Makefile --- a/plugins/Makefile Thu Nov 26 17:31:21 2009 +0200 +++ b/plugins/Makefile Thu Nov 26 17:32:13 2009 +0200 @@ -18,7 +18,7 @@ %.so: %.c $(CC) -o $@ $(LDFLAGS) $(CFLAGS) $^ $(LDADD) -LIBDIR ?= $(DESTDIR)$(prefix)/lib/pptpd +LIBDIR = $(DESTDIR)$(prefix)/lib/pptpd install: $(PLUGINS) $(INSTALL) -d $(LIBDIR) Может кому пригодится. Мне немало нервов попортило :). Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
heap Опубликовано 26 ноября, 2009 · Жалоба Ну почему сразу накуренный? vpn до провайдера - получил инет, впн на работу - попал в локалку своей конторы.... Не до конца улавливаю тогда мысль. Запустил инетовский впн, запустил впн на работу - а по какой причине должно стошнить мой сервер? В худшем случае у него заменится дефолт роут и отвалится впн на работу. Разве не так? Я про кольцо подумал, что он повторно поднимает к моему серверу туннель, но уже сквозь туннель первый. Как тут было сказано про кривые сохо. Если не прав - проясните, плиз, суть, ибо с одной стороны не понятно, что происходит, а с другой не понятно - как с этим бороться и как отловить виновника торжества. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vitalyb Опубликовано 26 ноября, 2009 (изменено) · Жалоба он повторно поднимает к моему серверу туннель, но уже сквозь туннель первыйДа, именно это я и имел ввиду. Но только как вариант... Кстати, это, по идее, легко отфильтровать - со стороны ppp+ интерфейсов на адрес сервака дропать пакеты GRE и TCP-pptp. Запустил инетовский впн, запустил впн на работуА теперь представьте, что сначала абонент поднимал PPTP с компа, потом купил роутер/вифи. Ярлыки есстессно остались... А дальше - что угодно, от обученной бабушки до "перепутал ярлыки" и автодозвона качалок по какому-то событию... Как роутер отроутит - так и будет. Изменено 26 ноября, 2009 пользователем vitalyb Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 27 ноября, 2009 · Жалоба тунель в тунеле работает без проблем, проверено, вот если только такая ситуация: юзер поднимает до прова тунель, потом через этот тунель опять до прова поднимает тунель, надо бы смоделировать ... Cayz, от тебя хотельсь бы увидеть последние логи подключений перед падением, правила iptables, настройки шейперов Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 27 ноября, 2009 (изменено) · Жалоба в любом случае подобные извороты нужно запретить: iptables -A INPUT -s <ип адраса впн юзеров> -p tcp --dport 1723 -j DROP Изменено 27 ноября, 2009 пользователем xeb Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
MagMike Опубликовано 27 ноября, 2009 · Жалоба тунель в тунеле работает без проблем, проверено, вот если только такая ситуация: юзер поднимает до прова тунель, потом через этот тунель опять до прова поднимает тунель, надо бы смоделировать ...Cayz, от тебя хотельсь бы увидеть последние логи подключений перед падением, правила iptables, настройки шейперов Сталкивался с таким... Если оба туннеля терминировались на одном и том же NAS-е - результат печальный - CPU пожирался весь, так что не получалось даже с консоли доступ получить. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
true.ru Опубликовано 28 ноября, 2009 · Жалоба есть проблема, пока не пришел к ее пониманию. в сети существует два nas. pptpd+radius+tc один (назовем "1") настраивал админ из другой компании. второй (назовем "2") сервер доступа переводим на accel-pptp. debian 2.6.26. если использовать pppd из пакета, то все прекрасно заводится, работает, но не обрабатываются скрипты tc в /etc/ppp/ip-up. пришел к выводу, что биллинг по разному отвечает на радиус запрос. для "1" в виде: параметр="значение" для "2": параметр значение. настройки на nas'ах идентичны. спросил у админа, что правилось в исходниках pppd. получил ответ: /*********************************************************************** * * radattr.c * * A plugin which is stacked on top of radius.so. This plugin writes * all RADIUS attributes from the server's authentication confirmation * into /var/run/radattr.pppN. These attributes are available for * consumption by /etc/ppp/ip-{up,down} scripts. * * Copyright (C) 2002 Roaring Penguin Software Inc. * * This plugin may be distributed according to the terms of the GNU * General Public License, version 2 or (at your option) any later version. * ***********************************************************************/ static char const RCSID[] = "$Id: radattr.c,v 1.2 2004/10/28 00:24:40 paulus Exp $"; #include "pppd.h" #include "radiusclient.h" #include <stdio.h> #ifndef MAXSESSIONID #define MAXSESSIONID 32 #endif #ifndef MAXCLASSLEN #define MAXCLASSLEN 500 #endif struct radius_state { int accounting_started; int initialized; int client_port; int choose_ip; int any_ip_addr_ok; int done_chap_once; u_int32_t ip_addr; char user[MAXNAMELEN]; char config_file[MAXPATHLEN]; char session_id[MAXSESSIONID + 1]; time_t start_time; int acct_interim_interval; SERVER *authserver; /* Authentication server to use */ SERVER *acctserver; /* Accounting server to use */ int class_len; char class[MAXCLASSLEN]; VALUE_PAIR *avp; /* Additional (user supplied) vp's to send to server */ }; extern void (*radius_attributes_hook)(VALUE_PAIR *, struct radius_state *rstate); static void print_attributes(VALUE_PAIR *, struct radius_state *rstate); static void cleanup(void *opaque, int arg); char pppd_version[] = VERSION; /********************************************************************** * %FUNCTION: plugin_init * %ARGUMENTS: * None * %RETURNS: * Nothing * %DESCRIPTION: * Initializes radattr plugin. ***********************************************************************/ void plugin_init(void) { radius_attributes_hook = print_attributes; #if 0 /* calling cleanup() on link down is problematic because print_attributes() is called only after PAP or CHAP authentication, but not when the link should go up again for any other reason */ add_notifier(&link_down_notifier, cleanup, NULL); #endif /* Just in case... */ add_notifier(&exitnotify, cleanup, NULL); info("RADATTR plugin initialized."); } /********************************************************************** * %FUNCTION: print_attributes * %ARGUMENTS: * vp -- linked-list of RADIUS attribute-value pairs * %RETURNS: * Nothing * %DESCRIPTION: * Prints the attribute pairs to /var/run/radattr.pppN. Each line of the * file contains "name value" pairs. ***********************************************************************/ static char *norm(char *s) { char *i; for (i=s; *i; i++) { if (*i=='-') *i='_'; } return s; } static void print_attributes(VALUE_PAIR *vp, struct radius_state *rstate) { FILE *fp; char fname[512]; char name[2048]; char value[2048]; int cnt = 0; slprintf(fname, sizeof(fname), "/var/run/pid.%d", getppid()); fp = fopen(fname, "w"); if (fp) { fprintf(fp,"%s\n",ifname); fclose(fp); } slprintf(fname, sizeof(fname), "/var/run/radattr.%s", ifname); fp = fopen(fname, "w"); if (!fp) { warn("radattr plugin: Could not open %s for writing: %m", fname); return; } fprintf(fp,"User_Name='%s'\n", rstate->user); for (; vp; vp=vp->next) { if (rc_avpair_tostr(vp, name, sizeof(name), value, sizeof(value)) < 0) { continue; } fprintf(fp, "%s='%s'\n", norm(name), norm(value)); cnt++; } fclose(fp); dbglog("RADATTR plugin wrote %d line(s) to file %s.", cnt, fname); } /********************************************************************** * %FUNCTION: cleanup * %ARGUMENTS: * opaque -- not used * arg -- not used * %RETURNS: * Nothing * %DESCRIPTION: * Deletes /var/run/radattr.pppN ***********************************************************************/ static void cleanup(void *opaque, int arg) { char fname[512]; slprintf(fname, sizeof(fname), "/var/run/pid.%d", getppid()); (void) remove(fname); slprintf(fname, sizeof(fname), "/var/run/radattr.%s", ifname); (void) remove(fname); dbglog("RADATTR plugin removed file %s.", fname); } изменил radattr.c, откомпилил и установил pppd (сначала для 2.4.4, затем и для 2.4.5), соотвественно откомпилил и установил accel-pptp 0.8.4... после запуска процесса в логах видим это: Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Client 172.16.208.139 control connection started Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Starting call (launching pppd, opening GRE) Nov 28 03:24:30 r-kupa213 pppd[19661]: Plugin /usr/lib/pppd/2.4.5/radius.so loaded. Nov 28 03:24:30 r-kupa213 pppd[19661]: RADIUS plugin initialized. Nov 28 03:24:30 r-kupa213 pppd[19661]: Plugin /usr/lib/pppd/2.4.5/radattr.so loaded. Nov 28 03:24:30 r-kupa213 pppd[19661]: RADATTR plugin initialized. Nov 28 03:24:30 r-kupa213 pptp[19661]: Plugin pptp.so loaded. Nov 28 03:24:30 r-kupa213 pptp[19661]: PPTP plugin version 0.8.4 compiled for pppd-2.4.5, linux-2.6.26 Nov 28 03:24:30 r-kupa213 pptp[19661]: pppd 2.4.5 started by root, uid 0 Nov 28 03:24:30 r-kupa213 pptp[19661]: Using interface ppp0 Nov 28 03:24:30 r-kupa213 pptp[19661]: Connect: ppp0 <--> pptp (172.16.208.139) Nov 28 03:24:30 r-kupa213 pptp[19661]: Fatal signal 11 Nov 28 03:24:30 r-kupa213 pptp[19661]: Exit. Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Reaping child PPP[19661] Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Client pppd TERM sending Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Client pppd finish wait Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Asked to free call when no call open, not handled well Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Could not free Call ID [call clear]! Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Got call clear request after call manually shutdown - buggy client Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Client 172.16.208.139 control connection finished или так Nov 28 03:24:26 r-kupa213 pptpd[19628]: CTRL: Client 172.16.208.139 control connection started Nov 28 03:24:26 r-kupa213 pptpd[19628]: CTRL: Starting call (launching pppd, opening GRE) Nov 28 03:24:26 r-kupa213 pppd[19629]: Plugin /usr/lib/pppd/2.4.5/radius.so loaded. Nov 28 03:24:26 r-kupa213 pppd[19629]: RADIUS plugin initialized. Nov 28 03:24:26 r-kupa213 pppd[19629]: Plugin /usr/lib/pppd/2.4.5/radattr.so loaded. Nov 28 03:24:26 r-kupa213 pppd[19629]: RADATTR plugin initialized. Nov 28 03:24:26 r-kupa213 pptp[19629]: Plugin pptp.so loaded. Nov 28 03:24:26 r-kupa213 pptp[19629]: PPTP plugin version 0.8.4 compiled for pppd-2.4.5, linux-2.6.26 Nov 28 03:24:26 r-kupa213 pptp[19629]: pppd 2.4.5 started by root, uid 0 Nov 28 03:24:26 r-kupa213 pptp[19629]: Using interface ppp0 Nov 28 03:24:26 r-kupa213 pptp[19629]: Connect: ppp0 <--> pptp (172.16.208.139) Nov 28 03:24:26 r-kupa213 pptp[19593]: Fatal signal 11 включил debug: Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Client 172.16.208.139 control connection started Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Starting call (launching pppd, opening GRE) Nov 28 03:39:52 r-kupa213 pppd[21571]: Plugin /usr/lib/pppd/2.4.5/radius.so loaded. Nov 28 03:39:52 r-kupa213 pppd[21571]: RADIUS plugin initialized. Nov 28 03:39:52 r-kupa213 pppd[21571]: Plugin /usr/lib/pppd/2.4.5/radattr.so loaded. Nov 28 03:39:52 r-kupa213 pppd[21571]: RADATTR plugin initialized. Nov 28 03:39:52 r-kupa213 pptp[21571]: Plugin pptp.so loaded. Nov 28 03:39:52 r-kupa213 pptp[21571]: PPTP plugin version 0.8.4 compiled for pppd-2.4.5, linux-2.6.26 Nov 28 03:39:52 r-kupa213 pptp[21571]: pppd 2.4.5 started by root, uid 0 Nov 28 03:39:52 r-kupa213 pptp[21571]: using channel 3738 Nov 28 03:39:52 r-kupa213 pptp[21571]: Using interface ppp1 Nov 28 03:39:52 r-kupa213 pptp[21571]: Connect: ppp1 <--> pptp (172.16.208.139) Nov 28 03:39:52 r-kupa213 pptp[21571]: sent [LCP ConfReq id=0x1 <asyncmap 0x0> <auth chap MD5> <magic 0xd187535a> <pcomp> <accomp>] Nov 28 03:39:52 r-kupa213 pptp[21571]: rcvd [LCP ConfReq id=0x1 <mru 1400> <asyncmap 0x0> <magic 0xd84d1100> <pcomp> <accomp>] Nov 28 03:39:52 r-kupa213 pptp[21571]: sent [LCP ConfAck id=0x1 <mru 1400> <asyncmap 0x0> <magic 0xd84d1100> <pcomp> <accomp>] Nov 28 03:39:52 r-kupa213 pptp[21571]: rcvd [LCP ConfAck id=0x1 <asyncmap 0x0> <auth chap MD5> <magic 0xd187535a> <pcomp> <accomp>] Nov 28 03:39:52 r-kupa213 pptp[21571]: sent [LCP EchoReq id=0x0 magic=0xd187535a] Nov 28 03:39:52 r-kupa213 pptp[21571]: sent [CHAP Challenge id=0xf7 <3766653d108d2ee6e43a1393ba725e44d8>, name = "r-kupa213"] Nov 28 03:39:52 r-kupa213 pptp[21571]: rcvd [LCP EchoReq id=0x0 magic=0xd84d1100] Nov 28 03:39:52 r-kupa213 pptp[21571]: sent [LCP EchoRep id=0x0 magic=0xd187535a] Nov 28 03:39:52 r-kupa213 pptp[21571]: rcvd [LCP EchoRep id=0x0 magic=0xd84d1100] Nov 28 03:39:52 r-kupa213 pptp[21571]: rcvd [CHAP Response id=0xf7 <01dc27d2e34ec5498e14cc4ab0be71b7>, name = "pp_um"] Nov 28 03:39:52 r-kupa213 pptp[21571]: Fatal signal 11 Nov 28 03:39:52 r-kupa213 pptp[21571]: RADATTR plugin removed file /var/run/radattr.ppp1. Nov 28 03:39:52 r-kupa213 pptp[21571]: Exit. Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Reaping child PPP[21571] Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Client pppd TERM sending Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Client pppd finish wait Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Asked to free call when no call open, not handled well Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Could not free Call ID [call clear]! Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Got call clear request after call manually shutdown - buggy client Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Client 172.16.208.139 control connection finished пробовал radattr.so откомпиленный руками подсунуть вместо "пакетного", естественно, был послан - fatal signal 11. в /etc/ppp/options.pptp прописывал noauth в самый конец файла, вместо signal 11 в логах Terminating with signal 15. подскажите, где "копать"? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
xeb Опубликовано 28 ноября, 2009 · Жалоба падает явно этот "самопальный" radius.c, проблема ли на обоих серваках поставить оригинальный pppd с оригинальным radius.c и привести ip-up к единому виду ? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
true.ru Опубликовано 28 ноября, 2009 · Жалоба проблема ли на обоих серваках поставить оригинальный pppdпервый работает довольно успешно для своих сил и трогать его желания нет.ip-up имеет единый вид на обоих серверах. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 28 ноября, 2009 · Жалоба первый работает довольно успешно для своих сил и трогать его желания нет.ip-up имеет единый вид на обоих серверах. Ну если вам нравится разбираться, почему "вдруг" начал падать непонятно кем (и главное - непонятно зачем) писанный плагин после его сборки на другом сервере - ваше дело... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
DpakoH Опубликовано 28 ноября, 2009 · Жалоба Итак, уважаемые коллеги, вы можете мне посоветовать самую стабильную версию accel-pptpd и ядра соответственно? Железка: 4-ядерный Xeon E5530 с двумя Ethernet controller: Intel Corporation 82575EB Gigabit Network Connection. Дистрибутив: Debian, ядро дистрибутивное (2.6.18, 2.6.26 или 2.6.30-31). Хотелось, чтобы работали все 4 ядра, был мониторинг по snmp, ну и netflow собирался (но это по желанию). Прочитал весь топик, но так ничего и не понял в этом вопросе. Одновременных сессий будет от 1к до 3к, канал от 100 мбит до 1 гбита. pppd получает всё нужное с внешнего радиуса. P.S. Ну и желательно уточнить всякие тонкости, типа настройки cmdline, sysctl, iptables и скриптов для вычищения залипших сессий и проверки соответствия ip. В принципе, всё это можно собрать по топику, но я запутался с версиями accel-pptpd. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
shicoy Опубликовано 29 ноября, 2009 · Жалоба 1) Почитайте еще раз внимательно, все расжевано. 2) Вы уж как-то более точнее определитесь с параметрами 100Мбит или 1Гбит, 1к или 3к сессий.... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Abram Опубликовано 29 ноября, 2009 · Жалоба Дистрибутив: Debian, ядро дистрибутивное (2.6.18, 2.6.26 или 2.6.30-31). Хотелось, чтобы работали все 4 ядраЯ лично Debian на NAS-е сменил на Arch. Debian не слишком хорошо поддаётся кастомизации (тот же accel-pptp можно легко прибить, обновив систему). В Arch всё 'keep it simply stupid'. Да и софт поновее.Сейчас Core 2 Quad Q9550 со встроенной сетевой держит 200 сессий, 50 мбит, загрузка проца - 1-2%. PKGBUILD-ы для модуля ядра и сервера accel-pptp есть в AUR. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
EvilShadow Опубликовано 29 ноября, 2009 · Жалоба Я лично Debian на NAS-е сменил на Arch. Debian не слишком хорошо поддаётся кастомизации (тот же accel-pptp можно легко прибить, обновив систему).checkinstal и hold пакету - и можно обновлять сколько угодно. А если не собирать пакет, а ставить в /usr/local, как обычно, то вообще непонятно, как его можно прибить.Да и софт поновее.Не обязательно использовать stable. Testing, unstable, experimental... За более свежий софт всегда нужно платить большей вероятностью наличия в софте багов. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 29 ноября, 2009 (изменено) · Жалоба У меня на насе Gentoo - легко ваять портеджи под свой софт или править существующие, добавляя модифицированные к своему дереву портеджей (к примеру, патченные пппд, снмпд). Ядро 2.6.30.5 вроде, аксель - 0.8.3; 2 сервера. Проблем нет. Распределение по ядрам - если сеть поддерживает очереди прерываний (а она, если память не подводит, тянет 4 очереди) - распределение будет. И еще одно замечание: нагрузка на проц в зависимости от кол-ва сессий растет нелинейно. Т.е. - 450-500 сессий может терминировать старенький 1-ядерный 1.8ГГц атлон 64 с обычной ддр памятью в одноканальном режиме без каких-либо проблем, а на 650-700 сессиях - уже одно ядро атлона 5600+ (ввиду отсутствия модных сетевух с несколькими очередями) заваливается пакетами по самое нехочу... P.S. Кстати, замечена интересная вещь: одноядерная машина - даже когда весьма перегружена (LA под 100 доходил) пакеты не дропает, и скорость держит. На дуалкоре - при нагрузке ядра, близкой к 90-100%, начинаются проблемы со скоростью соединения и дропом пакетов (в направлении сервер-клиент), в результате чего клиент матерится в логах на кучу packet lost or reordered. Изменено 29 ноября, 2009 пользователем NiTr0 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vitalyb Опубликовано 29 ноября, 2009 · Жалоба 450-500 сессий может терминировать старенький 1-ядерный 1.8ГГц атлон 64 с обычной ддр памятью в одноканальном режиме без каких-либо проблем, а на 650-700 сессиях - уже одно ядро атлона 5600+ LA под 100 доходилОчень похоже на "классический" pptp, имхо. Accel должен масштабироваться почти линейно, и ЛА такого у него быть не может, он же в softirq. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
heap Опубликовано 30 ноября, 2009 · Жалоба 450-500 сессий может терминировать старенький 1-ядерный 1.8ГГц атлон 64 с обычной ддр памятью в одноканальном режиме без каких-либо проблем, а на 650-700 сессиях - уже одно ядро атлона 5600+ LA под 100 доходилОчень похоже на "классический" pptp, имхо. Accel должен масштабироваться почти линейно, и ЛА такого у него быть не может, он же в softirq. Ну дык он то в irq, а юзер-спейс процессам не хватает камня (тем же pppd) и они строятся в очередь подрисовывая LA. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vitalyb Опубликовано 30 ноября, 2009 · Жалоба Ну дык он то в irq, а юзер-спейс процессам не хватает камня (тем же pppd) и они строятся в очередь подрисовывая LA.pppd, как и pptpd, практически ничем не заняты, просыпаются себе раз в 30 секунд и спят дальше, если такие процессы начали складываться в LA, то мне сложно представить на сколько там уже все плохо и как Вы туда залогинились. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
sirmax Опубликовано 30 ноября, 2009 · Жалоба Ээээ я могу ошибаться но по моему дело не в числе сессий а в pps ... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 30 ноября, 2009 · Жалоба pppd, как и pptpd, практически ничем не заняты, просыпаются себе раз в 30 секунд и спят дальше, если такие процессы начали складываться в LA, то мне сложно представить на сколько там уже все плохо и как Вы туда залогинились. Раз в 30 секунд при 2x500 процессов (pppd+pptpd) - вот и имеет LA 100 легко. + ко всему - еще ведь и LCP пингами pppd заведует, если не ошибаюсь - а это несколько чаще, чем раз в 30 секунд... но по моему дело не в числе сессий а в pps И PPS влияет, и число сессий ИМХО. Поскольку при 50кппс ядро на 50% загружено, 60кппс - под завязку. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
EvilShadow Опубликовано 30 ноября, 2009 · Жалоба Как-то я пропустил этот момент - что такое LA? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Abram Опубликовано 30 ноября, 2009 · Жалоба Как-то я пропустил этот момент - что такое LA? Load Average. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
DpakoH Опубликовано 30 ноября, 2009 · Жалоба 1) Почитайте еще раз внимательно, все расжевано.2) Вы уж как-то более точнее определитесь с параметрами 100Мбит или 1Гбит, 1к или 3к сессий.... 1) 0.8.4 не падает? на каком ядре?2) в одну сторону гигабит, в другую примерно 0.7, до 5к сессий Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
true.ru Опубликовано 1 декабря, 2009 · Жалоба первый работает довольно успешно для своих сил и трогать его желания нет.ip-up имеет единый вид на обоих серверах. Ну если вам нравится разбираться, почему "вдруг" начал падать непонятно кем (и главное - непонятно зачем) писанный плагин после его сборки на другом сервере - ваше дело... безусловно, исключительно дело мое.разобрался в чем была причина. было различие в еще одном файле. всем спасибо. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 1 декабря, 2009 · Жалоба в одну сторону гигабит, в другую примерно 0.7, до 5к сессий Я бы посоветовал распараллелить на 2 наса. Думается, захлебнется ваш квад... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...