Перейти к содержимому
Калькуляторы

fix-accel-pptp-install.patch

diff -r e43ada2bd7fc Makefile.am
--- a/Makefile.am       Thu Nov 26 17:31:21 2009 +0200
+++ b/Makefile.am       Thu Nov 26 17:32:13 2009 +0200
@@ -3,7 +3,7 @@

@SET_MAKE@

-export LIBDIR=$(libdir)/pptpd
+export LIBDIR=$(DESTDIR)/$(libdir)/pptpd
INCLUDES = -I.
## Change this if you don't have gcc
## -pedantic removed for now (OpenBSD header files).
diff -r e43ada2bd7fc plugins/Makefile
--- a/plugins/Makefile  Thu Nov 26 17:31:21 2009 +0200
+++ b/plugins/Makefile  Thu Nov 26 17:32:13 2009 +0200
@@ -18,7 +18,7 @@
%.so: %.c
        $(CC) -o $@ $(LDFLAGS) $(CFLAGS) $^ $(LDADD)

-LIBDIR ?= $(DESTDIR)$(prefix)/lib/pptpd
+LIBDIR = $(DESTDIR)$(prefix)/lib/pptpd

install: $(PLUGINS)
        $(INSTALL) -d $(LIBDIR)

Может кому пригодится. Мне немало нервов попортило :).

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ну почему сразу накуренный? vpn до провайдера - получил инет, впн на работу - попал в локалку своей конторы....

Не до конца улавливаю тогда мысль. Запустил инетовский впн, запустил впн на работу - а по какой причине должно стошнить мой сервер? В худшем случае у него заменится дефолт роут и отвалится впн на работу. Разве не так?

Я про кольцо подумал, что он повторно поднимает к моему серверу туннель, но уже сквозь туннель первый. Как тут было сказано про кривые сохо.

Если не прав - проясните, плиз, суть, ибо с одной стороны не понятно, что происходит, а с другой не понятно - как с этим бороться и как отловить виновника торжества.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

он повторно поднимает к моему серверу туннель, но уже сквозь туннель первый
Да, именно это я и имел ввиду. Но только как вариант...

 

Кстати, это, по идее, легко отфильтровать - со стороны ppp+ интерфейсов на адрес сервака дропать пакеты GRE и TCP-pptp.

 

Запустил инетовский впн, запустил впн на работу
А теперь представьте, что сначала абонент поднимал PPTP с компа, потом купил роутер/вифи. Ярлыки есстессно остались... А дальше - что угодно, от обученной бабушки до "перепутал ярлыки" и автодозвона качалок по какому-то событию... Как роутер отроутит - так и будет.
Изменено пользователем vitalyb

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

тунель в тунеле работает без проблем, проверено, вот если только такая ситуация: юзер поднимает до прова тунель, потом через этот тунель опять до прова поднимает тунель, надо бы смоделировать ...

Cayz, от тебя хотельсь бы увидеть последние логи подключений перед падением, правила iptables, настройки шейперов

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

в любом случае подобные извороты нужно запретить: iptables -A INPUT -s <ип адраса впн юзеров> -p tcp --dport 1723 -j DROP

Изменено пользователем xeb

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

тунель в тунеле работает без проблем, проверено, вот если только такая ситуация: юзер поднимает до прова тунель, потом через этот тунель опять до прова поднимает тунель, надо бы смоделировать ...

Cayz, от тебя хотельсь бы увидеть последние логи подключений перед падением, правила iptables, настройки шейперов

Сталкивался с таким... Если оба туннеля терминировались на одном и том же NAS-е - результат печальный - CPU пожирался весь, так что не получалось даже с консоли доступ получить.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

есть проблема, пока не пришел к ее пониманию.

 

в сети существует два nas. pptpd+radius+tc

один (назовем "1") настраивал админ из другой компании.

второй (назовем "2") сервер доступа переводим на accel-pptp. debian 2.6.26. если использовать pppd из пакета, то все прекрасно заводится, работает, но не обрабатываются скрипты tc в /etc/ppp/ip-up. пришел к выводу, что биллинг по разному отвечает на радиус запрос.

для "1" в виде:

параметр="значение"

для "2":

параметр значение.

 

настройки на nas'ах идентичны.

 

спросил у админа, что правилось в исходниках pppd. получил ответ:

/***********************************************************************
*
* radattr.c
*
* A plugin which is stacked on top of radius.so.  This plugin writes
* all RADIUS attributes from the server's authentication confirmation
* into /var/run/radattr.pppN.  These attributes are available for
* consumption by /etc/ppp/ip-{up,down} scripts.
*
* Copyright (C) 2002 Roaring Penguin Software Inc.
*
* This plugin may be distributed according to the terms of the GNU
* General Public License, version 2 or (at your option) any later version.
*
***********************************************************************/

static char const RCSID[] =
"$Id: radattr.c,v 1.2 2004/10/28 00:24:40 paulus Exp $";

#include "pppd.h"
#include "radiusclient.h"
#include <stdio.h>

#ifndef MAXSESSIONID
#define MAXSESSIONID 32
#endif

#ifndef MAXCLASSLEN
#define MAXCLASSLEN 500
#endif

struct radius_state {
    int accounting_started;
    int initialized;
    int client_port;
    int choose_ip;
    int any_ip_addr_ok;
    int done_chap_once;
    u_int32_t ip_addr;
    char user[MAXNAMELEN];
    char config_file[MAXPATHLEN];
    char session_id[MAXSESSIONID + 1];
    time_t start_time;
    int acct_interim_interval;
    SERVER *authserver;         /* Authentication server to use */
    SERVER *acctserver;         /* Accounting server to use */
    int class_len;
    char class[MAXCLASSLEN];
    VALUE_PAIR *avp;    /* Additional (user supplied) vp's to send to server */
};

extern void (*radius_attributes_hook)(VALUE_PAIR *, struct radius_state *rstate);
static void print_attributes(VALUE_PAIR *, struct radius_state *rstate);
static void cleanup(void *opaque, int arg);

char pppd_version[] = VERSION;


/**********************************************************************
* %FUNCTION: plugin_init
* %ARGUMENTS:
*  None
* %RETURNS:
*  Nothing
* %DESCRIPTION:
*  Initializes radattr plugin.
***********************************************************************/
void
plugin_init(void)
{
    radius_attributes_hook = print_attributes;

#if 0
    /* calling cleanup() on link down is problematic because print_attributes()
       is called only after PAP or CHAP authentication, but not when the link
       should go up again for any other reason */
    add_notifier(&link_down_notifier, cleanup, NULL);
#endif

    /* Just in case... */
    add_notifier(&exitnotify, cleanup, NULL);
    info("RADATTR plugin initialized.");
}

/**********************************************************************
* %FUNCTION: print_attributes
* %ARGUMENTS:
*  vp -- linked-list of RADIUS attribute-value pairs
* %RETURNS:
*  Nothing
* %DESCRIPTION:
*  Prints the attribute pairs to /var/run/radattr.pppN.  Each line of the
*  file contains "name value" pairs.
***********************************************************************/

static
char *norm(char *s) {
  char *i;
  for (i=s; *i; i++) {
    if (*i=='-') *i='_';
  }
  return s;
}

static void
print_attributes(VALUE_PAIR *vp, struct radius_state *rstate)
{
    FILE *fp;
    char fname[512];
    char name[2048];
    char value[2048];
    int cnt = 0;

    slprintf(fname, sizeof(fname), "/var/run/pid.%d", getppid());
    fp = fopen(fname, "w");
    if (fp) {
      fprintf(fp,"%s\n",ifname);
      fclose(fp);
    }

    slprintf(fname, sizeof(fname), "/var/run/radattr.%s", ifname);
    fp = fopen(fname, "w");
    if (!fp) {
        warn("radattr plugin: Could not open %s for writing: %m", fname);
        return;
    }

    fprintf(fp,"User_Name='%s'\n", rstate->user);

    for (; vp; vp=vp->next) {
        if (rc_avpair_tostr(vp, name, sizeof(name), value, sizeof(value)) < 0) {
            continue;
        }
        fprintf(fp, "%s='%s'\n", norm(name), norm(value));
        cnt++;
    }
    fclose(fp);
    dbglog("RADATTR plugin wrote %d line(s) to file %s.", cnt, fname);
}

/**********************************************************************
* %FUNCTION: cleanup
* %ARGUMENTS:
*  opaque -- not used
*  arg -- not used
* %RETURNS:
*  Nothing
* %DESCRIPTION:
*  Deletes /var/run/radattr.pppN
***********************************************************************/
static void
cleanup(void *opaque, int arg)
{
    char fname[512];

    slprintf(fname, sizeof(fname), "/var/run/pid.%d", getppid());
    (void) remove(fname);
    slprintf(fname, sizeof(fname), "/var/run/radattr.%s", ifname);
    (void) remove(fname);
    dbglog("RADATTR plugin removed file %s.", fname);
}

 

изменил radattr.c, откомпилил и установил pppd (сначала для 2.4.4, затем и для 2.4.5), соотвественно откомпилил и установил accel-pptp 0.8.4...

после запуска процесса в логах видим это:

 

Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Client 172.16.208.139 control connection started
Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Starting call (launching pppd, opening GRE)
Nov 28 03:24:30 r-kupa213 pppd[19661]: Plugin /usr/lib/pppd/2.4.5/radius.so loaded.
Nov 28 03:24:30 r-kupa213 pppd[19661]: RADIUS plugin initialized.
Nov 28 03:24:30 r-kupa213 pppd[19661]: Plugin /usr/lib/pppd/2.4.5/radattr.so loaded.
Nov 28 03:24:30 r-kupa213 pppd[19661]: RADATTR plugin initialized.
Nov 28 03:24:30 r-kupa213 pptp[19661]: Plugin pptp.so loaded.
Nov 28 03:24:30 r-kupa213 pptp[19661]: PPTP plugin version 0.8.4 compiled for pppd-2.4.5, linux-2.6.26
Nov 28 03:24:30 r-kupa213 pptp[19661]: pppd 2.4.5 started by root, uid 0
Nov 28 03:24:30 r-kupa213 pptp[19661]: Using interface ppp0
Nov 28 03:24:30 r-kupa213 pptp[19661]: Connect: ppp0 <--> pptp (172.16.208.139)
Nov 28 03:24:30 r-kupa213 pptp[19661]: Fatal signal 11
Nov 28 03:24:30 r-kupa213 pptp[19661]: Exit.
Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Reaping child PPP[19661]
Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Client pppd TERM sending
Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Client pppd finish wait
Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Asked to free call when no call open, not handled well
Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Could not free Call ID [call clear]!
Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Got call clear request after call manually shutdown - buggy client
Nov 28 03:24:30 r-kupa213 pptpd[19660]: CTRL: Client 172.16.208.139 control connection finished

 

 

или так

 

Nov 28 03:24:26 r-kupa213 pptpd[19628]: CTRL: Client 172.16.208.139 control connection started
Nov 28 03:24:26 r-kupa213 pptpd[19628]: CTRL: Starting call (launching pppd, opening GRE)
Nov 28 03:24:26 r-kupa213 pppd[19629]: Plugin /usr/lib/pppd/2.4.5/radius.so loaded.
Nov 28 03:24:26 r-kupa213 pppd[19629]: RADIUS plugin initialized.
Nov 28 03:24:26 r-kupa213 pppd[19629]: Plugin /usr/lib/pppd/2.4.5/radattr.so loaded.
Nov 28 03:24:26 r-kupa213 pppd[19629]: RADATTR plugin initialized.
Nov 28 03:24:26 r-kupa213 pptp[19629]: Plugin pptp.so loaded.
Nov 28 03:24:26 r-kupa213 pptp[19629]: PPTP plugin version 0.8.4 compiled for pppd-2.4.5, linux-2.6.26
Nov 28 03:24:26 r-kupa213 pptp[19629]: pppd 2.4.5 started by root, uid 0
Nov 28 03:24:26 r-kupa213 pptp[19629]: Using interface ppp0
Nov 28 03:24:26 r-kupa213 pptp[19629]: Connect: ppp0 <--> pptp (172.16.208.139)
Nov 28 03:24:26 r-kupa213 pptp[19593]: Fatal signal 11

 

 

включил debug:

Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Client 172.16.208.139 control connection started
Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Starting call (launching pppd, opening GRE)
Nov 28 03:39:52 r-kupa213 pppd[21571]: Plugin /usr/lib/pppd/2.4.5/radius.so loaded.
Nov 28 03:39:52 r-kupa213 pppd[21571]: RADIUS plugin initialized.
Nov 28 03:39:52 r-kupa213 pppd[21571]: Plugin /usr/lib/pppd/2.4.5/radattr.so loaded.
Nov 28 03:39:52 r-kupa213 pppd[21571]: RADATTR plugin initialized.
Nov 28 03:39:52 r-kupa213 pptp[21571]: Plugin pptp.so loaded.
Nov 28 03:39:52 r-kupa213 pptp[21571]: PPTP plugin version 0.8.4 compiled for pppd-2.4.5, linux-2.6.26
Nov 28 03:39:52 r-kupa213 pptp[21571]: pppd 2.4.5 started by root, uid 0
Nov 28 03:39:52 r-kupa213 pptp[21571]: using channel 3738
Nov 28 03:39:52 r-kupa213 pptp[21571]: Using interface ppp1
Nov 28 03:39:52 r-kupa213 pptp[21571]: Connect: ppp1 <--> pptp (172.16.208.139)
Nov 28 03:39:52 r-kupa213 pptp[21571]: sent [LCP ConfReq id=0x1 <asyncmap 0x0> <auth chap MD5> <magic 0xd187535a> <pcomp> <accomp>]
Nov 28 03:39:52 r-kupa213 pptp[21571]: rcvd [LCP ConfReq id=0x1 <mru 1400> <asyncmap 0x0> <magic 0xd84d1100> <pcomp> <accomp>]
Nov 28 03:39:52 r-kupa213 pptp[21571]: sent [LCP ConfAck id=0x1 <mru 1400> <asyncmap 0x0> <magic 0xd84d1100> <pcomp> <accomp>]
Nov 28 03:39:52 r-kupa213 pptp[21571]: rcvd [LCP ConfAck id=0x1 <asyncmap 0x0> <auth chap MD5> <magic 0xd187535a> <pcomp> <accomp>]
Nov 28 03:39:52 r-kupa213 pptp[21571]: sent [LCP EchoReq id=0x0 magic=0xd187535a]
Nov 28 03:39:52 r-kupa213 pptp[21571]: sent [CHAP Challenge id=0xf7 <3766653d108d2ee6e43a1393ba725e44d8>, name = "r-kupa213"]
Nov 28 03:39:52 r-kupa213 pptp[21571]: rcvd [LCP EchoReq id=0x0 magic=0xd84d1100]
Nov 28 03:39:52 r-kupa213 pptp[21571]: sent [LCP EchoRep id=0x0 magic=0xd187535a]
Nov 28 03:39:52 r-kupa213 pptp[21571]: rcvd [LCP EchoRep id=0x0 magic=0xd84d1100]
Nov 28 03:39:52 r-kupa213 pptp[21571]: rcvd [CHAP Response id=0xf7 <01dc27d2e34ec5498e14cc4ab0be71b7>, name = "pp_um"]
Nov 28 03:39:52 r-kupa213 pptp[21571]: Fatal signal 11
Nov 28 03:39:52 r-kupa213 pptp[21571]: RADATTR plugin removed file /var/run/radattr.ppp1.
Nov 28 03:39:52 r-kupa213 pptp[21571]: Exit.
Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Reaping child PPP[21571]
Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Client pppd TERM sending
Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Client pppd finish wait
Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Asked to free call when no call open, not handled well
Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Could not free Call ID [call clear]!
Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Got call clear request after call manually shutdown - buggy client
Nov 28 03:39:52 r-kupa213 pptpd[21570]: CTRL: Client 172.16.208.139 control connection finished

 

 

 

пробовал radattr.so откомпиленный руками подсунуть вместо "пакетного", естественно, был послан - fatal signal 11.

 

в /etc/ppp/options.pptp прописывал noauth в самый конец файла, вместо signal 11 в логах Terminating with signal 15.

 

подскажите, где "копать"?

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

падает явно этот "самопальный" radius.c, проблема ли на обоих серваках поставить оригинальный pppd с оригинальным radius.c и привести ip-up к единому виду ?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

проблема ли на обоих серваках поставить оригинальный pppd
первый работает довольно успешно для своих сил и трогать его желания нет.

ip-up имеет единый вид на обоих серверах.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

первый работает довольно успешно для своих сил и трогать его желания нет.

ip-up имеет единый вид на обоих серверах.

Ну если вам нравится разбираться, почему "вдруг" начал падать непонятно кем (и главное - непонятно зачем) писанный плагин после его сборки на другом сервере - ваше дело...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Итак, уважаемые коллеги, вы можете мне посоветовать самую стабильную версию accel-pptpd и ядра соответственно? Железка: 4-ядерный Xeon E5530 с двумя Ethernet controller: Intel Corporation 82575EB Gigabit Network Connection. Дистрибутив: Debian, ядро дистрибутивное (2.6.18, 2.6.26 или 2.6.30-31). Хотелось, чтобы работали все 4 ядра, был мониторинг по snmp, ну и netflow собирался (но это по желанию). Прочитал весь топик, но так ничего и не понял в этом вопросе. Одновременных сессий будет от 1к до 3к, канал от 100 мбит до 1 гбита. pppd получает всё нужное с внешнего радиуса.

 

P.S. Ну и желательно уточнить всякие тонкости, типа настройки cmdline, sysctl, iptables и скриптов для вычищения залипших сессий и проверки соответствия ip. В принципе, всё это можно собрать по топику, но я запутался с версиями accel-pptpd.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

1) Почитайте еще раз внимательно, все расжевано.

2) Вы уж как-то более точнее определитесь с параметрами 100Мбит или 1Гбит, 1к или 3к сессий....

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Дистрибутив: Debian, ядро дистрибутивное (2.6.18, 2.6.26 или 2.6.30-31). Хотелось, чтобы работали все 4 ядра
Я лично Debian на NAS-е сменил на Arch. Debian не слишком хорошо поддаётся кастомизации (тот же accel-pptp можно легко прибить, обновив систему). В Arch всё 'keep it simply stupid'. Да и софт поновее.

Сейчас Core 2 Quad Q9550 со встроенной сетевой держит 200 сессий, 50 мбит, загрузка проца - 1-2%.

PKGBUILD-ы для модуля ядра и сервера accel-pptp есть в AUR.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Я лично Debian на NAS-е сменил на Arch. Debian не слишком хорошо поддаётся кастомизации (тот же accel-pptp можно легко прибить, обновив систему).
checkinstal и hold пакету - и можно обновлять сколько угодно. А если не собирать пакет, а ставить в /usr/local, как обычно, то вообще непонятно, как его можно прибить.
Да и софт поновее.
Не обязательно использовать stable. Testing, unstable, experimental... За более свежий софт всегда нужно платить большей вероятностью наличия в софте багов.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

У меня на насе Gentoo - легко ваять портеджи под свой софт или править существующие, добавляя модифицированные к своему дереву портеджей (к примеру, патченные пппд, снмпд).

Ядро 2.6.30.5 вроде, аксель - 0.8.3; 2 сервера. Проблем нет.

 

Распределение по ядрам - если сеть поддерживает очереди прерываний (а она, если память не подводит, тянет 4 очереди) - распределение будет.

 

И еще одно замечание: нагрузка на проц в зависимости от кол-ва сессий растет нелинейно. Т.е. - 450-500 сессий может терминировать старенький 1-ядерный 1.8ГГц атлон 64 с обычной ддр памятью в одноканальном режиме без каких-либо проблем, а на 650-700 сессиях - уже одно ядро атлона 5600+ (ввиду отсутствия модных сетевух с несколькими очередями) заваливается пакетами по самое нехочу...

 

P.S. Кстати, замечена интересная вещь: одноядерная машина - даже когда весьма перегружена (LA под 100 доходил) пакеты не дропает, и скорость держит. На дуалкоре - при нагрузке ядра, близкой к 90-100%, начинаются проблемы со скоростью соединения и дропом пакетов (в направлении сервер-клиент), в результате чего клиент матерится в логах на кучу packet lost or reordered.

Изменено пользователем NiTr0

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

450-500 сессий может терминировать старенький 1-ядерный 1.8ГГц атлон 64 с обычной ддр памятью в одноканальном режиме без каких-либо проблем, а на 650-700 сессиях - уже одно ядро атлона 5600+
LA под 100 доходил
Очень похоже на "классический" pptp, имхо. Accel должен масштабироваться почти линейно, и ЛА такого у него быть не может, он же в softirq.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

450-500 сессий может терминировать старенький 1-ядерный 1.8ГГц атлон 64 с обычной ддр памятью в одноканальном режиме без каких-либо проблем, а на 650-700 сессиях - уже одно ядро атлона 5600+
LA под 100 доходил
Очень похоже на "классический" pptp, имхо. Accel должен масштабироваться почти линейно, и ЛА такого у него быть не может, он же в softirq.

Ну дык он то в irq, а юзер-спейс процессам не хватает камня (тем же pppd) и они строятся в очередь подрисовывая LA.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ну дык он то в irq, а юзер-спейс процессам не хватает камня (тем же pppd) и они строятся в очередь подрисовывая LA.
pppd, как и pptpd, практически ничем не заняты, просыпаются себе раз в 30 секунд и спят дальше, если такие процессы начали складываться в LA, то мне сложно представить на сколько там уже все плохо и как Вы туда залогинились.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ээээ я могу ошибаться но по моему дело не в числе сессий а в pps ...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

pppd, как и pptpd, практически ничем не заняты, просыпаются себе раз в 30 секунд и спят дальше, если такие процессы начали складываться в LA, то мне сложно представить на сколько там уже все плохо и как Вы туда залогинились.

Раз в 30 секунд при 2x500 процессов (pppd+pptpd) - вот и имеет LA 100 легко. + ко всему - еще ведь и LCP пингами pppd заведует, если не ошибаюсь - а это несколько чаще, чем раз в 30 секунд...

 

но по моему дело не в числе сессий а в pps

И PPS влияет, и число сессий ИМХО. Поскольку при 50кппс ядро на 50% загружено, 60кппс - под завязку.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Как-то я пропустил этот момент - что такое LA?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Как-то я пропустил этот момент - что такое LA?

Load Average.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

1) Почитайте еще раз внимательно, все расжевано.

2) Вы уж как-то более точнее определитесь с параметрами 100Мбит или 1Гбит, 1к или 3к сессий....

1) 0.8.4 не падает? на каком ядре?

2) в одну сторону гигабит, в другую примерно 0.7, до 5к сессий

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

первый работает довольно успешно для своих сил и трогать его желания нет.

ip-up имеет единый вид на обоих серверах.

Ну если вам нравится разбираться, почему "вдруг" начал падать непонятно кем (и главное - непонятно зачем) писанный плагин после его сборки на другом сервере - ваше дело...

безусловно, исключительно дело мое.

разобрался в чем была причина. было различие в еще одном файле.

всем спасибо.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

в одну сторону гигабит, в другую примерно 0.7, до 5к сессий

Я бы посоветовал распараллелить на 2 наса. Думается, захлебнется ваш квад...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.