Перейти к содержимому
Калькуляторы

Подскажите пожалуйста по PPPoE

MRV OSM6500 до 60 000 сессий

Был вопрос про статистику. А с этим у MRV уже давно очень большие проблемы ;-(

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Можно ли в PPPoE использовать шифрование?

Спрашиваю потому что не получилось этого сделать при использовании net-dialup/rp-pppoe на базе Gentoo.

Недостающие модули были подгружены, но при попытке установки соединения из винды - ошибка 734 "Протокол управления PPP-связью был прерван".

В логах

 

Sep 14 05:46:12 zet pppoe-server[12096]: Session 2 created for client 00:11:22:33:44:55 (192.168.2.3

Sep 14 05:46:12 zet pppd[12096]: pppd 2.4.2 started by root, uid 0

Sep 14 05:46:12 zet pppd[12096]: Using interface ppp1

Sep 14 05:46:12 zet pppd[12096]: Connect: ppp1 <--> /dev/pts/4

Sep 14 05:46:12 zet pppd[12096]: Refusing MPPE stateful mode offered by peer

Sep 14 05:46:12 zet pppd[12096]: MPPE required but peer negotiation failed

Sep 14 05:46:12 zet pppd[12096]: Connection terminated.

Sep 14 05:46:12 zet pppd[12096]: Connect time 0.0 minutes.

Sep 14 05:46:12 zet pppd[12096]: Sent 10 bytes, received 10 bytes.

Sep 14 05:46:12 zet pppoe-server[12079]: Sent PADT

Sep 14 05:46:12 zet pppd[12096]: Terminating on signal 15.

Sep 14 05:46:12 zet pppd[12096]: Connect time 0.0 minutes.

Sep 14 05:46:12 zet pppd[12096]: Sent 10 bytes, received 10 bytes.

Sep 14 05:46:12 zet pppd[12096]: Exit.

 

В опциях стоит Required-mppe

Без шифрования установка связи проходит без проблем.

Изменено пользователем ******

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Shiva, а M6500 кто-нибудь в глаза видел? ;-)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ну на самом деле у меня есть писюки которые держат по 2000 сессий.

Можно раскочегарить хоть до 10000, но не вижу смысла, лучше 10 по 1000, чем 1 на 10000.

А не подскажете на какой конфе (железо, ось, пппое сервер) 2000 сессий держится?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ну на самом деле у меня есть писюки которые держат по 2000 сессий.

Можно раскочегарить хоть до 10000, но не вижу смысла, лучше 10 по 1000, чем 1 на 10000.

А не подскажете на какой конфе (железо, ось, пппое сервер) 2000 сессий держится?

i7230, FreeBSD 6.1-STABLE, mpd3

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Ну на самом деле у меня есть писюки которые держат по 2000 сессий.

Можно раскочегарить хоть до 10000, но не вижу смысла, лучше 10 по 1000, чем 1 на 10000.

А не подскажете на какой конфе (железо, ось, пппое сервер) 2000 сессий держится?

i7230, FreeBSD 6.1-STABLE, mpd3

Это только "голая" терминация? Без нарезки полосы?

 

У меня довольно нехилая машина начинает клеить ласты от 300+ (pptp) пользователей,

правда на каждого выставляется четыре шейпера (2 - прием, 2 - передача).

Вот думаю над другими вариантами.

В перспективе будет возможность обойтись двумя шейперами на абонента, но пока надо выкрутиться с тем что есть.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

У меня довольно нехилая машина начинает клеить ласты от 300+ (pptp) пользователей,

правда на каждого выставляется четыре шейпера (2 - прием, 2 - передача).

Вот думаю над другими вариантами.

В перспективе будет возможность обойтись двумя шейперами на абонента, но пока надо выкрутиться с тем что есть.

Документацию читать не пробовали ? Можно сконфигурировать так, что Ваша нехилая машина и от одного пользователя

ласты склеит, но это не значит что всем надо так делать.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

У меня довольно нехилая машина начинает клеить ласты от 300+ (pptp) пользователей,

правда на каждого выставляется четыре шейпера (2 - прием, 2 - передача).

Вот думаю над другими вариантами.

В перспективе будет возможность обойтись двумя шейперами на абонента, но пока надо выкрутиться с тем что есть.

Документацию читать не пробовали ? Можно сконфигурировать так, что Ваша нехилая машина и от одного пользователя

ласты склеит, но это не значит что всем надо так делать.

А без наездов сразу не пробовали? :)

На машине 1000+ заведенных пользователей, онлайн работают одновременно 300-350.

На каждого абонента динамически ставится при подключении четыре шейпера.

После отключения - убираются. Одна пара шейперов низкоскоростные (порядок - Кбиты/с), вторая пара - высокоскоростные (порядок - Мбиты/с). Уже на 300+ пользователях начинаются подтормаживания. Хоть и понятия "нехилая машина" у всех разные, но я не верю, что это предел этой машины и/или конфигурации. Поэтому и ищу аналогии.

Отсюда и возник вопрос: 2000 терминаций у Вас на одном аксес-сервере - это с нарезкой полосы на абонента или без?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Терминируете только интернет трафик или вместе с локальным? Если локальный, то начинать надо с настройки машины на голом роутинге, т.е. em(4)

hw.em0.rx_int_delay и иже с ними

polling

SMP

 

Если вы вставляете правила в ipwf и каждое следущее правило увеличивает путь по списку правил для пакета, то естественно идет увеличение потребления ресурсов. Как вариант, можно использовать ipfw tables и динамические пайпы, работает на ура, машину не грузит.

 

Вот пример того что достигнуто:

http://www.voy.com/41165/3950.html

 

I use such a configuration (2 x Xeon 3.2GHz 1 GB of RAM) and I have over a 1200 users connected with a troughput of approx. 500Mbps up and 500Mbps down. The system load (measured with /proc/loadavg) is in peak about 2.1). The system performs htb traffic shaping (metropolitan and Internet traffic goes to different classes) and ingress policing. The linux distribution is Debian running a 2.6.16.28 kernel and the ethernet adapters are Intel PRO/1000 with NAPI.

 

А линукс там это или фри, кому что больше нравится.

Изменено пользователем rus-p

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Терминируете только интернет трафик или вместе с локальным? Если локальный, то начинать надо с настройки машины на голом роутинге, т.е. em(4)

hw.em0.rx_int_delay и иже с ними

polling

SMP

 

Если вы вставляете правила в ipwf и каждое следущее правило увеличивает путь по списку правил для пакета, то естественно идет увеличение потребления ресурсов. Как вариант, можно использовать ipfw tables и динамические пайпы, работает на ура, машину не грузит.

Машина терминирует и локальный (НАТ) и инет (pptp) трафик. Линукс, SMP.

Карточки броадком 5704, драйвер tg3. С этим все ок. Опыт построения "голого" роутера есть.

 

Мне и самому кажется, что основной затык в шейперах, а не в количестве pptp процессов.

Тут тоже есть проблема, по нашим тестам htb "плохо" режет полосу на низких скоростях,

cbq в этом плане гораздо аккуратнее, поэтому приходиться использовать его.

Хотя если понадобится, то откажемся.

 

 

Вот пример того что достигнуто:

http://www.voy.com/41165/3950.html

 

I use such a configuration (2 x Xeon 3.2GHz 1 GB of RAM) and I have over a 1200 users connected with a troughput of approx. 500Mbps up and 500Mbps down. The system load (measured with /proc/loadavg) is in peak about 2.1). The system performs htb traffic shaping (metropolitan and Internet traffic goes to different classes) and ingress policing. The linux distribution is Debian running a 2.6.16.28 kernel and the ethernet adapters are Intel PRO/1000 with NAPI.

 

А линукс там это или фри, кому что больше нравится.

Спасибо за ссылку. У меня скромнее гораздо, в пиках под сотню мегабит. Но в основном кач юзеров, а не в обе стороны.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Проверьте чтоб SMP было не на бумажке, а реально процессы прыгали по процам, выравнивая загрузку. Если у Вас ядро 2.4, добейтесь чтоб от система пожира тоже оба проца, а не сваливала все на нулевой. Ну и пентиум-д Вам в помощь вместе с шиной PCI-X и NAPI.

Если интел будет в дальнейшем выпускать нечто на подобие пентиум-д, только с 4,8 и т.тд. процами, это будет легкий путь увеличения производительности сервера доступа.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Проверьте чтоб SMP было не на бумажке, а реально процессы прыгали по процам, выравнивая загрузку. Если у Вас ядро 2.4, добейтесь чтоб от система пожира тоже оба проца, а не сваливала все на нулевой. Ну и пентиум-д Вам в помощь вместе с шиной PCI-X и NAPI.

Если интел будет в дальнейшем выпускать нечто на подобие пентиум-д, только с 4,8 и т.тд. процами, это будет легкий путь увеличения производительности сервера доступа.

Ядро 2.6

Процессы-то "прыгают", дело не в этом. Не скажу со 100% уверенностью, но скорее всего ядро (именно подсистема шейперов) не параллелится на два процессора, и все упирается в производительность одного процессора в моем случае. И пока ядро не научится раскидывать обработку шейперов на разные камни, два процессора (или один двухядерный) должно за глаза хватать на подобных задачах, на мой взгляд.

 

$ mpstat -P ALL 1
Linux 2.6.17-ppp ()      10.10.2006

12:25:15     CPU   %user   %nice    %sys %iowait    %irq   %soft   %idle    intr/s
12:25:16     all    7,04    0,00    6,53    0,50    0,50   14,07   71,36   6615,00
12:25:16       0    8,00    0,00    7,00    0,00    1,00   13,00   71,00   3202,00
12:25:16       1    7,00    0,00    5,00    1,00    0,00   16,00   72,00   3413,00

12:25:16     CPU   %user   %nice    %sys %iowait    %irq   %soft   %idle    intr/s
12:25:17     all   12,00    0,00    9,50    0,00    0,50   11,00   67,00   6624,75
12:25:17       0   12,87    0,00    9,90    0,99    0,00   13,86   62,38   2811,88
12:25:17       1   10,89    0,00    9,90    0,00    0,99    6,93   70,30   3812,87

12:25:17     CPU   %user   %nice    %sys %iowait    %irq   %soft   %idle    intr/s
12:25:18     all    2,00    0,00    3,50    0,00    0,00    9,50   85,00   6492,00
12:25:18       0    2,00    0,00    4,00    0,00    1,00   13,00   80,00   2697,00
12:25:18       1    2,00    0,00    2,00    0,00    0,00    6,00   90,00   3796,00

12:25:18     CPU   %user   %nice    %sys %iowait    %irq   %soft   %idle    intr/s
12:25:19     all    2,00    0,00    3,00    0,00    0,00    9,50   85,50   6371,00
12:25:19       0    2,00    0,00    4,00    0,00    0,00   13,00   81,00   2652,00
12:25:19       1    1,00    0,00    3,00    0,00    0,00    7,00   90,00   3719,00

12:25:19     CPU   %user   %nice    %sys %iowait    %irq   %soft   %idle    intr/s
12:25:20     all   10,45    0,00   17,41    0,50    0,50   11,44   59,70   6395,00
12:25:20       0   11,00    0,00   14,00    0,00    0,00   15,00   60,00   2663,00
12:25:20       1   10,00    0,00   20,00    0,00    1,00    8,00   60,00   3731,00

 

Вобщем-то направление работы понятно: pptp -> pppoe, cbq -> htb. Основная проблема, как выяснилось, именно в cbq. И совсем отказаться от терминирования тунелей пока тоже не получится, dot1x авторизация еще в разработке, и велика еще инсталлированная база неуправляемых свичей.

Спасибо за помощь.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.