vIv Опубликовано 13 сентября, 2006 · Жалоба MRV OSM6500 до 60 000 сессий Был вопрос про статистику. А с этим у MRV уже давно очень большие проблемы ;-( Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
****** Опубликовано 14 сентября, 2006 (изменено) · Жалоба Можно ли в PPPoE использовать шифрование? Спрашиваю потому что не получилось этого сделать при использовании net-dialup/rp-pppoe на базе Gentoo. Недостающие модули были подгружены, но при попытке установки соединения из винды - ошибка 734 "Протокол управления PPP-связью был прерван". В логах Sep 14 05:46:12 zet pppoe-server[12096]: Session 2 created for client 00:11:22:33:44:55 (192.168.2.3 Sep 14 05:46:12 zet pppd[12096]: pppd 2.4.2 started by root, uid 0 Sep 14 05:46:12 zet pppd[12096]: Using interface ppp1 Sep 14 05:46:12 zet pppd[12096]: Connect: ppp1 <--> /dev/pts/4 Sep 14 05:46:12 zet pppd[12096]: Refusing MPPE stateful mode offered by peer Sep 14 05:46:12 zet pppd[12096]: MPPE required but peer negotiation failed Sep 14 05:46:12 zet pppd[12096]: Connection terminated. Sep 14 05:46:12 zet pppd[12096]: Connect time 0.0 minutes. Sep 14 05:46:12 zet pppd[12096]: Sent 10 bytes, received 10 bytes. Sep 14 05:46:12 zet pppoe-server[12079]: Sent PADT Sep 14 05:46:12 zet pppd[12096]: Terminating on signal 15. Sep 14 05:46:12 zet pppd[12096]: Connect time 0.0 minutes. Sep 14 05:46:12 zet pppd[12096]: Sent 10 bytes, received 10 bytes. Sep 14 05:46:12 zet pppd[12096]: Exit. В опциях стоит Required-mppe Без шифрования установка связи проходит без проблем. Изменено 14 сентября, 2006 пользователем ****** Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vIv Опубликовано 15 сентября, 2006 · Жалоба Shiva, а M6500 кто-нибудь в глаза видел? ;-) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
lamka Опубликовано 4 октября, 2006 · Жалоба Ну на самом деле у меня есть писюки которые держат по 2000 сессий. Можно раскочегарить хоть до 10000, но не вижу смысла, лучше 10 по 1000, чем 1 на 10000. А не подскажете на какой конфе (железо, ось, пппое сервер) 2000 сессий держится? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jab Опубликовано 5 октября, 2006 · Жалоба Ну на самом деле у меня есть писюки которые держат по 2000 сессий. Можно раскочегарить хоть до 10000, но не вижу смысла, лучше 10 по 1000, чем 1 на 10000. А не подскажете на какой конфе (железо, ось, пппое сервер) 2000 сессий держится? i7230, FreeBSD 6.1-STABLE, mpd3 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Oleg_S Опубликовано 8 октября, 2006 · Жалоба Ну на самом деле у меня есть писюки которые держат по 2000 сессий. Можно раскочегарить хоть до 10000, но не вижу смысла, лучше 10 по 1000, чем 1 на 10000. А не подскажете на какой конфе (железо, ось, пппое сервер) 2000 сессий держится? i7230, FreeBSD 6.1-STABLE, mpd3 Это только "голая" терминация? Без нарезки полосы? У меня довольно нехилая машина начинает клеить ласты от 300+ (pptp) пользователей, правда на каждого выставляется четыре шейпера (2 - прием, 2 - передача). Вот думаю над другими вариантами. В перспективе будет возможность обойтись двумя шейперами на абонента, но пока надо выкрутиться с тем что есть. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jab Опубликовано 9 октября, 2006 · Жалоба У меня довольно нехилая машина начинает клеить ласты от 300+ (pptp) пользователей, правда на каждого выставляется четыре шейпера (2 - прием, 2 - передача). Вот думаю над другими вариантами. В перспективе будет возможность обойтись двумя шейперами на абонента, но пока надо выкрутиться с тем что есть. Документацию читать не пробовали ? Можно сконфигурировать так, что Ваша нехилая машина и от одного пользователя ласты склеит, но это не значит что всем надо так делать. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Oleg_S Опубликовано 9 октября, 2006 · Жалоба У меня довольно нехилая машина начинает клеить ласты от 300+ (pptp) пользователей, правда на каждого выставляется четыре шейпера (2 - прием, 2 - передача). Вот думаю над другими вариантами. В перспективе будет возможность обойтись двумя шейперами на абонента, но пока надо выкрутиться с тем что есть. Документацию читать не пробовали ? Можно сконфигурировать так, что Ваша нехилая машина и от одного пользователя ласты склеит, но это не значит что всем надо так делать. А без наездов сразу не пробовали? :) На машине 1000+ заведенных пользователей, онлайн работают одновременно 300-350. На каждого абонента динамически ставится при подключении четыре шейпера. После отключения - убираются. Одна пара шейперов низкоскоростные (порядок - Кбиты/с), вторая пара - высокоскоростные (порядок - Мбиты/с). Уже на 300+ пользователях начинаются подтормаживания. Хоть и понятия "нехилая машина" у всех разные, но я не верю, что это предел этой машины и/или конфигурации. Поэтому и ищу аналогии. Отсюда и возник вопрос: 2000 терминаций у Вас на одном аксес-сервере - это с нарезкой полосы на абонента или без? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
rus-p Опубликовано 9 октября, 2006 (изменено) · Жалоба Терминируете только интернет трафик или вместе с локальным? Если локальный, то начинать надо с настройки машины на голом роутинге, т.е. em(4) hw.em0.rx_int_delay и иже с ними polling SMP Если вы вставляете правила в ipwf и каждое следущее правило увеличивает путь по списку правил для пакета, то естественно идет увеличение потребления ресурсов. Как вариант, можно использовать ipfw tables и динамические пайпы, работает на ура, машину не грузит. Вот пример того что достигнуто: http://www.voy.com/41165/3950.html I use such a configuration (2 x Xeon 3.2GHz 1 GB of RAM) and I have over a 1200 users connected with a troughput of approx. 500Mbps up and 500Mbps down. The system load (measured with /proc/loadavg) is in peak about 2.1). The system performs htb traffic shaping (metropolitan and Internet traffic goes to different classes) and ingress policing. The linux distribution is Debian running a 2.6.16.28 kernel and the ethernet adapters are Intel PRO/1000 with NAPI. А линукс там это или фри, кому что больше нравится. Изменено 9 октября, 2006 пользователем rus-p Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Oleg_S Опубликовано 9 октября, 2006 · Жалоба Терминируете только интернет трафик или вместе с локальным? Если локальный, то начинать надо с настройки машины на голом роутинге, т.е. em(4)hw.em0.rx_int_delay и иже с ними polling SMP Если вы вставляете правила в ipwf и каждое следущее правило увеличивает путь по списку правил для пакета, то естественно идет увеличение потребления ресурсов. Как вариант, можно использовать ipfw tables и динамические пайпы, работает на ура, машину не грузит. Машина терминирует и локальный (НАТ) и инет (pptp) трафик. Линукс, SMP. Карточки броадком 5704, драйвер tg3. С этим все ок. Опыт построения "голого" роутера есть. Мне и самому кажется, что основной затык в шейперах, а не в количестве pptp процессов. Тут тоже есть проблема, по нашим тестам htb "плохо" режет полосу на низких скоростях, cbq в этом плане гораздо аккуратнее, поэтому приходиться использовать его. Хотя если понадобится, то откажемся. Вот пример того что достигнуто:http://www.voy.com/41165/3950.html I use such a configuration (2 x Xeon 3.2GHz 1 GB of RAM) and I have over a 1200 users connected with a troughput of approx. 500Mbps up and 500Mbps down. The system load (measured with /proc/loadavg) is in peak about 2.1). The system performs htb traffic shaping (metropolitan and Internet traffic goes to different classes) and ingress policing. The linux distribution is Debian running a 2.6.16.28 kernel and the ethernet adapters are Intel PRO/1000 with NAPI. А линукс там это или фри, кому что больше нравится. Спасибо за ссылку. У меня скромнее гораздо, в пиках под сотню мегабит. Но в основном кач юзеров, а не в обе стороны. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
rus-p Опубликовано 10 октября, 2006 · Жалоба Проверьте чтоб SMP было не на бумажке, а реально процессы прыгали по процам, выравнивая загрузку. Если у Вас ядро 2.4, добейтесь чтоб от система пожира тоже оба проца, а не сваливала все на нулевой. Ну и пентиум-д Вам в помощь вместе с шиной PCI-X и NAPI. Если интел будет в дальнейшем выпускать нечто на подобие пентиум-д, только с 4,8 и т.тд. процами, это будет легкий путь увеличения производительности сервера доступа. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Oleg_S Опубликовано 10 октября, 2006 · Жалоба Проверьте чтоб SMP было не на бумажке, а реально процессы прыгали по процам, выравнивая загрузку. Если у Вас ядро 2.4, добейтесь чтоб от система пожира тоже оба проца, а не сваливала все на нулевой. Ну и пентиум-д Вам в помощь вместе с шиной PCI-X и NAPI.Если интел будет в дальнейшем выпускать нечто на подобие пентиум-д, только с 4,8 и т.тд. процами, это будет легкий путь увеличения производительности сервера доступа. Ядро 2.6 Процессы-то "прыгают", дело не в этом. Не скажу со 100% уверенностью, но скорее всего ядро (именно подсистема шейперов) не параллелится на два процессора, и все упирается в производительность одного процессора в моем случае. И пока ядро не научится раскидывать обработку шейперов на разные камни, два процессора (или один двухядерный) должно за глаза хватать на подобных задачах, на мой взгляд. $ mpstat -P ALL 1 Linux 2.6.17-ppp () 10.10.2006 12:25:15 CPU %user %nice %sys %iowait %irq %soft %idle intr/s 12:25:16 all 7,04 0,00 6,53 0,50 0,50 14,07 71,36 6615,00 12:25:16 0 8,00 0,00 7,00 0,00 1,00 13,00 71,00 3202,00 12:25:16 1 7,00 0,00 5,00 1,00 0,00 16,00 72,00 3413,00 12:25:16 CPU %user %nice %sys %iowait %irq %soft %idle intr/s 12:25:17 all 12,00 0,00 9,50 0,00 0,50 11,00 67,00 6624,75 12:25:17 0 12,87 0,00 9,90 0,99 0,00 13,86 62,38 2811,88 12:25:17 1 10,89 0,00 9,90 0,00 0,99 6,93 70,30 3812,87 12:25:17 CPU %user %nice %sys %iowait %irq %soft %idle intr/s 12:25:18 all 2,00 0,00 3,50 0,00 0,00 9,50 85,00 6492,00 12:25:18 0 2,00 0,00 4,00 0,00 1,00 13,00 80,00 2697,00 12:25:18 1 2,00 0,00 2,00 0,00 0,00 6,00 90,00 3796,00 12:25:18 CPU %user %nice %sys %iowait %irq %soft %idle intr/s 12:25:19 all 2,00 0,00 3,00 0,00 0,00 9,50 85,50 6371,00 12:25:19 0 2,00 0,00 4,00 0,00 0,00 13,00 81,00 2652,00 12:25:19 1 1,00 0,00 3,00 0,00 0,00 7,00 90,00 3719,00 12:25:19 CPU %user %nice %sys %iowait %irq %soft %idle intr/s 12:25:20 all 10,45 0,00 17,41 0,50 0,50 11,44 59,70 6395,00 12:25:20 0 11,00 0,00 14,00 0,00 0,00 15,00 60,00 2663,00 12:25:20 1 10,00 0,00 20,00 0,00 1,00 8,00 60,00 3731,00 Вобщем-то направление работы понятно: pptp -> pppoe, cbq -> htb. Основная проблема, как выяснилось, именно в cbq. И совсем отказаться от терминирования тунелей пока тоже не получится, dot1x авторизация еще в разработке, и велика еще инсталлированная база неуправляемых свичей. Спасибо за помощь. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...