Перейти к содержимому
Калькуляторы

Микротик производительность SMP

Есть сервер на Микротике 3.30. Intel v5000 + Xeon (4 ядра)

 

При загрузке:

500 pptp, ether1 rx/tx - 200Mbps/200Mbps cpu load 25-27% больше не видел (хотя генерировал ночью, когда pptp клиентов не было трафик под 400 мбит)

Теперь загрузка немного увеличилась начались потери пакетов.

 

Был под рукой еще один процессор, поставил на плату. Теперь пишет cpu count:8, cpu load 12-14%. При загрузе в 12% потери есть, если загрузка менше 10 - нет. Такое ощущение, что грузится только один процессор из 8, когда его загрузка доходит до 100% (100/8 процессоров =12,5%) начинаются потери.

 

Есстественно multi cpu =yes.

 

Может кто-то основываясь на своем опыте подтвердить или опровергнуть описанное поведение?

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Так и есть.

На сколько я понял, это "фишка" линукса вообще и RouterOS, в частности.

Да и судя по сообщениям в других темах, эта беда и xBSD систем.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

поставьте linux и accel-pptpd - затраты на тунелирование резко упадут, поэтому ядра будут грузиться более равномерно (ppp-процессы при большом количестве успешно параллелятся на все ядра сразу)

 

у меня - так.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

поставьте linux и accel-pptpd - затраты на тунелирование резко упадут, поэтому ядра будут грузиться более равномерно (ppp-процессы при большом количестве успешно параллелятся на все ядра сразу)

 

у меня - так.

Расскажите подробнее о своих успехах: кол-во тунелей, трафика и пакетов. И какая при этом загрузка?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Cpu0 : 4.3% user, 9.2% system, 0.0% nice, 86.6% idle

Cpu1 : 2.3% user, 6.9% system, 0.0% nice, 90.8% idle

Cpu2 : 2.0% user, 4.9% system, 0.0% nice, 93.1% idle

Cpu3 : 7.5% user, 8.2% system, 0.0% nice, 84.3% idle

это на core2 quad Q6600, 2xe1000e, 400pptp, 50мбит трафика, порядка 70-90kpps + squid в прозрачном режиме на борту (по PS squid жрет 20% cpu) + шейперы, файрволл, итд

 

core2duo E8400, intel 1000/PT двухпортовка, порядка 900pptp, 100-150 мегабит, чисто теминация - загрузка порядка 20-30% по каждому ядру

 

насчет 400мбит - не знаю, у нас такие каналы сильно дороги, не москва ведь :)

 

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

core2duo E8400, intel 1000/PT двухпортовка, порядка 900pptp, 100-150 мегабит, чисто теминация - загрузка порядка 20-30% по каждому ядру

Смею предположить, что это близкая к предельной нагрузка на данный процессор.

И эти показатели достигнуты не за счет количества ядер, а только за счет ГГц.

 

Даже двукратного увеличения на этой системе уже не достигнуть, хотя запас по цпу (теоретически) еще большой.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

karyonandrew

Забудьте про SMP на микротике. Цитирую переписку с их службой поддержки:

 

Hello Alexander,

 

> Time ticks and we need to run our business now (v5.x or v6.x seems to

> be in so distant future), so question comes - which hardware would you

> recommend to run RouterOS and max it out for purposes of terminating

> PPTP tunnels and shaping them?

 

Currently we suggest RB1000 or powerful x86 for the PPP server, and when user number is more than 150, RADIUS server is recommended.

 

In case you have more than 1000 users, it is not too recommended to use separate simple queue per each user, much better to use PCQ algorithm.

 

> Second question is: does RouterOS utilize all CPUs available when

> doing tasks of simple routing, bandwidth shaping (PCQ or Simple

> Queues) and manipulating traffic in firewall filter table?

>

 

As you see from your CPU load currently not, but it utilizes CPU between different RouterOS processes.

 

 

> Third question is: is there response available to ticket #2009082166000146 ?

> We could drop PPTP tunnels and use plain routing and bandwidth

> shaping, if MT-Address-List was supported in Access-Accept packets sent to DHCP service.

 

 

These feature is on our todo list. We will add it in the future.

 

Regards,

Sergejs

 

Come to MUM USA,

Dallas/Fort Worth, TX, September 3-4

http://mum.mikrotik.com/

 

"Alexander Trunoff" <jnc@real.astrakhan.ru> wrote:

 

> Dear Sergejs,

>

> Time ticks and we need to run our business now (v5.x or v6.x seems to

> be in so distant future), so question comes - which hardware would you

> recommend to run RouterOS and max it out for purposes of terminating

> PPTP tunnels and shaping them?

>

> Second question is: does RouterOS utilize all CPUs available when

> doing tasks of simple routing, bandwidth shaping (PCQ or Simple

> Queues) and manipulating traffic in firewall filter table?

>

> Third question is: is there response available to ticket #2009082166000146 ?

> We could drop PPTP tunnels and use plain routing and bandwidth

> shaping, if MT-Address-List was supported in Access-Accept packets sent to DHCP service.

>

> Thank you for your coming reply.

>

> --

> Трунов А. Е.

> Директор по инновациям ООО НТС "Реал"

> тел. +7 8512 480027, моб. +7 902 119 9999

>

>

> -----Original Message-----

> From: MikroTik Support [sergejs] [mailto:support@mikrotik.com]

> Sent: Tuesday, August 25, 2009 11:24 AM

> To: Alexander Trunoff

> Subject: Re: [Ticket#2009082566000041] only one core used in 4-core

> system

>

> Hello Alexander,

>

> At this point RouterOS have a lot of space to improve on multi-CPU

> performance

> - we

> are aware of that issue, we have plan to make the improvement in v5.x

> or v6.x

>

> Regards,

> Sergejs

>

> Come to MUM USA,

> Dallas/Fort Worth, TX, September 3-4

> http://mum.mikrotik.com/

>

> "Alexander Trunoff" <jnc@real.astrakhan.ru> wrote:

>

> > Hi!

> >

> >

> >

> > We have a system with two Dual-Core Xeon 3.0 GHz processors, with

> > Hyper-Threading disabled (otherwise it would use just 12.5% of

> > server's power).

> >

> >

> >

> > It looks like only 1 CPU is used by MikroTik. Please see the

> > attached screenshot, it's clearly seen that CPU load isn't matching

> > PPTP connections count at the peak time:

> >

> >

> >

> >

> >

> >

> >

> > The CPU load is stuck at 25% and we observe packet loss through this

> > router at the peak time:

> >

> >

> >

> > 1 1 ms 1 ms 1 ms 1.1.1.1

> >

> > 2 * * 2 ms 10.10.3.2

> >

> > 3 2 ms 2 ms 2 ms 213.80.182.61

> >

> > 4 * * * Превышен интервал ожидания для запроса.

> >

> > 5 * 37 ms 39 ms demos-gw.transtelecom.net [217.150.57.89]

> >

> > 6 59 ms 48 ms 51 ms iki-c1-vl10.demos.net [194.87.0.111]

> >

> > 7 * 38 ms 38 ms www.ru [194.87.0.50]

> >

> >

> >

> > Supout.rif is attached. Please advise how we can configure the

> > server to use all 4 CPU's instead of just one.

> >

> >

> >

> > --

> >

> > Трунов А. Е.

> >

> > Директор по инновациям ООО НТС "Реал"

> >

> > тел. +7 8512 480027, моб. +7 902 119 9999

> >

> >

> >

> >

>

>

>

Изменено пользователем shoorickello

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

karyonandrew

Забудьте про SMP на микротике. Цитирую переписку с их службой поддержки:

Похожие проблемы не только у MT...

 

Will multiple processors help?

PF will only use one processor, so multiple processors (or multiple cores) WILL NOT improve PF performance.

Источник

 

Вопрос для знатоков: Это просчет или сговор? ;)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

это же сколько правил (и каких?) надо иметь, чтобы pf/ipfw/iptables вообще как-то влиял на загрузку проца? (я не говорю конечно о L7, но все остальное успешно работает).

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

это же сколько правил (и каких?) надо иметь, чтобы pf/ipfw/iptables вообще как-то влиял на загрузку проца? (я не говорю конечно о L7, но все остальное успешно работает).

Достаточно иметь одно правило nat в pf.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

меня реально это смущает.

есть ли какие-нибудь данные на этот счет? типа чтобы отнатить 100kpps при 10000 conntrack states (или что там в pf?) надо, например 1G ram и 500мгц cpu.

интересно посмотреть статистику, т.к. оверхед на нат у меня никогда не считался значимым в расчете производительности серверов. и вообще я его походу не замечаю.

правда, у меня iptables, да :)

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

 

Так вы и реальных нагрузок не видели никогда.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

ну 150 мегабит это реальная, или как? на ней расходы на NAT (относительно того же pptp например, или squid) уже колеблются в пределах статистической погрешности.

ну приведите данные измерений, какие есть, не бойтесь :))

 

просто у вас там в москве могут быть немного другие нагрузки, но наверное и цены немного другие :)

ну а гигабит, на одной машинке думаю натить будет сложновато...

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

150 мегабит - это только для линузятников нагрузка

 

 

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

а вы, значит вантузятник, получается?

или, может, бздун?

 

может быть огласите ВАШЕ понятие нагрузки?

 

я, конечно, понимаю, что на синтекике могу легко отнатить и гигабит, но т.к. пока такой нагрузки нет - не берусь утверждать, что смогу сделать тоже самое на реальном трафике.

 

ну и конечно, отвечайте по существу вопросов, без холиваров :)

я же, со своей стороны обязуюсь отвечать аналогично вам :)

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Спасибо за ответы.

Чем посоветуете заменить систему??

Ставить 7206 NPE-G1?

Бюджет очень ограниченый.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Чем посоветуете заменить систему??

Бюджет очень ограниченый.

Второй ПК с RouterOS.

 

Ставить 7206 NPE-G1?

А оно может намного больше чем?

500 pptp, ether1 rx/tx - 200Mbps/200Mbps

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А оно может намного больше чем?
500 pptp, ether1 rx/tx - 200Mbps/200Mbps

На Xeon'е-то ? Должно быть раза в четыре больше.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А оно может намного больше чем?
500 pptp, ether1 rx/tx - 200Mbps/200Mbps

На Xeon'е-то ? Должно быть раза в четыре больше.

7206 NPE-G1?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

7206 NPE-G1?

Это вообще-то роутер а не BRAS. Чего от него хотеть ?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

7206 NPE-G1?

Это вообще-то роутер а не BRAS. Чего от него хотеть ?

Дык вопрос то не ко мне ;)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Чем посоветуете заменить систему??

Ставить 7206 NPE-G1?

Бюджет очень ограниченый.

Выкинуть микротик нафиг и поставить таки что-то рабочее (Linux/freeBSD).

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

 

Зная линузятников не удивлюсь если в Xeon'е сетевуха pci32 или вообще 82566DM какая...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Чем посоветуете заменить систему??

Ставить 7206 NPE-G1?

Бюджет очень ограниченый.

Выкинуть микротик нафиг и поставить таки что-то рабочее (Linux/freeBSD).

ё, камон! А MikroTik RouterOS - это не Linux?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

 

Линух это вообще ядро. :-)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.