Jump to content
Калькуляторы

Juniper MX104 - как устроена переподписка набортных xe-?

Коллеги, приветствую!

Есть Juniper MX104 с тремя модулями 3D 2x 10GE XFP и одним 3D 20x 1GE(LAN) SFP. Как при этом будут работать набортные порты 4x 10GE(LAN) SFP+ ? Понимаю, что будет переподписка, но по какой формуле?

 

спасибо!

 

Share this post


Link to post
Share on other sites

80 гбит производительность PFE.

пока у тебя суммарно меньше ходит, никакой переподписки не будет

а как только она начнет то дальше будет тупой best effort

что влезло то и влезло

https://www.juniper.net/documentation/en_US/junos/topics/concept/trio-mpc-mic-intelligent-oversub-overview-cos-config-guide.html

Share this post


Link to post
Share on other sites

Как я понимаю по сути mx104 это одна mpc первого поколения. 4 набортных 10ge - это интерфейсы, которые должны смотреть в сторону фабрики. Отсюда получается хитрая история - мы получим 80 гбит(76 если точнее) при условии того, что 40 вошло снизу(где платы) и вышло сверху(где встроенные). Производительность чисто "внизу" - 20 вошло и 20 вышло. На встроенных - так же.

Могу ошибаться )

Share this post


Link to post
Share on other sites

13 часов назад, smelnik сказал:

Могу ошибаться )

ох и терминология у вас

на мх104 4 слота под расширение. на каждый слот максимальная пропускная это 20 гбит full duplex, встроенные 4 десятки так же честные 40 гбит full duplex

оно всё через PFE ходит и не важно откуда оно зашло и куда оно вышло

ограничение в 80 гбит на коробку - это производительность pfe

Share this post


Link to post
Share on other sites

Коллеги, в итоге подключили два сервера с FreeBSD 11.3-RELEASE-p5 #0: Tue Nov 12 08:59:04 UTC 2019 и такими сетевухами:

ix0: <Intel(R) PRO/10GbE PCI-Express Network Driver, Version - 3.2.12-k> port 0xec00-0xec1f mem 0xfbd80000-0xfbdfffff,0xfbcfc000-0xfbcfffff irq 32 at device 0.0 numa-domain 0 on pci5
ix1: <Intel(R) PRO/10GbE PCI-Express Network Driver, Version - 3.2.12-k> port 0xe880-0xe89f mem 0xfbc00000-0xfbc7ffff,0xfbb7c000-0xfbb7ffff irq 42 at device 0.1 numa-domain 0 on pci5
 

собрали все это дело в LACP на MX-104

 

server#1<---2x10G--->MX-104<---2x10G--->server#2

 

попробовал iperf в 8 потоков между server#1 и server#2 и получил такое:

[SUM]   0.00-10.00  sec  14.3 GBytes  12.2 Gbits/sec    0             sender
[SUM]   0.00-10.00  sec  14.3 GBytes  12.2 Gbits/sec                  receiver
 

 

Реально ли выжать больше?

Share this post


Link to post
Share on other sites

12 минут назад, mse.rus77 сказал:

Коллеги, в итоге подключили два сервера

тюнить сетевой стек серверов, должно быть wire speed 

Share this post


Link to post
Share on other sites

On 11/27/2019 at 5:41 PM, smelnik said:

Я прям очень буду рад если ошибаюсь )

ну тогда радуйтесь. 

 

On 11/27/2019 at 2:47 PM, GrandPr1de said:

на мх104 4 слота под расширение. на каждый слот максимальная пропускная это 20 гбит full duplex, встроенные 4 десятки так же честные 40 гбит full duplex

оно всё через PFE ходит и не важно откуда оно зашло и куда оно вышло

ограничение в 80 гбит на коробку - это производительность pfe

+

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.