Jump to content
Калькуляторы

mse.rus77

Активный участник
  • Content Count

    286
  • Joined

  • Last visited

1 Follower

About mse.rus77

  • Rank
    Студент

Recent Profile Visitors

1874 profile views
  1. Коллеги, приветствую! Есть пара серверов под FreeBSD 11.3-RELEASE-p5, камень CPU: Intel(R) Xeon(R) CPU E5607 @ 2.27GHz (2266.79-MHz K8-class CPU) В каждом установлен двухголовый сетевой адаптер: ix0: <Intel(R) PRO/10GbE PCI-Express Network Driver, Version - 3.2.12-k> port 0xec00-0xec1f mem 0xfbd80000-0xfbdfffff,0xfbcfc000-0xfbcfffff irq 32 at device 0.0 numa-domain 0 on pci5 ix1: <Intel(R) PRO/10GbE PCI-Express Network Driver, Version - 3.2.12-k> port 0xe880-0xe89f mem 0xfbc00000-0xfbc7ffff,0xfbb7c000-0xfbb7ffff irq 42 at device 0.1 numa-domain 0 on pci5 Сейчас iperf выше 10-12G между серверами не показывает, при этом interrupt 20-30% Пожалуйста, подскажите, куда копать в плане тюнинга сетевого стека для бОльшей производительности?
  2. Коллеги, в итоге подключили два сервера с FreeBSD 11.3-RELEASE-p5 #0: Tue Nov 12 08:59:04 UTC 2019 и такими сетевухами: ix0: <Intel(R) PRO/10GbE PCI-Express Network Driver, Version - 3.2.12-k> port 0xec00-0xec1f mem 0xfbd80000-0xfbdfffff,0xfbcfc000-0xfbcfffff irq 32 at device 0.0 numa-domain 0 on pci5 ix1: <Intel(R) PRO/10GbE PCI-Express Network Driver, Version - 3.2.12-k> port 0xe880-0xe89f mem 0xfbc00000-0xfbc7ffff,0xfbb7c000-0xfbb7ffff irq 42 at device 0.1 numa-domain 0 on pci5 собрали все это дело в LACP на MX-104 server#1<---2x10G--->MX-104<---2x10G--->server#2 попробовал iperf в 8 потоков между server#1 и server#2 и получил такое: [SUM] 0.00-10.00 sec 14.3 GBytes 12.2 Gbits/sec 0 sender [SUM] 0.00-10.00 sec 14.3 GBytes 12.2 Gbits/sec receiver Реально ли выжать больше?
  3. Коллеги, приветствую! Есть Juniper MX104 с тремя модулями 3D 2x 10GE XFP и одним 3D 20x 1GE(LAN) SFP. Как при этом будут работать набортные порты 4x 10GE(LAN) SFP+ ? Понимаю, что будет переподписка, но по какой формуле? спасибо!
  4. По форуму поищите, был отличный пример
  5. стоит какая-то сборка, старая, нужный нам функционал работает, мы и не трогаем.
  6. И вообще, судя по тому, что имеет место быть такое на SSH, следует посмотреть, а если CoPP вообще на железке.
  7. Я на рутрекере и иже с ним встречал огромнейшие сборники ИОСов, может там вы найдете то, что нужно?
  8. Коллеги, приветствую! А сколько нынче максимум мощности отдают в ДЦ на стойку? Вижу пределы 5-7 кВт на стойку, но это мало. Где-то можно арендовать стойку для размещения мощного и горячего железа? (14-21 и выше кВт/стойка) Где, например, можно разместить такое, штуки 3-4 в раке: Form Factor 8U Weight 300 lbs Max System Power 10KW Average Power 7 KW Не знаю, в какой раздел писать, если что, перенесите. Спасибо!
  9. Он видимо про такие Cisco GLC-LH-SMD 1000BASE-LX/LH. SFP is the special type of transceiver that can both support single-mode and multimode fibers.
  10. Последнее сообщение в этой теме: PuZaN Из опыта В прошлую пятницу (13 марта) столкнулись с тем что сгорел многомодовый конвертер, естественно запасных нету(( Линк старый, длина 120-130метров. Поставили конвертора под sfp-модуль. Туда воткнули гигабитные WDM Opticin-ы на 3км. У клиента поставили гигабитную Длинковскую "мыльницу". Патчкорды использовали старые многомодовые. Всё заработало. Пардон, запутался, там тоже про СМ на ММ кабеле.
  11. А есть ссыль, пожалуйста? хотелось бы больше об этом узнать.
  12. Я юзал на лабораторном стенде SM трансы на ММ патчах, проблем не было, кроме моральных страданий.   Да я бы подключил и проверил. Только трафик надо дать, бывает если и есть ЦРЦ, то начинает после определенного порога щелкать.
  13. Сейчас разобрали LACP, оставили по обычному 1Gbps линку на каждый сервер, будем смотреть.