Перейти к содержимому
Калькуляторы

smart85

Активный участник
  • Публикации

    359
  • Зарегистрирован

  • Посещение

Все публикации пользователя smart85


  1. а что, если взять простенький 2950-12, свести линки от ПК к 2950, и разрулить вланами? 1 порт входной от ПК-1, на нем транк с нативом, где управление, и тэгом, где адаптер, где менять настройки надо, порт 2 на 2950 - т.н. выходной порт, имитирующий прямое подключение ПК-1 уже к оборудованию стенда. Вот можно ли только на ХР на сетевухе виртуальные создать с dot1q прошу извинить, если покажется потоком сознания.
  2. а если патч заменить? такая вот мысль пришла
  3. так вообще не видит или видит, но битый? sh int с киски на интерфейсе, как настроили зеркалирование? и что за сорм, какое соединение?
  4. юзали такие карты, было 4 ифа, точно второй нет такой? это уже на новом софте или на старом?
  5. Камрад ответил ссылкой https://yadi.sk/d/AeDbioY5pmR1zA
  6. вот кто-то интересовался подобным вопросом https://forum.huawei.com/enterprise/en/could-i-buy-s6330-switch-without-s63h-m-lic/thread/615622-861
  7. Я завтра реквистирую в топ камрада, что остался работать с хувиками, на сколько помню, он наладил процесс и софт есть. Какой, он ответит.
  8. Коллеги, спасибо, добавили aut-num в список передачи того же трансфер агримента, в котором передаем и inetnum
  9. Коллеги, приветствую! Предстоит процедура передачи блока адресов от одного участника к другому. Как я понимаю, передаем мы inetnum, а как быть с исходной AS? Ее тоже нужно передавать? Буду очень рад, если кто скинет ссылок почитать на эту тему или поделиться своим опытом. Передаем из-за смены ЮЛ.
  10. Спасибо за ответ, прилагаю вывод: [root@server]# ethtool -i eth1 driver: hv_netvsc version: firmware-version: N/A expansion-rom-version: bus-info: supports-statistics: yes supports-test: no supports-eeprom-access: no supports-register-dump: no supports-priv-flags: no [root@server]# ethtool -S eth1 NIC statistics: tx_scattered: 0 tx_no_memory: 0 tx_no_space: 0 tx_too_big: 0 tx_busy: 0 tx_send_full: 833486 rx_comp_busy: 0 vf_rx_packets: 0 vf_rx_bytes: 0 vf_tx_packets: 0 vf_tx_bytes: 0 vf_tx_dropped: 0 tx_queue_0_packets: 847432528 tx_queue_0_bytes: 63615032969 rx_queue_0_packets: 146582294 rx_queue_0_bytes: 10673185493 tx_queue_1_packets: 54877 tx_queue_1_bytes: 2971546 rx_queue_1_packets: 145900459 rx_queue_1_bytes: 10624779364 tx_queue_2_packets: 54124 tx_queue_2_bytes: 2930744 rx_queue_2_packets: 146876720 rx_queue_2_bytes: 10689833245 tx_queue_3_packets: 54213 tx_queue_3_bytes: 2935294 rx_queue_3_packets: 147424054 rx_queue_3_bytes: 10729487463 tx_queue_4_packets: 54154 tx_queue_4_bytes: 2932088 rx_queue_4_packets: 145956549 rx_queue_4_bytes: 10628702084 tx_queue_5_packets: 54540 tx_queue_5_bytes: 2953556 rx_queue_5_packets: 147178163 rx_queue_5_bytes: 10711538079 tx_queue_6_packets: 54150 tx_queue_6_bytes: 2931740 rx_queue_6_packets: 147107767 rx_queue_6_bytes: 10710524561 tx_queue_7_packets: 55113 tx_queue_7_bytes: 2984210 rx_queue_7_packets: 146007648 rx_queue_7_bytes: 10630071639
  11. Коллеги, немного понекрофилю и апну темку. Есть ВМ на гипер-в, линукс, центос: CentOS Linux release 7.5.1804 (Core) Linux server.domain.local 3.10.0-862.14.4.el7.x86_64 #1 SMP Wed Sep 26 15:12:11 UTC 2018 x86_64 x86_64 x86_64 GNU/Linux крутится там nginx и проксирует коннекты, за последнее время, второй раз ловим глюк - отваливается eth1 (eth0 с реальником работает нормально), отваливается серая сеть, собственно, куда и проксируются коннекты. в логе Apr 9 15:33:43 server kernel: TCP: too many orphaned sockets на коммутаторе в арпе пропадает запись, пока не ребутну ВМ-ку. куда копать? на графиках не вижу аномальщины и всплесков коннектов, отвал при штатной работе. по коннектам обычно так: netstat -nap | grep 172.29 | grep EST | wc -l 46748 спасибо за внимание.
  12. и не забыть отменить, если пошло все так)
  13. Коллеги, на скорую руку провел тесты, без плюшек если выполняю: root@sr0> request chassis routing-engine master switch no-confirm то траф не молотит порядка 2 минут. Но если добавить в конфиг: set system commit synchronize set chassis redundancy graceful-switchover set routing-options nonstop-routing тогда переключение проходит без перерывов в сервисе. Тестил на: [12.3R9.4] мне так надо Специально для GrandPr1de: все штатно отработало, как по документации :)
  14. В общем, я железки в офис привез, по мере возможности делаю стенд, по результатам отпишусь. На стенде будет LACP, OSPF. Два 4200 в стеке (м и б), лакпом к еще одному EX4200, заверну туда какойнить траф и погоняю. С плюшками и без.
  15. А ведь дяденька даже не знает, какие фичи у меня там крутятся и бегают. Что это за стек и что он обслуживает. Муль ти кас т. Запомните, коммутаторы провайдингом не ограничены.
  16. У вас какой-то странный совет, но спасибо.
  17. Похоже, нужно мне копать в сторону GRES и NSR
  18. Коллеги, приветствую! Есть стек из ЕХ4200, планирую работы по расширению и разносу стека на две стойки. Мне придется выполнить request chassis routing-engine master switch из док-ии понимаю, что будет перерыв в пропуске трафика: warning: Traffic will be interrupted while the PFE is re-initialized Кто-либо на практике делал этот маневр? Сколько проходит re-init PFE? На какое время закладывать даунтайм? Спасибо!
  19. вот вроде, можно настроить в конфиге порта https://www.juniper.net/documentation/en_US/junos/topics/reference/configuration-statement/wavelength-edit-interfaces.html Description For 10-Gigabit or 100-Gigabit Ethernet DWDM interfaces only, configure full C-band ITU-Grid tunable optics.
  20. Коллеги, приветствую! Есть пара серверов под FreeBSD 11.3-RELEASE-p5, камень CPU: Intel(R) Xeon(R) CPU E5607 @ 2.27GHz (2266.79-MHz K8-class CPU) В каждом установлен двухголовый сетевой адаптер: ix0: <Intel(R) PRO/10GbE PCI-Express Network Driver, Version - 3.2.12-k> port 0xec00-0xec1f mem 0xfbd80000-0xfbdfffff,0xfbcfc000-0xfbcfffff irq 32 at device 0.0 numa-domain 0 on pci5 ix1: <Intel(R) PRO/10GbE PCI-Express Network Driver, Version - 3.2.12-k> port 0xe880-0xe89f mem 0xfbc00000-0xfbc7ffff,0xfbb7c000-0xfbb7ffff irq 42 at device 0.1 numa-domain 0 on pci5 Сейчас iperf выше 10-12G между серверами не показывает, при этом interrupt 20-30% Пожалуйста, подскажите, куда копать в плане тюнинга сетевого стека для бОльшей производительности?
  21. Коллеги, в итоге подключили два сервера с FreeBSD 11.3-RELEASE-p5 #0: Tue Nov 12 08:59:04 UTC 2019 и такими сетевухами: ix0: <Intel(R) PRO/10GbE PCI-Express Network Driver, Version - 3.2.12-k> port 0xec00-0xec1f mem 0xfbd80000-0xfbdfffff,0xfbcfc000-0xfbcfffff irq 32 at device 0.0 numa-domain 0 on pci5 ix1: <Intel(R) PRO/10GbE PCI-Express Network Driver, Version - 3.2.12-k> port 0xe880-0xe89f mem 0xfbc00000-0xfbc7ffff,0xfbb7c000-0xfbb7ffff irq 42 at device 0.1 numa-domain 0 on pci5 собрали все это дело в LACP на MX-104 server#1<---2x10G--->MX-104<---2x10G--->server#2 попробовал iperf в 8 потоков между server#1 и server#2 и получил такое: [SUM] 0.00-10.00 sec 14.3 GBytes 12.2 Gbits/sec 0 sender [SUM] 0.00-10.00 sec 14.3 GBytes 12.2 Gbits/sec receiver Реально ли выжать больше?
  22. Коллеги, приветствую! Есть Juniper MX104 с тремя модулями 3D 2x 10GE XFP и одним 3D 20x 1GE(LAN) SFP. Как при этом будут работать набортные порты 4x 10GE(LAN) SFP+ ? Понимаю, что будет переподписка, но по какой формуле? спасибо!
  23. По форуму поищите, был отличный пример