Jump to content
Калькуляторы

iValera

Активный участник
  • Content Count

    287
  • Joined

  • Last visited

1 Follower

About iValera

  • Rank
    Студент

Информация

  • Пол
    Мужчина

Recent Profile Visitors

1404 profile views
  1. Подскажите плз при выключенном stp глобально - проходят ли bpdu? Можно ли посмотреть счетчики? В firewall правил нет
  2. если схемы обобщить, то становится понятно что явно есть баги с мультикастом в VC с использованием LAG. Оба топика перекликаются. ps: ограничивать не хочу, но хотелось бы рекомендовать писать по делу, а флудить продолжайте в телеграме :)
  3. Так и будете сидеть - это вы про кого? Тут мои последние 2 сообщения с багами, по первому я отписался по результату, где написал что рекомендация от jtac, по последнему тикет тоже создан и ожидает пока бангалоровцы соизволят вникнуть, обычно на это уходит 2-3 дня. ps: а все из-за банального нежелания писать по делу, неужели вам телеграмма нехватает.
  4. Ох уж этот жунипер... Никто не сталкивался со след кейсом? QFX5110 добавляю в существующий LAG 1 или 2 порта (значение не имеет), порт в лаге виден все ок, трафик бегает, но есть проблема с мультикастом. Дизайн таков, что сначала в этом лаге бегут сырцы в сторону RP, а потом в этом же лаге возвращаются обратно уже по pim в другом влане. Так вот в новых портах лага трафик ходит только в одну сторону, в сторону RP, а по pim уже 0 kpps. В связи с этим наблюдаем потерю части мультикаст групп. Выключаешь эти новые 1 или 2 порта и всё нормализуется. 17.4R1.16
  5. Если кому интересно, требовалось удалить полностью влан, поудалять с интерфейсов и затем создать заново. По рекомендации от jtac. Обычно ожиждаешь подобного на старых длинках, у которых аптайм по 2000 дней, но не на новом джуне..или я чего-то об этом новом для меня вендоре еще не знаю.
  6. Коллеги вопрос. Есть обычный ae1 в транке, между двумя qfx, которые в свою очередь в стеке. прописаны вланы и все работает. Понадобилось пустить эти вланы в другом линке - ae2, собственно что сделано, на стороне А продублировали настройки ae, на стороне Б на ae1 удалили вле вланы, оставив один (заглушка), на ae2 добавили эти вланы. Применили все одним коммитом и все работает, кроме мультикаста от сырцов, который просто идет со стримеров во влане. Пока не вернули этот влан в старый ae1 - мультик не лился. QFX-5110-48s 17.4R1.16 Старый ae1 выключался вообще, сырцы не появилялись show route protocol pim terse было только то, что приходило не со стороны ae1/ae2, был правда одна группа, маршрут до которой пришел уже по L3 и канал работал.
  7. smartedge 1200 это шасси, а софт стоит на всей линейке одинаковый http://rbman.ito.expert/
  8. А кто говорил дерьмовый? Попробуем для начала rb2011iL-IN. Еще раз поясню, этот тик выписывается со склада и на след день на стенде. А искать сервер, неттоп и т.п. занимает куда больше времени с последующей возьней настройки. Клиенту может быть не понятен и iperf, он предложит запустить его у себя на vds хостинге и тютю, далее уже пошла юридичная возня и т.п. Вобщем никто не спорит что железный iperf лучше чем тик, но если тик покажет состоятельность, то практичнее использовать будет его. т.к. не нужны будут поголовные обновления ноутов у ремонтников
  9. Да я понимаю, просто iperf это отдельные требования к серверу, ноуту с интеловой картой и т.п. Вот и думаю что быстрее и менее затратно. Так то стоит железный iperf сервер на сети, хз что за железо, но выдает максимум 500-600мбит/с. Может кто поделится своими ключами запуска сервер/клиент iperf.
  10. А что если в ядре поставить микротик и к клиенту ходить с другим микротиком, и приходить запускать bandwidth test?
  11. Google Global Cache

    Не думаю. Т.к. у всех магистралов есть ggc, зачем тогда провайдеру давать PNI. Я думаю Гугл заинтересован в как можно большем количестве PNI, при условии даже что клиенту доступен GGC. На случай аварий или там или там. Гига может быть мало, т.к. им попросту порой жалко портов, они у них периодически заканчиваются. Если вам прям капец как надо, можете попробовать проявить настойчивость и желание организовать протяжку за свой счет)
  12. Google Global Cache

    Поднял сессии, трафик при падении с прямом стыке начал ходить через IX.