Перейти к содержимому
Калькуляторы

chocholl

Активный участник
  • Публикации

    120
  • Зарегистрирован

  • Посещение

Все публикации пользователя chocholl


  1. спасибо. т.е. правильно ли я понимаю что через железку может проходить чуть менее чем 4k LDP/RSVP fec-ов?
  2. покажите пожалуйста debug mpls show label usage debug mpls show mpls-capabilities с X670 и по возможности с X670v не смог найти информации по лимитам в открытом доступе. спасибо.
  3. пойдет по фабрике. "канал" на картинке скорей всего представляет собой Dbus/Rbus для того чтобы DFC лукап делал. асики форвардят трафик друг другу через fabric Продолжу тему про WS-X6708-10GE + DFC3CXL. Это что получается если порты 1,4,5,7 - 0-я шина (20G), 2,3,6,8 - 1-я шина (20G), пусть пакет идет с 1-го порта на 2-й, то он будет утилизировать Fabric channel 20G как 0-й шины так и 1-й шины? Зачем тогда канал между Fabric ASIC-ами (с DFC между ними)? Кто-нибудь опровергните это или действительно так работает? ps. мысль покупки платы WS-X6716-10G и проливание трафика внутри платы тогда отпадает
  4. честно скажу конфиги сильно не сморел, гнс нету. возможно еще происходит следующее.. после того как случается обрыв, активируется FRR с этим все ОК как вы пишете. потом PLR посылает сообщение что тунель локально зареперин. R1 (или кто-там является головой у вас) видит сообщение и пытается перестроить зарепереный тунель по другому пути (реоптимизация помойму это ховется). но сделать этого не может потому-что на обходном интерфейсе не хватает бандвиза для двух тунелей. попробуйте статически задать все и везде. и да.. "Point of Local Repair (PLR) т.е. R2 должен сказать R1 новую метку, которую он должен использовать чтобы достич R6." это не совсем так, FRR тем и хорош что никакие новые метки не передаются в сторону головы, они локальны и о них знают только роутеры которые держат backup path. хотя по идее должны включатся shared резервация в случае когда backup и reoptimisation tunnel проходят по одному линку, но лучше проверить. и приоритеты посмотрите внимательно на setup и hold.
  5. попробуйте везде убрать mpls ldp explicit-null пропишите явно желаемый бандвиз на примари тунеле и больший по значению на бекап. уберите упоминания автобандвиза и интерареия штуки тоже уберите tunnel mpls traffic-eng autoroute destination
  6. статистики прошедших эта платформа не показывает. только конфигу посмотреть вот так show mls qos maps с платами es дел не имел, возможно там недостаточно просто трастить. на аплинке прописан mls qos trust dscp. исходя из различных документаций, эта фича копирует dscp в internal dscp для IP пакетов и мутирует 8021p в dscp для non-IP фреймов. однако проблема в том, что internal dscp потом должен превратиться в cos(8021p) и на его основе должны выстроиться очереди на даунлинке(об этом говорит #sh queueing interface DownlinkXXX | i Queueing Mode In Tx direction: Queueing Mode In Tx direction: mode-cos), но этого (как я думаю) не происходит, т.к на выходе из даунлинка все dot1q-фреймы с 8021p=0, поэтому я думаю, что очереди не выстраиваются и спрашиваю как посмотреть статистику ПРОШЕДШИХ(а не дропнутых) пакетов по очередям У huawei на NE-платформе эта команда выглядет так display port-queue statistics interface XXX outbound (показывает сколько пакетов вышло и дропнулось в каждой очереди)
  7. если трафик не будет лезть в CPU то отроутит горахдо больше.
  8. http://tools.cisco.com/Support/SNMP/do/BrowseMIB.do?local=en&step=2&mibName=CISCO-SWITCH-HARDWARE-CAPACITY-MIB только софт нужен поддерживающий эту крастоту
  9. по хорошему вам сюда http://www.endace.com/endace-high-speed-packet-capture-probes.html
  10. попробуйте на 15-й обновится. с 12-го на этой линейки меня вытошнило в свое время.
  11. Google Global Cache

    у нас ушло порядка двух месяцев включая пересылку серверов и настройку.
  12. ЦОД в Турции

    с этими небожителями общаться еще сложнее чем с турктелекомом. видимо, придется наведаться к ним лично. в Стамбуле нашел несколько ЦОДов. теперь интересует "ближнее зарубежье" понимаю что тема шибко специфичная, поэтому рад даже тематическому флуду )
  13. ЦОД в Турции

    крайне кропотливое занятие. и тяжеловато понять кто, где и как включен в as9121 к тому-же по турецки все, хочется хотя бы на этапе исследования общаться на русском языке. ну и отзывы послушать если таковые будут.
  14. ЦОД в Турции

    кто знаком с рынком услуг подскажите - пару-тройку стоек поставить и включится интернетом там. Соседние страны в диапазоне 10-15ms рассматриваются тоже, но обязательно с прямым подключением в ТуркТелеком - AS9121. Вот такая задачка )) Благодарен за любые советы и контакты.
  15. фичур менеджер работает у вас. если не хотите знать все тонкости ордер-депендент и ордер-интепендед программирования tcam то попробуйте вместо acl посылать плохих парней в null, это горахдо проще и легче масштабируется. Сначала нагрузка упала, потом опять поднялась. Вот так: CPU utilization for five seconds: 99%/5%; one minute: 99%; five minutes: 99% PID Runtime(ms) Invoked uSecs 5Sec 1Min 5Min TTY Process 202 535031420 35126860 15231 78.97% 83.80% 83.74% 0 FM core
  16. Дублирование дата-центров

    есть опыт постройки таковых. огласите бюджет проекта тогда станут понятны подходящие методы.
  17. именно так делаю ремарк на интерфейсах ipv4 клиентов. с этим проблем нет. проблема появляется, например, на интерфейсах публичных ix, где писать полисер нет нужды. с фейковым полисером сделать не получилось, так как pfc не умеет делать exceed-action set-dscp-transmit. set-dscp-transmit policy-map 2G_IN class class-default police cir 2000000000 bc 62500000 be 62500000 conform-action set-dscp-transmit default exceed-action drop violate-action drop
  18. нашел упоминание что Uniform Mode необходимо включать дополнительно командой mls mpls qos input uniform-mode упоминай в документации и на тематических форумах весьма мало, к сожалению лабу собрать не могу. подскажите кто уже прошел этот этап плз.
  19. 80 взялось с учетом локальной коммутации. трафик между 1 и 2, 3 и 4 портами ходит минуя фабрику. если в пиках (кратковременно - не больше 10ms из за малых буферов) суммарно трафик с фабрики и портов 3,4 в направлении 1 или 2 превышает 10-ку, само собой будут дропы, ну и любые другие варианты по хорошему нужно сильно учитывать именно направленность трафика, так как карта честная только при нагрузочном тестировании, где потоки трафика построены таким образом чтобы получить именно эту красивую цифру 80г. в реальной сети трафик редко направлен таким образом чтобы получить от карты максимум. Сейчас загрузка интерфейсов: int = out/in 3/1 = 3/2 3/2 = 4/2 3/3 = 4/8 3/4 = 8/4 --------- sum = 19/16 Итого: Трафик в дуплексе 35 Гбит - потерь нет, 40 Гбит - потери есть. Так что по факту карточка 6704 пропускает не 80 Гбит (40/40), а 40 Гбит (~20/20).
  20. из не очень стандартного только отключение механизма mpls ttl propagation, но я не знаю прямой связи между ним и механизмами QOS и не нашел упоминаний о существовании косвенной или скрытой.
  21. рециркуляция отсутствует так как на сети работает PHP в виде Implicit Null. MPLS VPN нет, только чистый IPoMPLS. схема маршрутизации стандартна, BGP для клинских, партнерский и других сетей, core links и лупбеки в OSPF. mpls propagate-cos прописан только на core интерфейсах с MPLS, так как в любом случае перед PE за которым находится ip dst случится PHP для метки лупбека этого PE и появится ip пакет.
  22. спасибо, косвенно я пришел к тому-же выводу, на входе при mpls импозитиош dscp остается неизменный. однако надежда была на следующий алгоритм, который я воссоздал из конфиг-гида: internal dscp определяет mpls exp (dscp при этом остается тем с которым пакет прилетел на PE) mpls летит по сети, делается свопы меток с копированием первоначального значения EXP на PHP роутере при активированном Uniform режиме распространения (mpls propagate-cos в сторону движения пакета) происходит синхронизация между EXP и dscp пакета при POP операции.
  23. входящие очереди работают только если пишите trust cos на интерфейсе, а для этого порт должен быть в режиме switchport есть два режима репликации мультикаста, ингрес и егрес. егрес режим несовместим с активированным qos (mls qos когда включен). выполните mls ip multicast replication-mode ingress на коробке в период наименьшего трафика.
  24. внимательно ознакомился со вторым постом )) в курсе, наверное, что egres мультикаст репликация не работает совместно с активированным qos? сколько там мультикаста бегает? попробуйте включить Ingress режим. (поломает все потоки при включении)
  25. ребята, вопрос на самом деле не праздный ))) отпишите пожалуйста у кого работает.