Перейти к содержимому
Калькуляторы

voodoo

Пользователи
  • Публикации

    46
  • Зарегистрирован

  • Посещение

О voodoo

  • Звание
    Абитуриент
    Абитуриент

Контакты

  • ICQ
    Array

Посетители профиля

1717 просмотров профиля
  1. Разобрался. Необходимо в каждый policy-map вставлять class-fcoe и class-default и менять bandwidth.
  2. Есть Cisco Nexus 5010 Необходимо прописать политики QOS, но есть проблема по дефолту он выставил такие настройки sh policy-map system Type network-qos policy-maps =============================== policy-map type network-qos default-nq-policy class type network-qos class-fcoe match qos-group 1 pause no-drop mtu 2158 class type network-qos class-default match qos-group 0 mtu 1500 Service-policy (qos) input: default-in-policy policy statistics status: disabled Class-map (qos): class-fcoe (match-any) Match: cos 3 set qos-group 1 Class-map (qos): class-default (match-any) Match: any set qos-group 0 Service-policy (queuing) input: default-in-policy policy statistics status: disabled Class-map (queuing): class-fcoe (match-any) Match: qos-group 1 bandwidth percent 50 Class-map (queuing): class-default (match-any) Match: qos-group 0 bandwidth percent 50 Service-policy (queuing) output: default-out-policy policy statistics status: disabled Class-map (queuing): class-fcoe (match-any) Match: qos-group 1 bandwidth percent 50 Class-map (queuing): class-default (match-any) Match: qos-group 0 bandwidth percent 50 Как их убрать , здесь выставлены полосы 50 и 50 , они не меняются конфигом выдается ошибка. ERROR: Changes to default policy-map(s) not permitted Этим конфигом он забил все полосу ERROR: Bandwidth percent exceeds 100 как убрать , кто знает ? спс.
  3. Имеется биллинг UTM5 5.3-005 BRAS Cisco ASR 1002-X Пытаюсь поднять подключение PPPOE DualStack с выдачей IPv4 + IPv6 адресов, используя стандартный UTM радиус. В итоге получаю подключение с обоими ипшниками с базы биллинга, но в отчете по сессиям UTM виден только IPv6 адрес, IPv4 как будто не выдался, хотя получаю оба. Если не получаю IPv6 адрес, то IPv4 - виден. После обращения в тех. поддержку Netup , мне сказали что когда RADIUS-сервер выдает 2 IP-адреса (IPv4 и IPv6), BRAS в ответ присылает пакет Accounting-Start только с адресом IPv6. После этого RADIUS-сервер освобождает адрес IPv4. У кого то удалось такое запустить ?
  4. Продам маршрутизатор Cisco ESR10008 В составе Шасси ESR 10008 - 1 шт. Процессор - ESR-PRE3 - 2 шт. Сетевая карта - ESR-HH-1GE - 16 шт. Блок питания -ESR-PWR-DC - 2 шт. + ESR-PWR-AC 1 шт. в подарок Цена - 60 000 руб. г. Пермь Подробности в личку
  5. Настроен мультикаст, все показывает нормально на PC , на прииставках TVIP, проблем нет. А вот на магах с не понятной переодичностью (бывает по разному) перестает идти картинка, изображение встает, пока не переключишь канал. Я так полагаю что пропадает подписка на группу, а вот причину понять не могу, может кто что поможет. Проблема только с магами. Может сталкивался кто с подобной проблемой.
  6. Коллеги, кто то пользуется функцией CGNAT у СКАТ ? Как работает, какие подводные камни , и т.д. ?
  7. Появилась проблема, через некоторое время, несколько часов работы под нагрузкой, kernel заваливает все ядра проца в потолок 100% , в логах ничего , и не понятно почему такое происходит, кто то встречал такое ?
  8. Обратил внимание что сейчас в FreeBSD поддержка ipfw и nat идет как отдельный подгружаемый модуль в ядро , или лучше скомпилировать ядро с поддержкой IPFW
  9. Там рядом крутилка есть чтобы количество потоков задать. net.isr.numthreads: 16 net.isr.bindthreads: 1 net.isr.maxthreads: 16 в лодере пропиши и ребут. У меня 12 ядер , 12 нужно указать ? ) И вот еще хотел спросить , по опыту как лучше с гипертрейдингом или без , если гипер включить то 24 ядра будет.
  10. Если попробовать поставить в loader.conf hw.ixl.max_queues = Количество ядер , изменит нет потому как по умолчанию стоит 0 , ман говорит что если 0 , то автовычисление https://www.freebsd.org/cgi/man.cgi?query=ixl&sektion=4 hw.ixl.max_queues Set the number of queues (each a TX/RX pair) for the port, this allows one to override the autocalculation if it is set to 0.
  11. Данная команда вообще в одно ядро все переводит ( Можно попродробнее, в данный момент стоит штатфный драйвер Feebsd ничего на нем не менялось. Дравейр стоит ixl0: <Intel(R) Ethernet Connection XL710/X722 Driver, Version - 1.6.6-k> mem 0x ixl0: Using MSIX interrupts with 9 vectors ixl0: fw 5.0.40043 api 1.5 nvm 5.02 etid 80002248 oem 0.0.0 ixl0: PF-ID[0]: VFs 32, MSIX 129, VF MSIX 5, QPs 384, I2C ixl0: Allocating 8 queues for PF LAN VSI; 8 queues active ixl0: Ethernet address: 00:e0:ed:75:1d:56 ixl0: PCI Express Bus: Speed 5.0GT/s Width x8 ixl0: PCI-Express bandwidth available for this device may be insufficient for op ixl0: For optimal performance, a x8 PCIE Gen3 slot is required. ixl0: SR-IOV ready ixl0: netmap queues/slots: TX 8/1024, RX 8/1024
  12. Коллеги , скажите , кто то использовал данную карту. Стоит FreeBSD 11, 2хXeon 5650 12 ядер без гипертрейдинга и карта Silicom PE310G4i71LB-XR , чипсет Intel FTXL710AM1 Судя по статистике , нагрузку гонят тока на 8 ядрах, 4 пустуют. Не подскажите как заставить использовать все ядра , или может она может только 8 очередей использовать ?