Перейти к содержимому
Калькуляторы

schnm

Пользователи
  • Публикации

    24
  • Зарегистрирован

  • Посещение

О schnm

  • Звание
    Абитуриент
    Абитуриент

Контакты

  • ICQ
    Array

Посетители профиля

1268 просмотров профиля
  1. Добрый день. Удалось понять в чем проблема? Сейчас на N3K-C3064PQ-10GE абсолютно такая проблема
  2. SCE 8000 после нескольких часов работы просто перестает пропускать через себя ip-трафик. MAC адреса видны. После ребута работает несколько часов, потом ее опять клинит. Ни у кого не было? Что имеет смысл посмотреть? До этого работала несколько лет. Бобик сдох что ли?
  3. Собственно у нас успешный случай восстановления CF-флешки. Отдельное спасибо xcme за предоставленный образ карты, т.к. второй SCE8k нет. Сама процедура не вызвала никаких проблем. Были CF карты на 4gb Adata и sandisk - заработало на обеих. VHD конвертнули в RAW и залили dd. Пароли от образа не стандартные, но видны без шифрования в конфиге через aux. Дальше Апгрейд до 5.1, восстановление с бэкапа сервисной конфигурации (да-да, ура. Мы ее делали!!!)
  4. В логах как то так: 2013-08-27 18:06:46 | FATAL | CPU #000 | A problem occurred in the SCE8000 Service Control Module Extended (SCM-E) slot 1 ,Please report to Cisco's customer support. 2013-08-27 18:06:46 | ERROR | CPU #000 | SE Watchdog Module: An Error occurred. Please report to Cisco's customer support 2013-08-27 18:06:46 | ERROR | CPU #000 | SE Watchdog Module: An Error occurred. Please report to Cisco's customer support 2013-08-27 18:06:47 | WARN | CPU #000 | The SE status changed to Failure due to fatal event 2013-08-27 18:06:47 | INFO | CPU #000 | trap:failure status opertation type: 7 2013-08-27 18:06:47 | WARN | CPU #000 | SE Watchdog Module: A problem occurred. Please report to Cisco's customer support
  5. На 2000 как часы :) С 8000 какой то косяк.
  6. Пробовал... Часа три уже не перегружается, но даже старт конфиг не кажет толком... Куча ошибок rpc как листинг доходит до interface Linecard SCE8000#sh run #This is a general configuration file (running-config). #Created on 06:55:23 UTC TUE August 27 2013 #cli-type 1 #version 1 watchdog software-reset disabled watchdog hardware-reset disabled ip ssh no management-agent notifications notification-list 1417,1418,804,815,1404,1405,1406,1407,1408,400 no management-agent notifications notification-list 402,421,440,441,444,445,446,450,437,457 no management-agent notifications notification-list 3593,3594,3595,10040,4677,4678,4674,4673,4676,4614 no management-agent notifications notification-list 4615 snmp-server community "publicss" ro interface LineCard 0 connection-mode inline on-failure external-bypass # ERROR - get parameter command failed: external-bypass - error description: CRpcifBase 'RiRedundancyManager': CRpcClient 'LCH Internal to CPU 0_complex': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'getExternalBypassManualActivation'. # ERROR - get parameter command failed: getTcpAckAsGreenMode - error description: CRpcifBase 'RiLineCardCcToMaster': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'getBwmModeTckAckAsGreen'. no silent shutdown # ERROR - get parameter command failed: flow-open-mode - error description: CRpcifBase 'RiHwGet': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'getOpenUdpOnNThreshold'. # ERROR - get parameter command failed: default-metering parameters - error description: CRpcifBase 'RiClsGetCcToMaster': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'meteringGetDefault'. # ERROR - get parameter command failed: default-metering parameters - error description: CRpcifBase 'RiClsGetCcToMaster': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'meteringGetDefault'. # ERROR - get parameter command failed: default-metering parameters - error description: CRpcifBase 'RiClsGetCcToMaster': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'meteringGetDefault'. # ERROR - get parameter command failed: default-metering parameters - error description: CRpcifBase 'RiClsGetCcToMaster': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'meteringGetDefault'. service-bandwidth-prioritization-mode global protocol-pack version 4.0.0PP36
  7. Тут есть пример как сделать на свиче с RSPAN и циске с l2tpv3 в настройках влана надо не забыть сказать remote-span
  8. У кого нибудь работает? Закупили SCE 8000 (не новую), пришла с установленной версий 4.0.0 build 548. Без нагрузки, просто стоит греет воздух и стабильно перегружается и сваливается в рековери. Причем обычно это происходит 0-15 минут после загрузки. Откат на 3.8.5 дает стабильную работу (без нагрузки - до этого этапа еще не дошли) Заново накатил 4-ю версию, опять так же беда с перезагрузками, даже pqi не могу накатить. При загрузке ошибки, иногда загрузка до конца не доходит. В общем все как и было ранее Собственно еще раз повторюсь... Вопрос - кто то есть с работающими sce8k на 4-й версии софта?
  9. login: admin pass: setup Это по умолчанию... А вобще это чудовище лучше ритуально сжечь и потавить взамен 800-й циско-роутер :)
  10. Жаль что под линукс нет такой реализации :( Я то надеялся, что просто отстал от жизни. 2yun: Что есть правильно разграничение правил? Можно пример? :) UBRL жестко (без буферизации пакетов) ограничивает трафик по ip-адресам в указанном классе (который например написан в виде аксеслиста сети 192.168.0.0/16) в соответствии с ограничением, т.е. как раз каждому ip выдается ровно столько сколько написано. Делал на Cat6k ограничения для анлимитчиков как раз в соответствии с тарифом и обратный трафик у всех ограничен одинаково.
  11. Господа, может кто сталкивался - подскажите. Возможно ли в линукс задать один правилом (ну или группой правил) равномерное ограничение по скорости для всей сети, т.е. каждому адресу выделяем, скажем по N-мегабит, при этом не описывая классификаторы и правила для каждого адреса индивидуально. Пример использования - надо ограничить для группы сетей исходящий трафик на определенной скорости. Писать при этом правила на каждый Ip-маразм да и не в лучшую сторону отразится на производительности. На циске я могу сделать это с помощью UBRL, а вот столкнулся с необходимостью сделать на линуксе и испытываю затруднения.
  12. Что то уважаемый jab рассказал о научно-фантастических достижениях PC и пропал.... :) Наверное мечты-мечты... А теперь в тему. Перевесил nat на потестировать на ASA 5520 (было под рукой). В часы пик загрузка 40-50%. Никакого тюнинга пока нет, все настройки практически по умолчанию. Видимо вот оно решение. Всем спасибо.
  13. А можно узнать конфигурацию этого PC, а так же на чем это все работает? Чем нетфлоу экспортируете? Под линуксом вроде ядерных нетфлоу нет, хотя я уж с год не увлекался линуксом, может чего поменялось. Я так понимаю разговор в сторону bsd пойдет?
  14. как писал раньше - варианты с писюками не рассматриваются. Да и кроме ната нада считать а тот же ipcad хорошо грузит машинку при таком количестве пакетов, писюк сразу грустить начинает. Если только ставить пяток компутеров, но это маразм :) Проще и надежнее и дешевле в эксплуатации поставить железяку, тем более собственно бюджет есть. Почему криво настроены? Они не только настроены, но и еще на юзера ограничены до 250 трансляций на ip; Просто пиринговые сети, еще не пойманные флудеры-вирусологи и т.п. дают большое количество потоков...
  15. Варианты писюков/микротиков не рассматриваются. И вы уверены что на писюке будет работать нат ~500000 трансляциями?. Варианты белых адресов так же не рассматриваются, т.к. во первых столько просто нету, во вторых давать каждому юзеру белый адрес - это поиметь себе лишних проблем с вирусами/прокси и т.п. ACE понятно что не совсем для этого, просто судя по даташиту он неплохо это (NAT) умеет... Но если NDE не умеет, тогда собственно вычеркиваем, ASA/FWSM наш выбор. Мысли с load balancing были, но смысла особого нет, проще поставить ASA и пропустить трафик через маршрутизатор для подсчета, видимо это в данном случае будет практически единственный путь :( С juniper, к сожалению не знаком совсем :(