Jump to content

schnm

Пользователи
  • Posts

    24
  • Joined

  • Last visited

About schnm

  • Rank
    Абитуриент
    Абитуриент

Контакты

  • ICQ
    Array

Recent Profile Visitors

1146 profile views
  1. Добрый день. Удалось понять в чем проблема? Сейчас на N3K-C3064PQ-10GE абсолютно такая проблема
  2. SCE 8000 после нескольких часов работы просто перестает пропускать через себя ip-трафик. MAC адреса видны. После ребута работает несколько часов, потом ее опять клинит. Ни у кого не было? Что имеет смысл посмотреть? До этого работала несколько лет. Бобик сдох что ли?
  3. Собственно у нас успешный случай восстановления CF-флешки. Отдельное спасибо xcme за предоставленный образ карты, т.к. второй SCE8k нет. Сама процедура не вызвала никаких проблем. Были CF карты на 4gb Adata и sandisk - заработало на обеих. VHD конвертнули в RAW и залили dd. Пароли от образа не стандартные, но видны без шифрования в конфиге через aux. Дальше Апгрейд до 5.1, восстановление с бэкапа сервисной конфигурации (да-да, ура. Мы ее делали!!!)
  4. В логах как то так: 2013-08-27 18:06:46 | FATAL | CPU #000 | A problem occurred in the SCE8000 Service Control Module Extended (SCM-E) slot 1 ,Please report to Cisco's customer support. 2013-08-27 18:06:46 | ERROR | CPU #000 | SE Watchdog Module: An Error occurred. Please report to Cisco's customer support 2013-08-27 18:06:46 | ERROR | CPU #000 | SE Watchdog Module: An Error occurred. Please report to Cisco's customer support 2013-08-27 18:06:47 | WARN | CPU #000 | The SE status changed to Failure due to fatal event 2013-08-27 18:06:47 | INFO | CPU #000 | trap:failure status opertation type: 7 2013-08-27 18:06:47 | WARN | CPU #000 | SE Watchdog Module: A problem occurred. Please report to Cisco's customer support
  5. Пробовал... Часа три уже не перегружается, но даже старт конфиг не кажет толком... Куча ошибок rpc как листинг доходит до interface Linecard SCE8000#sh run #This is a general configuration file (running-config). #Created on 06:55:23 UTC TUE August 27 2013 #cli-type 1 #version 1 watchdog software-reset disabled watchdog hardware-reset disabled ip ssh no management-agent notifications notification-list 1417,1418,804,815,1404,1405,1406,1407,1408,400 no management-agent notifications notification-list 402,421,440,441,444,445,446,450,437,457 no management-agent notifications notification-list 3593,3594,3595,10040,4677,4678,4674,4673,4676,4614 no management-agent notifications notification-list 4615 snmp-server community "publicss" ro interface LineCard 0 connection-mode inline on-failure external-bypass # ERROR - get parameter command failed: external-bypass - error description: CRpcifBase 'RiRedundancyManager': CRpcClient 'LCH Internal to CPU 0_complex': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'getExternalBypassManualActivation'. # ERROR - get parameter command failed: getTcpAckAsGreenMode - error description: CRpcifBase 'RiLineCardCcToMaster': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'getBwmModeTckAckAsGreen'. no silent shutdown # ERROR - get parameter command failed: flow-open-mode - error description: CRpcifBase 'RiHwGet': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'getOpenUdpOnNThreshold'. # ERROR - get parameter command failed: default-metering parameters - error description: CRpcifBase 'RiClsGetCcToMaster': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'meteringGetDefault'. # ERROR - get parameter command failed: default-metering parameters - error description: CRpcifBase 'RiClsGetCcToMaster': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'meteringGetDefault'. # ERROR - get parameter command failed: default-metering parameters - error description: CRpcifBase 'RiClsGetCcToMaster': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'meteringGetDefault'. # ERROR - get parameter command failed: default-metering parameters - error description: CRpcifBase 'RiClsGetCcToMaster': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'meteringGetDefault'. service-bandwidth-prioritization-mode global protocol-pack version 4.0.0PP36
  6. Тут есть пример как сделать на свиче с RSPAN и циске с l2tpv3 в настройках влана надо не забыть сказать remote-span
  7. У кого нибудь работает? Закупили SCE 8000 (не новую), пришла с установленной версий 4.0.0 build 548. Без нагрузки, просто стоит греет воздух и стабильно перегружается и сваливается в рековери. Причем обычно это происходит 0-15 минут после загрузки. Откат на 3.8.5 дает стабильную работу (без нагрузки - до этого этапа еще не дошли) Заново накатил 4-ю версию, опять так же беда с перезагрузками, даже pqi не могу накатить. При загрузке ошибки, иногда загрузка до конца не доходит. В общем все как и было ранее Собственно еще раз повторюсь... Вопрос - кто то есть с работающими sce8k на 4-й версии софта?
  8. login: admin pass: setup Это по умолчанию... А вобще это чудовище лучше ритуально сжечь и потавить взамен 800-й циско-роутер :)
  9. Жаль что под линукс нет такой реализации :( Я то надеялся, что просто отстал от жизни. 2yun: Что есть правильно разграничение правил? Можно пример? :) UBRL жестко (без буферизации пакетов) ограничивает трафик по ip-адресам в указанном классе (который например написан в виде аксеслиста сети 192.168.0.0/16) в соответствии с ограничением, т.е. как раз каждому ip выдается ровно столько сколько написано. Делал на Cat6k ограничения для анлимитчиков как раз в соответствии с тарифом и обратный трафик у всех ограничен одинаково.
  10. Господа, может кто сталкивался - подскажите. Возможно ли в линукс задать один правилом (ну или группой правил) равномерное ограничение по скорости для всей сети, т.е. каждому адресу выделяем, скажем по N-мегабит, при этом не описывая классификаторы и правила для каждого адреса индивидуально. Пример использования - надо ограничить для группы сетей исходящий трафик на определенной скорости. Писать при этом правила на каждый Ip-маразм да и не в лучшую сторону отразится на производительности. На циске я могу сделать это с помощью UBRL, а вот столкнулся с необходимостью сделать на линуксе и испытываю затруднения.
  11. Что то уважаемый jab рассказал о научно-фантастических достижениях PC и пропал.... :) Наверное мечты-мечты... А теперь в тему. Перевесил nat на потестировать на ASA 5520 (было под рукой). В часы пик загрузка 40-50%. Никакого тюнинга пока нет, все настройки практически по умолчанию. Видимо вот оно решение. Всем спасибо.
  12. А можно узнать конфигурацию этого PC, а так же на чем это все работает? Чем нетфлоу экспортируете? Под линуксом вроде ядерных нетфлоу нет, хотя я уж с год не увлекался линуксом, может чего поменялось. Я так понимаю разговор в сторону bsd пойдет?
  13. как писал раньше - варианты с писюками не рассматриваются. Да и кроме ната нада считать а тот же ipcad хорошо грузит машинку при таком количестве пакетов, писюк сразу грустить начинает. Если только ставить пяток компутеров, но это маразм :) Проще и надежнее и дешевле в эксплуатации поставить железяку, тем более собственно бюджет есть. Почему криво настроены? Они не только настроены, но и еще на юзера ограничены до 250 трансляций на ip; Просто пиринговые сети, еще не пойманные флудеры-вирусологи и т.п. дают большое количество потоков...
  14. Варианты писюков/микротиков не рассматриваются. И вы уверены что на писюке будет работать нат ~500000 трансляциями?. Варианты белых адресов так же не рассматриваются, т.к. во первых столько просто нету, во вторых давать каждому юзеру белый адрес - это поиметь себе лишних проблем с вирусами/прокси и т.п. ACE понятно что не совсем для этого, просто судя по даташиту он неплохо это (NAT) умеет... Но если NDE не умеет, тогда собственно вычеркиваем, ASA/FWSM наш выбор. Мысли с load balancing были, но смысла особого нет, проще поставить ASA и пропустить трафик через маршрутизатор для подсчета, видимо это в данном случае будет практически единственный путь :( С juniper, к сожалению не знаком совсем :(