schnm
Пользователи-
Публикации
24 -
Зарегистрирован
-
Посещение
Все публикации пользователя schnm
-
Cisco NX-OS проброс relay
тему ответил в AAS пользователя schnm в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
Добрый день. Удалось понять в чем проблема? Сейчас на N3K-C3064PQ-10GE абсолютно такая проблема -
Cisco SCE
тему ответил в bokovich пользователя schnm в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
SCE 8000 после нескольких часов работы просто перестает пропускать через себя ip-трафик. MAC адреса видны. После ребута работает несколько часов, потом ее опять клинит. Ни у кого не было? Что имеет смысл посмотреть? До этого работала несколько лет. Бобик сдох что ли? -
SCE 8000 recover
тему ответил в Gorbushka пользователя schnm в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
Собственно у нас успешный случай восстановления CF-флешки. Отдельное спасибо xcme за предоставленный образ карты, т.к. второй SCE8k нет. Сама процедура не вызвала никаких проблем. Были CF карты на 4gb Adata и sandisk - заработало на обеих. VHD конвертнули в RAW и залили dd. Пароли от образа не стандартные, но видны без шифрования в конфиге через aux. Дальше Апгрейд до 5.1, восстановление с бэкапа сервисной конфигурации (да-да, ура. Мы ее делали!!!) -
SCE 8000 и scos 4.0.0. Оно живет?
тему ответил в schnm пользователя schnm в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
В логах как то так: 2013-08-27 18:06:46 | FATAL | CPU #000 | A problem occurred in the SCE8000 Service Control Module Extended (SCM-E) slot 1 ,Please report to Cisco's customer support. 2013-08-27 18:06:46 | ERROR | CPU #000 | SE Watchdog Module: An Error occurred. Please report to Cisco's customer support 2013-08-27 18:06:46 | ERROR | CPU #000 | SE Watchdog Module: An Error occurred. Please report to Cisco's customer support 2013-08-27 18:06:47 | WARN | CPU #000 | The SE status changed to Failure due to fatal event 2013-08-27 18:06:47 | INFO | CPU #000 | trap:failure status opertation type: 7 2013-08-27 18:06:47 | WARN | CPU #000 | SE Watchdog Module: A problem occurred. Please report to Cisco's customer support -
SCE 8000 и scos 4.0.0. Оно живет?
тему ответил в schnm пользователя schnm в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
На 2000 как часы :) С 8000 какой то косяк. -
SCE 8000 и scos 4.0.0. Оно живет?
тему ответил в schnm пользователя schnm в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
Пробовал... Часа три уже не перегружается, но даже старт конфиг не кажет толком... Куча ошибок rpc как листинг доходит до interface Linecard SCE8000#sh run #This is a general configuration file (running-config). #Created on 06:55:23 UTC TUE August 27 2013 #cli-type 1 #version 1 watchdog software-reset disabled watchdog hardware-reset disabled ip ssh no management-agent notifications notification-list 1417,1418,804,815,1404,1405,1406,1407,1408,400 no management-agent notifications notification-list 402,421,440,441,444,445,446,450,437,457 no management-agent notifications notification-list 3593,3594,3595,10040,4677,4678,4674,4673,4676,4614 no management-agent notifications notification-list 4615 snmp-server community "publicss" ro interface LineCard 0 connection-mode inline on-failure external-bypass # ERROR - get parameter command failed: external-bypass - error description: CRpcifBase 'RiRedundancyManager': CRpcClient 'LCH Internal to CPU 0_complex': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'getExternalBypassManualActivation'. # ERROR - get parameter command failed: getTcpAckAsGreenMode - error description: CRpcifBase 'RiLineCardCcToMaster': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'getBwmModeTckAckAsGreen'. no silent shutdown # ERROR - get parameter command failed: flow-open-mode - error description: CRpcifBase 'RiHwGet': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'getOpenUdpOnNThreshold'. # ERROR - get parameter command failed: default-metering parameters - error description: CRpcifBase 'RiClsGetCcToMaster': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'meteringGetDefault'. # ERROR - get parameter command failed: default-metering parameters - error description: CRpcifBase 'RiClsGetCcToMaster': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'meteringGetDefault'. # ERROR - get parameter command failed: default-metering parameters - error description: CRpcifBase 'RiClsGetCcToMaster': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'meteringGetDefault'. # ERROR - get parameter command failed: default-metering parameters - error description: CRpcifBase 'RiClsGetCcToMaster': CRpcClient 'LCH External to CPU 0_normal': Got RPC Error 'rpcSEND_TIME_OUT', Function was 'meteringGetDefault'. service-bandwidth-prioritization-mode global protocol-pack version 4.0.0PP36 -
Посоветуйте что-то маленькое с поддержкой ERSPAN
тему ответил в insekt пользователя schnm в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
Тут есть пример как сделать на свиче с RSPAN и циске с l2tpv3 в настройках влана надо не забыть сказать remote-span -
У кого нибудь работает? Закупили SCE 8000 (не новую), пришла с установленной версий 4.0.0 build 548. Без нагрузки, просто стоит греет воздух и стабильно перегружается и сваливается в рековери. Причем обычно это происходит 0-15 минут после загрузки. Откат на 3.8.5 дает стабильную работу (без нагрузки - до этого этапа еще не дошли) Заново накатил 4-ю версию, опять так же беда с перезагрузками, даже pqi не могу накатить. При загрузке ошибки, иногда загрузка до конца не доходит. В общем все как и было ранее Собственно еще раз повторюсь... Вопрос - кто то есть с работающими sce8k на 4-й версии софта?
-
Как подключиться к железке Nortel Contivity 1010 (DM1401092)
тему ответил в Duplex пользователя schnm в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
login: admin pass: setup Это по умолчанию... А вобще это чудовище лучше ритуально сжечь и потавить взамен 800-й циско-роутер :) -
Равномерное ограничение скорости по ip в linux
тему ответил в schnm пользователя schnm в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
Жаль что под линукс нет такой реализации :( Я то надеялся, что просто отстал от жизни. 2yun: Что есть правильно разграничение правил? Можно пример? :) UBRL жестко (без буферизации пакетов) ограничивает трафик по ip-адресам в указанном классе (который например написан в виде аксеслиста сети 192.168.0.0/16) в соответствии с ограничением, т.е. как раз каждому ip выдается ровно столько сколько написано. Делал на Cat6k ограничения для анлимитчиков как раз в соответствии с тарифом и обратный трафик у всех ограничен одинаково. -
Господа, может кто сталкивался - подскажите. Возможно ли в линукс задать один правилом (ну или группой правил) равномерное ограничение по скорости для всей сети, т.е. каждому адресу выделяем, скажем по N-мегабит, при этом не описывая классификаторы и правила для каждого адреса индивидуально. Пример использования - надо ограничить для группы сетей исходящий трафик на определенной скорости. Писать при этом правила на каждый Ip-маразм да и не в лучшую сторону отразится на производительности. На циске я могу сделать это с помощью UBRL, а вот столкнулся с необходимостью сделать на линуксе и испытываю затруднения.
-
Много пользователей+Cisco+nat+netflow?
тему ответил в schnm пользователя schnm в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
Что то уважаемый jab рассказал о научно-фантастических достижениях PC и пропал.... :) Наверное мечты-мечты... А теперь в тему. Перевесил nat на потестировать на ASA 5520 (было под рукой). В часы пик загрузка 40-50%. Никакого тюнинга пока нет, все настройки практически по умолчанию. Видимо вот оно решение. Всем спасибо. -
Много пользователей+Cisco+nat+netflow?
тему ответил в schnm пользователя schnm в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
А можно узнать конфигурацию этого PC, а так же на чем это все работает? Чем нетфлоу экспортируете? Под линуксом вроде ядерных нетфлоу нет, хотя я уж с год не увлекался линуксом, может чего поменялось. Я так понимаю разговор в сторону bsd пойдет? -
Много пользователей+Cisco+nat+netflow?
тему ответил в schnm пользователя schnm в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
как писал раньше - варианты с писюками не рассматриваются. Да и кроме ната нада считать а тот же ipcad хорошо грузит машинку при таком количестве пакетов, писюк сразу грустить начинает. Если только ставить пяток компутеров, но это маразм :) Проще и надежнее и дешевле в эксплуатации поставить железяку, тем более собственно бюджет есть. Почему криво настроены? Они не только настроены, но и еще на юзера ограничены до 250 трансляций на ip; Просто пиринговые сети, еще не пойманные флудеры-вирусологи и т.п. дают большое количество потоков... -
Много пользователей+Cisco+nat+netflow?
тему ответил в schnm пользователя schnm в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
Варианты писюков/микротиков не рассматриваются. И вы уверены что на писюке будет работать нат ~500000 трансляциями?. Варианты белых адресов так же не рассматриваются, т.к. во первых столько просто нету, во вторых давать каждому юзеру белый адрес - это поиметь себе лишних проблем с вирусами/прокси и т.п. ACE понятно что не совсем для этого, просто судя по даташиту он неплохо это (NAT) умеет... Но если NDE не умеет, тогда собственно вычеркиваем, ASA/FWSM наш выбор. Мысли с load balancing были, но смысла особого нет, проще поставить ASA и пропустить трафик через маршрутизатор для подсчета, видимо это в данном случае будет практически единственный путь :( С juniper, к сожалению не знаком совсем :( -
Много пользователей+Cisco+nat+netflow?
тему ответил в schnm пользователя schnm в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
Хех. А какие варианты? Быстрй нат обеспечивает либо ACE-модуль (до 16 гигабит по дата шиту, стока даже не надо, достаточно базового функционала), ну либо ASA... Но как я писал встает проблема с сбором статистики по трафику. С ACE модулем не понятно - очень мало информации т.к. это новинка. :( -
Господа, прошу совета. Упрощенно имеем: Есть много пользователей (~8000 и будет расти), сходящихся на шеститысячник и выходящих в интернет через 7206. На 6500 ограничивается полоса посредством UBRL. Доступ ограничивается vacl'ами. На 7206 висит BGP, NAT для пользователей и льется в биллинг по netflow информация о трафике. Т.к. людей (потоков) много, скорости велики (200-250 мегабит), то маршрутизатор начинает испытывать затруднения. Необходимо собственно изменить текущую схему выхода пользователей в интернет что бы убрать нагрузку (а это nat) с 7200 маршрутизатора. А куда его выносить? Естественное желание поставить ASA пресекается отсутствием возможности получения информации о трафике (нет netflow). Из-за использования UBRL нет возможности снимать netflow с каталиста. Есть ли у кого какие мысли на этот счет? Вышла новинка Cisco ACE, которая судя по дата шиту отлично делает нат, но информации по ней очень мало :( Никак не могу найти есть ли там поддержка netflow-экспорта.
-
Ограничение полосы на юзера при большом их количестве
тему ответил в schnm пользователя schnm в Программное обеспечение, биллинг и *unix системы
Спасиба, будем бороться. Правда забыл отметить что эта же машинка еще и в качестве файрвола трудилась - ограничивала доступ интернет для пользователей и на ней еще порядка 3-6 тысяч правил было в цепочке форварда. Вынес этот функционал на отдельный роутер стало значительно легче. С упорядочиванием таблиц есть проблемка - правила формируются при включениее/выключении юзером инета и утилитами от биллинговой системы. Откуда информация что при использовании tc filter менее ресурсоемкая процедура классификации чем Iptables -j CLASSIFY? Можно пример или ссылку? Ну или результаты эксперимента :) PS: Intel® Pentium® 4 CPU 3.00GHz; 04:00.0 Ethernet controller: Broadcom Corporation NetXtreme BCM5721 Gigabit Ethernet PCI Express (rev 11) Трафик через роутер: 45Mbit/s; 10-20 Kpps -
Господа, прошу помощи. Имеется порядка 2000 анлимитчиков, выходящих через маршрутизатор с nat в инет, причем их число постоянно растет. Необходимо ограничивать каждому полосу в зависимости от тарифного плана (как входящий так и исходящий трафик). Проблем в том, что на таком количестве правил и при таком трафике существующий линукс роутер просто умирает от нагрузки, увеличивается время отклика, дропаются пакеты. Пока проблема решается максимальным уменьшением проходящего трафика (роутер так же занимается маршрутизацией некоторых внешних сегментов сети которые для юзеров локальны и не ограничиваются). Используется дисциплина htb. Дерево примитивно - есть корень, от него растут классы на каждого юзера. Метим с помощью Iptables. PPP не используется Курс партии указывает на цисковское оборудование, но реализовать задачу подобного рода на маршрутизаторе как то проблематично из-за необходимости создавать на каждого юзера отдельный acl, а точнее даже два. Есть решение в виде UBRL, но он встречается только на каталистах 4500 или 6500 да и не с самым дешевым супом. Сталкивался ли кто то с аналогичной задачей? Как оптимизировать существующию линукс-схему? Возможно есть решения на той же циске без кучи ACL?
-
Подсчет и отдача по netflow больших объемов трафика?
тему ответил в schnm пользователя schnm в Программное обеспечение, биллинг и *unix системы
Автор не покупает оборудование, автор только рекомендует, но понимания зачем тратить 10 штук баксов, если можно поставить PC менее чем за 1000 пока не было. За рекомендованные варианты - спасибо. Буду пробовать растащить на первом этапе аккаунтинг и все остальное по разным машинкам, так же попробую NProbe (http://www.ntop.org/nProbe.html). Судя по тому что пишут - это просто наступившее светлое будущее в сфере учета трафика. -
Подсчет и отдача по netflow больших объемов трафика?
тему ответил в schnm пользователя schnm в Программное обеспечение, биллинг и *unix системы
На данный момент - 45 мегабит канал забитый практически под завяку. расширение планируется в ближайшем времени до 100-ки. -
Подсчет и отдача по netflow больших объемов трафика?
тему ответил в schnm пользователя schnm в Программное обеспечение, биллинг и *unix системы
Проблема как раз в том, что это весь интернетный трафик. И потери очень сильно недопустимы, а на данный момент эта линуксовая машина вносит как потери так и задержку. С BSD незнаком, не хочется заниматься глубоким изучением, но видимо все к этому идет т.к. под линукс как раз проблема в том, что ничего аналогичного не обнаружено. С каталистом проблем точно не возникнет, но по скромным подсчетам минимальная конфигурация для решения такой задачи все равно перевалит за 20-ку баксов. -
Есть узел, через который проходит порядка 500Гб трафика в сутки. Из них порядка 300 тарифицируется. Роутер на базе линукса, подсчет идет с помощью ipcad через libipq. Роутер на базе серверной платы с p4-3Ghz. При росте трафика начались проблемы - загрузка процессора 80-100 процентов (грузит ipcad), в часы пик возможны потери пакетов из-за используемого способа подсчета, но только он гарантирует, что посчитается весь трафик. Переход на ulog или pcap не рассматривается. Попытались заменить машинку на двухпроцессорную (2x2.4Xeon), но результат только ухудшился - Ipcad грузит только один проц. Мое виденье: т.к. все на изернете с достаточно широкими каналами, которые планируется расширять дальше, то либо начинать размножение серверов для подсчета трафика, либо брать catalyst 45xx с нефлоу модулем и забыть а проблеме. Теперь вопрос - кто сталкивался с подобными ситуациями и как боролся? :) Может чего не так делаю?
-
Необходимо приземлить приходящий voip трафик от станции на удаленных объектах в аналог. Планируемое количество FXS-портов от 8-ми до 24-х (в среднем 16). Аналог из-за имеющейся духпроводной разводки. Перекладывать СКС нецелесобразно. Ставить в столбик десяток аташек не хочется :) Нашел решение от RAD - Vmux-310, но умеет только SIP да нет опыта работы с этим оборудованием ну и зоопарк плодить неохота. У cisco нашлось IAD 2430, все что надо, да и еще и как я понял роутеры можно повыкидывать и использовать сие устройство. Реально кто нить сталкивался с этой железкой? Есть ли у кого опыт эксплуатации, какие отзывы?