Azamat

Активный участник
  • Публикаций

    204
  • Зарегистрирован

  • Посещение

1 Подписчик

Информация о Azamat

  • Звание
    Студент
  • День рождения

Контакты

  • ICQ
    105546482

Информация

  • Интересы
    Internet

Город

  • Город
    Bishkek
  1. В X.X.X.X - все те же 84 маршрута из 670К. Ничего не изменилось с вчерашнего дня. Такое ощущение, что БГПд вдруг перестал работать с таблицей маршрутов ядра (собственно, best) , которые он должен был бы отлить в нижестоящие пиры.
  2. Ничего нет. Тем более, что все работало до вчерашнего утра :(
  3. Фильтров нету. neighbor X.X.X.X remote-as XXX neighbor X.X.X.X description BANK neighbor X.X.X.X soft-reconfiguration inbound neighbor X.X.X.X route-map XX in
  4. Доброго дня, коллеги. Плз подскажите, если кто сталкивался. Есть сервер, вращается Quagga. С трех сторон приходит fullview, в kernel сформирована таблица размером: netstat -rn | wc -l 672236 Почему-то сегодня после clear bgp X.X.X.X soft out в нижестоящий пир X.X.X.X перестала отдаваться вся таблица :( Туда уехали какие-то (Total number of prefixes) 84 маршрута. Причем, есть один нижестоящий пир, куда до сих пор отдается вся таблица full, но clear там не делался, вдруг если сделать - тоже перестанет отливаться фуллвью. Вопрос - что произошло с демоном ? Ночью-то передернем, но может есть какое то внятное объяснение. Причем, если взять произвольный маршрут из таблицы маршрутизации (best), например - 1.0.128.1, то видно, что Quagga отчитывается, мол отдается маршрут в нужные пиры: show ip bgp 1.0.128.1 BGP routing table entry for 1.0.128.0/24 Paths: (3 available, best #1, table Default-IP-Routing-Table) Advertised to non peer-group peers: X.X.X.X Y.Y.Y.Y В Y.Y.Y.Y он до сих пор реально отдается - но не делался clear В X.X.X.X - все те же 84 маршрута из 670К.
  5. Вопрос с фильтрацией транзитн. трафика вроде закрылся, за что спс. технарям ТТК.
  6. Нет, 35104
  7. Еще позавчера все было в порядке. Кто-то видимо перегнул палку в тех. составе ТТК ? Наш вышестоящий из КЗ.
  8. Уважаемые коллеги, есть ли кто то из ТТК ? Сами мы не местные, страна дружественная, но не РФ. Для ТТК наш трафик транзитный, он оператор нашего вышестоящего оператора. Они начали фильтровать наш транзитный трафик, на какие-то весьма популярные ресурсы клиенты получают заглушку от ТТК - мол по решению мосгорсуда от такого то года ресурс заблокирован. Доступ к Интернет-ресурсу заблокирован по решению органов государственной власти Посмотреть причину блокировки можно в едином реестре В нашей стране этот же ресурс вполне себе открыт и пошли жалобы регулятору о незаконном блокировании доступа. Попытка обращения в ТТК натыкается на бюр. процедуры - мол не наш клиент и тд. Как бы побороть данный случай ? Готов предоставить в личку все необх. данные о себе, если бы это помогло решить проблему. Заранее спасибо и все такое.
  9. Проблема-то есть, решения нету. В вашем случае только релоад похоже, причем нужный модуль уже должен быть в гнезде в момент релоада.
  10. Сегодня на живом 40 гб линке между двумя Нексусами 3064 словили какой-то жуткий косяк: вдруг на хорошей линии (по отп. показателям с модулей)начал мигать оранж/зеленый светодиод qsfp порта. На порту начали быстро расти input ошибки и что самое прикольное, одновременно начали падать/подниматься еще 4 гнезда по 10Гбит/с. Примерно раз в минуту, а то и чаще. Но, сам линк 40 гиг в логах не отражался как down/up. И показатель last flap по нему был порядка 4 недель. 2017 Aug 14 22:07:43 nex3064-mainpop.1 %ETHPORT-5-IF_DOWN_LINK_FAILURE: Interface Ethernet1/2 is down (Link failure) 2017 Aug 14 22:07:43 nex3064-mainpop.1 %ETHPORT-5-IF_DOWN_LINK_FAILURE: Interface Ethernet1/48 is down (Link failure) 2017 Aug 14 22:08:02 nex3064-mainpop.1 %ETHPORT-5-SPEED: Interface Ethernet1/2, operational speed changed to 10 Gbps 2017 Aug 14 22:08:02 nex3064-mainpop.1 %ETHPORT-5-IF_DUPLEX: Interface Ethernet1/2, operational duplex mode changed to Full 2017 Aug 14 22:08:02 nex3064-mainpop.1 %ETHPORT-5-IF_RX_FLOW_CONTROL: Interface Ethernet1/2, operational Receive Flow Control state changed to off 2017 Aug 14 22:08:02 nex3064-mainpop.1 %ETHPORT-5-IF_TX_FLOW_CONTROL: Interface Ethernet1/2, operational Transmit Flow Control state changed to off 2017 Aug 14 22:08:02 nex3064-mainpop.1 %ETHPORT-5-IF_UP: Interface Ethernet1/2 is up in mode trunk 2017 Aug 14 22:08:04 nex3064-mainpop.1 %ETHPORT-5-SPEED: Interface Ethernet1/48, operational speed changed to 10 Gbps 2017 Aug 14 22:08:04 nex3064-mainpop.1 %ETHPORT-5-IF_DUPLEX: Interface Ethernet1/48, operational duplex mode changed to Full 2017 Aug 14 22:08:04 nex3064-mainpop.1 %ETHPORT-5-IF_RX_FLOW_CONTROL: Interface Ethernet1/48, operational Receive Flow Control state changed to off 2017 Aug 14 22:08:04 nex3064-mainpop.1 %ETHPORT-5-IF_TX_FLOW_CONTROL: Interface Ethernet1/48, operational Transmit Flow Control state changed to off 2017 Aug 14 22:08:05 nex3064-mainpop.1 %ETHPORT-5-IF_UP: Interface Ethernet1/48 is up in mode trunk 2017 Aug 14 22:08:10 nex3064-mainpop.1 %ETHPORT-5-IF_DOWN_LINK_FAILURE: Interface Ethernet1/32 is down (Link failure) 2017 Aug 14 22:08:22 nex3064-mainpop.1 %ETHPORT-5-IF_DOWN_LINK_FAILURE: Interface Ethernet1/2 is down (Link failure) 2017 Aug 14 22:08:26 nex3064-mainpop.1 %ETHPORT-5-IF_DOWN_LINK_FAILURE: Interface Ethernet1/48 is down (Link failure) 2017 Aug 14 22:08:30 nex3064-mainpop.1 %ETHPORT-5-IF_DOWN_LINK_FAILURE: Interface Ethernet1/41 is down (Link failure) 2017 Aug 14 22:08:36 nex3064-mainpop.1 %ETHPORT-5-SPEED: Interface Ethernet1/2, operational speed changed to 10 Gbps 2017 Aug 14 22:08:36 nex3064-mainpop.1 %ETHPORT-5-IF_DUPLEX: Interface Ethernet1/2, operational duplex mode changed to Full 2017 Aug 14 22:08:36 nex3064-mainpop.1 %ETHPORT-5-IF_RX_FLOW_CONTROL: Interface Ethernet1/2, operational Receive Flow Control state changed to off 2017 Aug 14 22:08:36 nex3064-mainpop.1 %ETHPORT-5-IF_TX_FLOW_CONTROL: Interface Ethernet1/2, operational Transmit Flow Control state changed to off 2017 Aug 14 22:08:37 nex3064-mainpop.1 %ETHPORT-5-IF_DOWN_LINK_FAILURE: Interface Ethernet1/32 is down (Link failure) 2017 Aug 14 22:08:38 nex3064-mainpop.1 %ETHPORT-5-SPEED: Interface Ethernet1/48, operational speed changed to 10 Gbps 2017 Aug 14 22:08:38 nex3064-mainpop.1 %ETHPORT-5-IF_DUPLEX: Interface Ethernet1/48, operational duplex mode changed to Full 2017 Aug 14 22:08:38 nex3064-mainpop.1 %ETHPORT-5-IF_RX_FLOW_CONTROL: Interface Ethernet1/48, operational Receive Flow Control state changed to off 2017 Aug 14 22:08:38 nex3064-mainpop.1 %ETHPORT-5-IF_TX_FLOW_CONTROL: Interface Ethernet1/48, operational Transmit Flow Control state changed to off 2017 Aug 14 22:08:38 nex3064-mainpop.1 %ETHPORT-5-IF_UP: Interface Ethernet1/2 is up in mode trunk 2017 Aug 14 22:08:38 nex3064-mainpop.1 %ETHPORT-5-IF_UP: Interface Ethernet1/48 is up in mode trunk 2017 Aug 14 22:08:40 nex3064-mainpop.1 %ETHPORT-5-SPEED: Interface Ethernet1/41, operational speed changed to 10 Gbps 2017 Aug 14 22:08:40 nex3064-mainpop.1 %ETHPORT-5-IF_DUPLEX: Interface Ethernet1/41, operational duplex mode changed to Full Если вытащить из гнезда модуль QSFP - остальные 4 гнезда по 10гиг перестают падать/подниматься. Вставляешь обратно QSFP - снова глюки. В конце концов разобрали линк 40 гиг на два по 10, благо хватило по полосе. И после этого снова полет нормальный. Сам линк на 40 был запущен с полгода назад, все это время работал без нареканий. А сегодня прям взбесился. Мистика какая-то.
  11. у нас 4 шт, на всех такой косяк. Может быть вы кол-во циклов туда/сюда не набирали, чтобы на всех ваших проявился :) Видимо что то аппаратное действительно.
  12. Доброго дня, коллеги. Наткнулся на какой-то лютый косяк у nexus N3K-C3064PQ-10GE (на 4 шт точно), может кто-то сталкивался - побеждал/как именно ? При втыкании/извлечении (бывает сразу, бывает с 2-3 цикла) модуля QSFP гнездо на шасси "засыпает", далее при втыкании модуля перестает работать (что опт. трансивер, что медный кабель). Когда гнездо "заснуло" светодиод занятости горит или в оранжевом (мол гнездо пустое) или не горит вообще - мол модуль есть, но линк не поднимается. Лечится только перезагрузкой. Никакие shut/no shut не помогают. После перезагрузки гнезда работают нормально до след. цикла извлечения по какой-либо надобности. Хорошо их там 4, уже пара штук в работе, у которых по 2-3 гнезда "уснули", но линк на 40 работает в последнем гнезде. При этом 10Гб гнезда работают без нареканий.
  13. Еще вопрос - находится ли абонентская приставка в заказанной группе в момент фриза ? show mvr members показывает абонентский порт в целевой группе ? Если приставка в группе, а коммутатор не выливает в порт ТВ траффик - проблема может быть аппаратная, igmp здесь будет не причем. А если у абонента две приставки - фризы одновременно на обеих приставках ? в случае если заказана одна и та же группа или разные группы на каждую из приставок дамп на самой приставке показывает получение GQ И GSQ и ответный report по целевой группе ?
  14. На 4948 типичный график по памяти выглядит так (Version 15.1(1)SG, RELEASE SOFTWARE (fc3)) : Таких порядка 7 из 12, остальные уже на 12.2.54
  15. наверное лечится. Но, после ребута может и вообще не подняться. Так одна померла 4900. Поэтому будем ждать пока не сдохнет и заменим. Может еще год поработает.