Jump to content
Калькуляторы

mse.rus77

Активный участник
  • Content Count

    274
  • Joined

  • Last visited

Everything posted by mse.rus77


  1. Коллеги, приветствую! Буквально 30 минут назад отвалился МХ80, в логе после ребута: Message from syslogd@MX80 at Jun 26 17:14:15 ... MX80 tfeb0 CMT: Fatal ASIC initialization error, Offlining FPC Jun 26 17:14:15 MX80 tfeb0 CMT: Fatal ASIC initialization error, Offlining FPC Jun 26 17:14:15 MX80 tfeb0 HSL2: Missing end/ends for table-trained/channel-trained channel in offset 2 Jun 26 17:14:15 MX80 tfeb0 HSL2: Table-trained sub_table 0 failed verification. Jun 26 17:14:15 MX80 tfeb0 HSL2: cmtfpc_hsl2_bringup: hsl2_table_trained_bringup failed (1) Jun 26 17:14:15 MX80 tfeb0 CMT: Failed to initialize HSL2 channels: generic failure Message from syslogd@MX80 at Jun 26 17:14:15 ... MX80 tfeb0 CMT: Error initializing PFE asics Jun 26 17:14:15 MX80 tfeb0 CMT: Error initializing PFE asics Message from syslogd@MX80 at Jun 26 17:14:30 ... MX80 tfeb0 CMLC: Chassis Manager terminated Jun 26 17:14:30 MX80 tfeb0 CMLC: Chassis Manager terminated Message from syslogd@MX80 at Jun 26 17:14:30 ... MX80 tfeb0 Oinker: Function CM Watchdog (0x402bb9e4) took 29068 us Jun 26 17:14:30 MX80 tfeb0 Oinker: Function CM Watchdog (0x402bb9e4) took 29068 us Jun 26 17:14:50 MX80 mib2d[1473]: SNMP_TRAP_LINK_DOWN: ifIndex 17, ifAdminStatus up(1), ifOperStatus down(2), ifName em0 Jun 26 17:14:53 MX80 /kernel: tcp_timer_keep: Dropping socket connection due to keepalive timer expiration Jun 26 17:14:55 MX80 last message repeated 3 times Jun 26 17:14:55 MX80 /kernel: peer_input_pending_internal:[4387] VKS0 for peer type 17 indx 0 reported a so_error 60 Jun 26 17:14:55 MX80 /kernel: peer_inputs:4705 VKS0 closing connection peer type 17 indx 0 err 5 Jun 26 17:14:55 MX80 /kernel: pfe_listener_disconnect: conn dropped: listener idx=0, tnpaddr=0x80000032, reason: socket error Jun 26 17:15:13 MX80 ppmd[1385]: ppmd_rpm_rpc_build_helper: 232 type 1 Jun 26 17:15:13 MX80 /kernel: pic_listener_connect: conn established: mgmt addr=0x80000032, Jun 26 17:15:13 MX80 tfeb0 ce_coc12_mic_module_init:1524: @# defaulting to NOT emitting syslogs for ce_coc12_mic_trace() Jun 26 17:15:14 MX80 tfeb0 CLKSYNC: failed to connect to Master Jun 26 17:15:14 MX80 tfeb0 L2ALM: failed to connect to Master Jun 26 17:15:15 MX80 tfeb0 pfe_pme_max 24 Jun 26 17:15:17 MX80 tfeb0 CLKSYNC: master RE connection made Jun 26 17:15:18 MX80 tfeb0 L2ALM master RE connection made Jun 26 17:15:19 MX80 tfeb0 RamBIST:LU-CHIP[0] RLDRAM 0 BIST: Memory Error Jun 26 17:15:19 MX80 tfeb0 RamBIST:LU-CHIP[0] RLDRAM 0 BIST: Test Name:Unique Address (Bottom-Up) Jun 26 17:15:19 MX80 tfeb0 RamBIST:LU-CHIP[0] RLDRAM 0 BIST: Error Count: 4 Jun 26 17:15:19 MX80 tfeb0 RamBIST:LU-CHIP[0] RLDRAM 0 BIST: Error Address: Raw: 0x0000000000000000 Cell: 0x0000000000000000, Burst: 0, Bank: 0 Jun 26 17:15:19 MX80 tfeb0 RamBIST:LU-CHIP[0] RLDRAM 0 BIST: Actual Data: 0x00000000000000000040001000000000 Jun 26 17:15:19 MX80 tfeb0 RamBIST:LU-CHIP[0] RLDRAM 0 BIST: Expected Data: 0x00000000000000000000000000800020 Jun 26 17:15:20 MX80 tfeb0 RamBIST:LU-CHIP[0] RLDRAM 0 BIST: Vector Data: 0x000000000000000000000000009c0027 Message from syslogd@MX80 at Jun 26 17:15:20 ... MX80 tfeb0 LUCHIP(0): Bist RLDRAM 0 failed Jun 26 17:15:20 MX80 tfeb0 LUCHIP(0): Bist RLDRAM 0 failed Jun 26 17:15:20 MX80 tfeb0 CMT: LU0 init failed, generic failure Jun 26 17:15:20 MX80 tfeb0 CMT: Failed to init LU chip 0.0 Jun 26 17:15:28 MX80 tfeb0 CMT: Failed to start ASICs, PFE ID 0 Message from syslogd@MX80 at Jun 26 17:15:28 ... MX80 tfeb0 CMT: Fatal ASIC initialization error, Offlining FPC Jun 26 17:15:28 MX80 tfeb0 CMT: Fatal ASIC initialization error, Offlining FPC Jun 26 17:15:28 MX80 tfeb0 HSL2: Missing end/ends for table-trained/channel-trained channel in offset 2 Jun 26 17:15:28 MX80 tfeb0 HSL2: Table-trained sub_table 0 failed verification. Jun 26 17:15:28 MX80 tfeb0 HSL2: cmtfpc_hsl2_bringup: hsl2_table_trained_bringup failed (1) Jun 26 17:15:28 MX80 tfeb0 CMT: Failed to initialize HSL2 channels: generic failure Message from syslogd@MX80 at Jun 26 17:15:28 ... MX80 tfeb0 CMT: Error initializing PFE asics Jun 26 17:15:28 MX80 tfeb0 CMT: Error initializing PFE asics Все, сдох бобик или память? user@MX80> show chassis fpc Temp CPU Utilization (%) Memory Utilization (%) Slot State © Total Interrupt DRAM (MB) Heap Buffer 0 Empty 1 Empty
  2. Он видимо про такие Cisco GLC-LH-SMD 1000BASE-LX/LH. SFP is the special type of transceiver that can both support single-mode and multimode fibers.
  3. Последнее сообщение в этой теме: PuZaN Из опыта В прошлую пятницу (13 марта) столкнулись с тем что сгорел многомодовый конвертер, естественно запасных нету(( Линк старый, длина 120-130метров. Поставили конвертора под sfp-модуль. Туда воткнули гигабитные WDM Opticin-ы на 3км. У клиента поставили гигабитную Длинковскую "мыльницу". Патчкорды использовали старые многомодовые. Всё заработало. Пардон, запутался, там тоже про СМ на ММ кабеле.
  4. А есть ссыль, пожалуйста? хотелось бы больше об этом узнать.
  5. Я юзал на лабораторном стенде SM трансы на ММ патчах, проблем не было, кроме моральных страданий.   Да я бы подключил и проверил. Только трафик надо дать, бывает если и есть ЦРЦ, то начинает после определенного порога щелкать.
  6. Коллеги, приветствую! Есть CCR1036-12G-4S, в него включены два сервера с Windows server 2016. На микроте созданы два бонда, в каждом бонде по паре 1G меди, Mode 802.3ad THP: Layer 2 and 3 (пробовали и просто L2). На винде соответственно собран тиминг адаптеров, и в целом все хорошо, траф бегает, но не более 1Гб/секю Для примера, с сервера №1 льем файло на сервер №2, все упирается в гигабит, но при этом трафик от сервера №1 размазан по линкам 50/50, а вот уже после микрота на сервер №2 трафик идет только по одному линку. Это же получается фишка LACP + по одному хосту на каждом бонде? Это как-то можно обойти? Спасибо за внимание!
  7. Сейчас разобрали LACP, оставили по обычному 1Gbps линку на каждый сервер, будем смотреть.
  8. Нет, 10Г там и подавно нет. Юзеры вообще на 100М аплинке к микроту с мира идут.
  9. У нас сейчас проблема с лагом RDP сессий, при этом пинги не теряются, rtt тоже.
  10. Вот есть ощущение, что мы его и поимели. Рандомно начинают лагать RDP сессии до серваков, просто фризит картинку, иногда отваливает соединение. Такое вписывается в этот кейс?
  11. Да, есть спец. сборки образа ПО с грозозащитой, с защитой от статики, есть даже тестовая с поддержкой 3г модема через DB-9. Все, выдыхаю)
  12. а есть еще МК с фичей выбора "гасить опту при отсутствии линка на меди и наоборот"
  13. нужен кондиционер воздуха
  14. значит пострадает и в самое ближайшее и непредсказуемое время. Таков закон. Хоть мониторите?
  15. Коллеги, добрый день! Есть пачка EX4200 в ДЦ, заметил, что некоторые вентили в Full Speed, а какие-то в Normal show chassis environment Class Item Status Measurement Power FPC 0 Power Supply 0 OK FPC 0 Power Supply 1 OK FPC 1 Power Supply 0 OK FPC 1 Power Supply 1 OK Temp FPC 0 CPU OK 48 degrees C / 118 degrees F FPC 0 EX-PFE1 OK 52 degrees C / 125 degrees F FPC 0 EX-PFE2 OK 65 degrees C / 149 degrees F FPC 0 EX-PFE3 OK 52 degrees C / 125 degrees F FPC 0 GEPHY Front Left OK 38 degrees C / 100 degrees F FPC 0 GEPHY Front Middle OK 46 degrees C / 114 degrees F FPC 0 GEPHY Front Right OK 41 degrees C / 105 degrees F FPC 0 Uplink Conn OK 43 degrees C / 109 degrees F FPC 1 CPU OK 54 degrees C / 129 degrees F FPC 1 EX-PFE1 OK 56 degrees C / 132 degrees F FPC 1 EX-PFE2 OK 61 degrees C / 141 degrees F FPC 1 EX-PFE3 OK 59 degrees C / 138 degrees F FPC 1 GEPHY Front Left OK 40 degrees C / 104 degrees F FPC 1 GEPHY Front Middle OK 47 degrees C / 116 degrees F FPC 1 GEPHY Front Right OK 41 degrees C / 105 degrees F FPC 1 Uplink Conn OK 40 degrees C / 104 degrees F Fans FPC 0 Fan 1 OK Spinning at full speed FPC 0 Fan 2 OK Spinning at full speed FPC 0 Fan 3 OK Spinning at full speed FPC 1 Fan 1 OK Spinning at normal speed FPC 1 Fan 2 OK Spinning at normal speed FPC 1 Fan 3 OK Spinning at normal speed show chassis environment Class Item Status Measurement Power FPC 2 Power Supply 0 OK FPC 2 Power Supply 1 OK FPC 3 Power Supply 0 OK FPC 3 Power Supply 1 OK FPC 4 Power Supply 0 OK FPC 4 Power Supply 1 OK FPC 5 Power Supply 0 OK FPC 5 Power Supply 1 OK FPC 6 Power Supply 0 OK FPC 6 Power Supply 1 OK Temp FPC 2 CPU OK 46 degrees C / 114 degrees F FPC 2 EX-PFE1 OK 52 degrees C / 125 degrees F FPC 2 EX-PFE2 OK 62 degrees C / 143 degrees F FPC 2 EX-PFE3 OK 54 degrees C / 129 degrees F FPC 2 GEPHY Front Left OK 34 degrees C / 93 degrees F FPC 2 GEPHY Front Middle OK 44 degrees C / 111 degrees F FPC 2 GEPHY Front Right OK 35 degrees C / 95 degrees F FPC 2 Uplink Conn OK 40 degrees C / 104 degrees F FPC 3 CPU OK 39 degrees C / 102 degrees F FPC 3 EX-PFE1 OK 48 degrees C / 118 degrees F FPC 3 EX-PFE2 OK 66 degrees C / 150 degrees F FPC 3 EX-PFE3 OK 53 degrees C / 127 degrees F FPC 3 GEPHY Front Left OK 30 degrees C / 86 degrees F FPC 3 GEPHY Front Middle OK 44 degrees C / 111 degrees F FPC 3 GEPHY Front Right OK 42 degrees C / 107 degrees F FPC 3 Uplink Conn OK 39 degrees C / 102 degrees F FPC 4 CPU OK 36 degrees C / 96 degrees F FPC 4 EX-PFE1 OK 48 degrees C / 118 degrees F FPC 4 EX-PFE2 OK 62 degrees C / 143 degrees F FPC 4 EX-PFE3 OK 52 degrees C / 125 degrees F FPC 4 GEPHY Front Left OK 30 degrees C / 86 degrees F FPC 4 GEPHY Front Middle OK 43 degrees C / 109 degrees F FPC 4 GEPHY Front Right OK 41 degrees C / 105 degrees F FPC 4 Uplink Conn OK 41 degrees C / 105 degrees F FPC 5 CPU OK 34 degrees C / 93 degrees F FPC 5 EX-PFE1 OK 43 degrees C / 109 degrees F FPC 5 EX-PFE2 OK 61 degrees C / 141 degrees F FPC 5 EX-PFE3 OK 48 degrees C / 118 degrees F FPC 5 GEPHY Front Left OK 27 degrees C / 80 degrees F FPC 5 GEPHY Front Middle OK 34 degrees C / 93 degrees F FPC 5 GEPHY Front Right OK 34 degrees C / 93 degrees F FPC 5 Uplink Conn OK 39 degrees C / 102 degrees F FPC 6 CPU OK 35 degrees C / 95 degrees F FPC 6 EX-PFE1 OK 46 degrees C / 114 degrees F FPC 6 EX-PFE2 OK 60 degrees C / 140 degrees F FPC 6 EX-PFE3 OK 48 degrees C / 118 degrees F FPC 6 GEPHY Front Left OK 26 degrees C / 78 degrees F FPC 6 GEPHY Front Middle OK 31 degrees C / 87 degrees F FPC 6 GEPHY Front Right OK 33 degrees C / 91 degrees F FPC 6 Uplink Conn OK 39 degrees C / 102 degrees F Fans FPC 2 Fan 1 OK Spinning at normal speed FPC 2 Fan 2 OK Spinning at normal speed FPC 2 Fan 3 OK Spinning at normal speed FPC 3 Fan 1 OK Spinning at full speed FPC 3 Fan 2 OK Spinning at full speed FPC 3 Fan 3 OK Spinning at full speed FPC 4 Fan 1 OK Spinning at normal speed FPC 4 Fan 2 OK Spinning at normal speed FPC 4 Fan 3 OK Spinning at normal speed FPC 5 Fan 1 OK Spinning at normal speed FPC 5 Fan 2 OK Spinning at normal speed FPC 5 Fan 3 OK Spinning at normal speed FPC 6 Fan 1 OK Spinning at normal speed FPC 6 Fan 2 OK Spinning at normal speed FPC 6 Fan 3 OK Spinning at normal speed Можно ли по данному выводу предположить, что вентили "Spinning at full speed" подходят и требуют чиски/замены? Иногда еще замечаю, что один Fan из трех начинает вращаться "Spinning at full speed", а остальные в Normal. Спасибо за внимание.
  16. XYZ упал

    А у нас никакого всплеска, просто ХТ протух без прелюдий. В прошлый раз тоже так сайт лежал, видимо база недоступна получается, при краше.
  17. XYZ упал

    видимо под НЕ и были запланированы работы, а то уже было, что они вылили префы НЕ (после анонса в новосятх) и все попадало нах.
  18. XYZ упал

    Я вот что-то не могу вспомнить, но не многовато ли префиксов от них прилетает, вроде под 30к было раутов, ни или это НЕ снова приплыл. run show bgp summary | match 178.18 178.18.224.100 50952 23067 19 0 4 6:05 0/95010/0/0 0/0/0/0 178.18.227.100 50952 21808 20 0 6 6:41 0/94241/0/0 0/0/0/0 У них на стате следующие цифры: КОЛИЧЕСТВО ASN: 397 КОЛИЧЕСТВО ПОРТОВ: 1909 IPV4 ПРЕФИКСОВ: 78423
  19. XYZ упал

    начало подниматься, судя про даунтайму был ребут чего-то, пока в deny-all на imp и exp загнал
  20. XYZ упал

    DATA-IX на M-9, сейчас: Jun 25 16:35:39.387357 bgp_hold_timeout:4672: NOTIFICATION sent to 178.18.227.100 (External AS 50952): code 4 (Hold Timer Expired Error), Reason: holdtime expired for 178.18.227.100 (External AS 50952), socket buffer sndcc: 38 rcvcc: 0 TCP state: 4, snd_una: 499023051 snd_nxt: 499023089 snd_wnd: 29056 rcv_nxt: 690242164 rcv_adv: 690258548, hold timer 90s, hold timer remain 0s, last sent 26s, TCP port (local 50739, remote 179) Jun 25 16:35:39.387862 RPD_BGP_NEIGHBOR_STATE_CHANGED: BGP peer 178.18.227.100 (External AS 50952) changed state from Established to Idle (event HoldTime) (instance master) Jun 25 16:35:44.895405 bgp_hold_timeout:4672: NOTIFICATION sent to 178.18.224.100 (External AS 50952): code 4 (Hold Timer Expired Error), Reason: holdtime expired for 178.18.224.100 (External AS 50952), socket buffer sndcc: 57 rcvcc: 0 TCP state: 4, snd_una: 1998900452 snd_nxt: 1998900509 snd_wnd: 14600 rcv_nxt: 3331532646 rcv_adv: 3331549030, hold timer 90s, hold timer remain 0s, last sent 18s, TCP port (local 56192, remote 179) Jun 25 16:35:44.896004 RPD_BGP_NEIGHBOR_STATE_CHANGED: BGP peer 178.18.224.100 (External AS 50952) changed state from Established to Idle (event HoldTime) (instance master) оба пира в дауне, слава прошедшим ночью техработам, видимо(
  21. XYZ упал

    http://www.opennet.ru/opennews/art.shtml?num=50955 Утечка BGP-маршрутов привела к массовому нарушению связности в интернете Компания Cloudflare опубликовала отчёт о вчерашнем инциденте, в результате которого на протяжении трёх часов с 13:34 до 16:26 (MSK) наблюдались проблемы с доступом ко многим ресурсам в глобальной сети, включая инфраструктуру Cloudflare, Facebook, Akamai, Apple, Linode и Amazon AWS. Проблемы в инфраструктуре Cloudflare, которая предоставляет CDN для 16 млн сайтов, наблюдались с 14:02 до 16:02 (MSK). По оценке Cloudflare во время сбоя фиксировалась потеря приблизительно 15% глобального трафика. Проблема была вызвана утечкой маршрутов через BGP, в ходе которой около 20 тысяч префиксов для 2400 сетей были некорректно перенаправлены. Источником утечки был провайдер DQE Communications, который использовал ПО BGP Optimizer для оптимизации маршрутизации. BGP Optimizer разбивает IP-префиксы на более мелкие, например, разделяет 104.20.0.0/20 на 104.20.0.0/21 и 104.20.8.0/21, и, как следствие, DQE Communications держал на своей стороне большое число специфичных маршрутов, переопределяющих более общие маршруты (т.е. вместо общих маршрутов к Cloudflare использовались более гранулированные маршруты к конкретным подсетям Cloudflare).
  22. Ого! И ни слова про покупку второго некротика, браво!
  23. XYZ упал

    ага May 22 12:03:50.567379 RPD_BGP_NEIGHBOR_STATE_CHANGED: BGP peer 178.18.224.100 (External AS 50952) changed state from OpenConfirm to Established (event RecvKeepAlive) (instance master) May 22 12:07:54.634972 RPD_BGP_NEIGHBOR_STATE_CHANGED: BGP peer 178.18.227.100 (External AS 50952) changed state from OpenConfirm to Established (event RecvKeepAlive) (instance master)