Jump to content
Калькуляторы

dmitry_

Пользователи
  • Content Count

    56
  • Joined

  • Last visited

Everything posted by dmitry_


  1. как с одним, так и с 2-мя картина одинаковая, блоки питания тоже одинаковые, отличаются только серийным номером
  2. Есть аналогичный свич 4500х, и спустя всего процесса загрузки пишет Если сидеть в rommon железка не выключается, получается проблема в IOS? Железка: Rom Monitor (P) Version 15.0(1r)SG11 CPU Rev: 2.2, Board Rev: 9, Board Type: 108 CPLD Mobat Rev: 2.0x549a.0x59a4 Chassis: WS-C4500X-16 загружаю IOS: cat4500e-universal.SPA.03.04.02.SG.151-2.SG2.bin Cisco IOS Software, IOS-XE Software, Catalyst 4500 L3 Switch Software (cat4500e-UNIVERSAL-M), Version 03.04.02.SG RELEASE SOFTWARE (fc1) Блоки питания: C4KX-PWR-750AC-R-V01 EMERSON 7001591-J500 REV.AB По цвету блоки питания с вентиляторами совпадают (все красные) Подскажите, в чем может быть проблема?
  3. Это ограничение данной модели свича, мы пару лет тоже думали использовать 3326GSR как L3 свич, но после экспериментов и переписки на форуме Dlink-a, поняли, что это плохая мысль. Используем его только как L2 свич, и то если держать несколько VLAN-ов с включенным igmp_snooping - то TV будет работать только в одном, тот из которого первыми канал запросили смотреть.
  4. никак, DLink это называет не багом, а ограничением в данной серии :) трафика будет больше, соответственно при популярном сервисе IPTV ваша сеть загнется (это же и минус решения vlan на абонента) ps. железка которая будет отдавать каналы по http, должна быть очень серьезной. к примеру один HD канал ~ 10Мбит/с, 100 смотрящих абонентов сделают вам уже 1Гбит/с
  5. У данной железки есть такой артефакт, который проявляется при просмотре IPTV в нескольких виланах (при схеме IPTV без ISM вилана) с включенным igmp_snooping на виланах, проявляется он тем, что каждый канал будет показывать только в одном вилане (который первый на канал подписался). Плюс непонятное увеличение CPU utilisation в таких схемах. Используем на железке только 1 вилан с включенным igmp снупингом. В остальном претензий нет.
  6. кол-во прерываний от сетевой карты, настройки передаются драйверу, на худой момент всегда можно применить RPS
  7. асики форвардят трафик друг другу через fabric Продолжу тему про WS-X6708-10GE + DFC3CXL. Это что получается если порты 1,4,5,7 - 0-я шина (20G), 2,3,6,8 - 1-я шина (20G), пусть пакет идет с 1-го порта на 2-й, то он будет утилизировать Fabric channel 20G как 0-й шины так и 1-й шины? Зачем тогда канал между Fabric ASIC-ами (с DFC между ними)? Кто-нибудь опровергните это или действительно так работает? ps. мысль покупки платы WS-X6716-10G и проливание трафика внутри платы тогда отпадает
  8. А по объему хранилища где лежик кэш видео, как оно растет и примерные его объемы? если трафику в сумме к примеру пару гигабит, то зарулить весь ютубовский трафик (по их AS -> ipset dst) на какую-нибудь кэширующую тачку, то какое предположительно по объему нужно хранилище и по производительности сама машина?
  9. судя по всему каждый следующий destination добавляется к следующему ядру, у нас 4-ядра и 2 destination в ipt_netflow, видно что работает на 2-х ядрах cpu# stat: <search found new, trunc frag alloc maxflows>, sock: <ok fail cberr, bytes>, traffic: <pkt, bytes>, drop: <pkt, bytes> Total stat: 375512613636 2276478461299 95344396434, 0 0 0 0, sock: 2059235300 86 1357198, 9084524023 K, traffic: 2371822857733, 1719003881 MB, drop: 0, 0 K cpu0 stat: 93834663813 568756742860 23896162193, 0 0 0 0, sock: 1483755120 0 1351878, 2121306148 K, traffic: 592652905053, 429723699 MB, drop: 0, 0 K cpu1 stat: 94050266069 569999918215 23796398364, 0 0 0 0, sock: 575480180 86 5320, 6963217875 K, traffic: 593796316579, 429915273 MB, drop: 0, 0 K cpu2 stat: 93824651652 569013481714 23885601122, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 592899082836, 429910613 MB, drop: 0, 0 K cpu3 stat: 93803032102 568708318510 23766234755, 0 0 0 0, sock: 0 0 0, 0 K, traffic: 592474553265, 429454295 MB, drop: 0, 0 K
  10. NAT? Shaping? или простой роутинг?
  11. Несколько постов выше писали(в том числе и я): Двухпроцессорные платформы не дают выигрыша(даже хуже). Некоторые пишут HT вредит системе. Мои результаты не подтверждают это(хотя я в соседней теме написал, что тоже столкнулся с проблемами). Но даже если HT дает 1,5 раза прирост, то вторая платформа не очень выглядит привлекательной. Возможно вам надо оптимизировать софт - на i7-3770 можно вытянуть более 1Мpps и 5Гбит\с(в сумме всех if). Серверные платформы не очень удобны для разгона, а необходимую надежность, при разгоне, только вы сможете оценить. софт крутится на всех шейперах одинаковый, и оптимизировать его не вижу смысла, что скорее всего придется делать то это разгонять проц E5620 или покупать еще одну жельзяку, уже думаю на i7
  12. выложу свои наблюдения по этому поводу имеем 2 разновидности серверов, все на платформах супермикро. на первой платформе стоит проц Intel® Xeon® CPU E31220 @ 3.10GHz - 4 ядра, сетевухи: 2 встроенные e1000e и Intel 82576 2х портовая, из них делаются 2 bond, один на вход, другой на выход. Трафик на каждом bond: ~ 150kpps in/out, 1.33Gb/s in и 600Mb/s out в это время видим загрузку CPUs следующую на второй платформе стоит проц Intel® Xeon® CPU E5620 @ 2.40GHz - 8 ядер, с сетевухами картина идентичная первой Трафик на каждом bond: ~ 145kpps in, 111kpps out, 1.25Gb/s in и 480Mb/s out в это время видим загрузку CPUs следующую На обоих машинах крутятся, nat, htb shaping на in/policing на out, и самописный демон для снятия conntrack - видно что 1 камень загружен чуть больше. Можно сделать вывод что 4-х ядерный проц с большей тактовой частотой справляется лучше с задачами, чем более ядерный, но меньшей тактовой частотой. У меня были мысли разогнать Xeon® CPU E5620 @ 2.40GHz, кто-нибудь таким занимался и стоит ли вообще гнать CPU в таких решениях, не выйдет ли это боком? 2-я платформа покупалась с надеждой, что вытянет честные 2Gb/s, но не тут то было, теперь думаю или разогнать CPU или купить 2-проц, платформа позволяет устанавливать 2
  13. rate и ceil случаем не 2000mbit у корневого класса?
  14. используя 3-ю машину, которая весь трафик (внутренний) разбалансирует на НАТ машины (к примеру через iproute2)
  15. тоже интересуемся этим же вопросом... если интересует решение на PC - то можно попробовать это: http://www.netup.tv/ru-RU/dual_dvb-t-c-ci_card.php или железное - http://www.netup.tv/ru-RU/iptv-combine.php (тут есть варианты установленных интерфейсов)
  16. имеется шасси 6506 с супом SUP720-3BXL + плата WS-X6748-GE-TX с DFC3BXL пытаюсь влить bgp full view и получаю Jan 16 09:08:41: %SYS-DFC1-2-MALLOCFAIL: Memory allocation of 18180 bytes failed from 0x209BD724, alignment 8 Pool: Processor Free: 21560 Cause: Memory fragmentation Alternate Pool: None Free: 0 Cause: No Alternate pool -Process= "XDR LC Background", ipl= 0, pid= 253 -Traceback= 2098FC50 20996264 209BD72C 206FEAF8 20741074 20A832EC 20A83980 20A84B38 20679134 20A1842C 20D3C84C 20A206D0 20A21468 2097A7A4 2097A790 *Jan 16 09:08:42: %FIB-2-FIBDISABLE: Fatal error, slot 1/0 (1): CEF-IPv4: no memry Jan 16 09:08:41: %LFD-DFC1-3-NOOCE: Attempt to get labels from OCE failed - Clearing all OCEs. -Traceback= 206D2E94 20741428 20A832EC 20A83980 20A84B38 20679134 20A1842C 20D3C84C 20A206D0 20A21468 2097A7A4 2097A790 Jan 16 09:08:42: %COMMON_FIB-DFC1-3-NOMEM: Memory allocation failure for fib entry insertion in IPv4 CEF [0x20429600] (fatal) (3946 subsequent failures). Jan 16 09:08:42: %COMMON_FIB-DFC1-4-DISABLING: IPv4 CEF is being disabled due to a fatal error. Jan 16 09:08:42: %XDR-DFC1-6-XDRLCDISABLEREQUEST: Client CEF push requested to be disabled. -Traceback= 20A21DFC 20A7DB24 20A807AC 2042A390 204303F0 20428554 20428718 2097A7A4 2097A790 *Jan 16 09:08:47: %FIB-2-FIBDISABLE: Fatal error, slot 1/0 (1): CEF-Common: no memory 00:06:50: DFC1: cfib_enqueue_object_delete: no memory for cfib_fibmsg_chunk ... ... *Jan 16 09:11:27: %MLSCEF-SP-4-FIB_EXCEPTION_THRESHOLD: Hardware CEF entry usage is at 95% capacity for IPv4 unicast protocol. %Packets to the router's IP will be subject to the output ACLs of the input VLAN *Jan 16 09:11:37: %C6K_MPLS_LC-SP-5-TCAM_EXCEPTION: TCAM exception occured for MPLS, traffic will be software switched *Jan 16 09:11:37: %CFIB-SP-7-CFIB_EXCEPTION: FIB TCAM exception, Some entries will be software switched Jan 16 09:12:08: %MLSCEF-DFC3-4-FIB_EXCEPTION_THRESHOLD: Hardware CEF entry usage is at 95% capacity for MPLS protocol. Jan 16 09:12:19: %CFIB-DFC3-7-CFIB_EXCEPTION: FIB TCAM exception, Some entries will be software switched Jan 16 09:12:19: %C6K_MPLS_LC-DFC3-5-TCAM_EXCEPTION: TCAM exception occured for MPLS, traffic will be software switched после этого на 1 модуле вырубается cef sh cef linecard Slot Flags 6/0 up 1/0 disabled статус cef-a sh cef state CEF Status: RP instance common CEF enabled IPv4 CEF Status: CEF enabled/running dCEF enabled/running CEF switching enabled/running universal per-destination load sharing algorithm, id 4084E4E5 IPv6 CEF Status: CEF disabled/not running dCEF disabled/not running universal per-destination load sharing algorithm, id 4084E4E5 RRP state: I am standby RRP: no RF Peer Presence: no RF PeerComm reached: no RF Progression blocked: never Redundancy mode: sso(3) CEF NSF sync: disabled/not running sh ip cef summary IPv4 CEF is enabled for distributed and running VRF base: 17 prefixes (17/0 fwd/non-fwd) Table id 0 Database epoch: 6 (17 entries at this epoch) на плате памяти, хотя должно быть 1G http://www.cisco.com/en/US/docs/switches/lan/catalyst6500/hardware/Config_Notes/78_12409.html remote command module 1 show memory summary Head Total(b) Used(b) Free(b) Lowest(b) Largest(b) Processor 254DF320 179440672 157982204 21458468 20680 240908 кто с таким сталкивался?
  17. кому интересно решилось вводом команды (ну и конечно же установкой планки памяти 1Г на плату где стоит WS-F6K-PFC3BXL ): mpls label mode all-vrfs protocol bgp-vpnv4 per-vrf на ios-e: s72033-adventerprisek9_wan-mz.122-33.SXI5 таким образом маршруты mpls все метятся 1 меткой памяти сразу стало много свободной
  18. не жует больше 900kpps, а что говорит ethtool -S ethX ethtool -k ethX ethtool -c ethX ethtool -g ethX и как загрузка ЦПУ? настроена ли irq affinity?
  19. в свое время занимался такой-же проблемой, теоретически на ospf схема реализуема, но там нужно переделывать схему ядра сети (делать линки между R1-R3 ptp, R2-R3 ptp или на интерфейсах говорить point-to-multipoint), только тогда можно выставить на каждого neighbor-a ip ospf cost описание тут - http://xgu.ru/wiki/OSPF_%D0%B2_Cisco и вообще все выше описанное корректно работает на оборудовании cisco (к примеру при эксперименте на quagga я получал ошибку) хорошее решение - это перейти на протокол BGP + протюить время схождения, что я собственно и сделал
  20. из-за vrf-a (mpls) он каждый маршрут складывает в tcam 2 раза
  21. да 2 Full view вливается в vrf FV, из этого vrf-a хочу передавать default gw в default таблицу
  22. общие настройки #sh mod Mod Ports Card Type Model Serial No. --- ----- -------------------------------------- ------------------ ----------- 1 48 CEF720 48 port 10/100/1000mb Ethernet WS-X6748-GE-TX 2 24 CEF720 24 port 1000mb SFP WS-X6724-SFP 3 8 CEF720 8 port 10GE with DFC WS-X6708-10GE 6 2 Supervisor Engine 720 (Active) WS-SUP720-3BXL Mod MAC addresses Hw Fw Sw Status --- ---------------------------------- ------ ------------ ------------ ------- 1 ... 2.0 12.2(14r)S5 12.2(33)SXI5 Ok 2 ... 4.4 12.2(18r)S1 12.2(33)SXI5 Ok 3 ... 1.5 12.2(18r)S1 12.2(33)SXI5 Ok 6 ... 4.3 8.1(3) 12.2(33)SXI5 Ok Mod Sub-Module Model Serial Hw Status ---- --------------------------- ------------------ ----------- ------- ------- 1 Centralized Forwarding Card WS-F6700-CFC XXX 2.0 Ok 2 Distributed Forwarding Card WS-F6700-DFC3BXL XXX 5.3 Ok 3 Distributed Forwarding Card WS-F6700-DFC3CXL XXX 1.2 Ok 6 Policy Feature Card 3 WS-F6K-PFC3BXL XXX 1.6 Ok 6 MSFC3 Daughterboard WS-SUP720 XXX 2.3 Ok #sh mls cef maximum-routes FIB TCAM maximum routes : ======================= Current :- ------- IPv4 - 500k MPLS - 400k IPv6 + IP Multicast - 56k (default) без Full view #show mls cef summary module 2 Total routes: 48 IPv4 unicast routes: 31 IPv4 non-vrf routes: 13 IPv4 vrf routes: 18 IPv4 Multicast routes: 4 MPLS routes: 8 IPv6 unicast routes: 1 IPv6 non-vrf routes: 1 IPv6 vrf routes: 0 IPv6 multicast routes: 3 EoM routes: 1 sh cef linecard Slot Flags 6/0 up 2/0 up 3/0 up VRF IPv4:__Platform_iVRF:_ID00_, 11 routes Slot I/Fs State Flags 6/0 0 Active sync, table-up 2/0 0 Active sync, table-up 3/0 0 Active sync, table-up VRF IPv4:FV, 18 routes Slot I/Fs State Flags 6/0 0 Active sync, table-up 2/0 0 Active sync, table-up 3/0 0 Active sync, table-up VRF IPv4:Default, 12 routes Slot I/Fs State Flags 6/0 5 Active sync, table-up 2/0 27 Active sync, table-up 3/0 11 Active sync, table-up VRF IPv6:Default, 2 routes Slot I/Fs State Flags 6/0 0 Active sync, table-up 2/0 0 Active sync, table-up 3/0 0 Active sync, table-up show platform hardware capacity forwarding L2 Forwarding Resources MAC Table usage: Module Collisions Total Used %Used 2 0 65536 20 1% 3 0 98304 20 1% 6 0 65536 20 1% VPN CAM usage: Total Used %Used 512 1 1% L3 Forwarding Resources FIB TCAM usage: Total Used %Used 72 bits (IPv4, MPLS, EoM) 933888 51 1% 144 bits (IP mcast, IPv6) 57344 8 1% detail: Protocol Used %Used IPv4 42 1% MPLS 8 1% EoM 1 1% IPv6 1 1% IPv4 mcast 4 1% IPv6 mcast 3 1% Adjacency usage: Total Used %Used 1048576 174 1% с Full view (влил 2 FV) #show mls cef summary module 2 Total routes: 15 IPv4 unicast routes: 2 IPv4 non-vrf routes: 2 IPv4 vrf routes: 0 IPv4 Multicast routes: 4 MPLS routes: 5 IPv6 unicast routes: 0 IPv6 non-vrf routes: 0 IPv6 vrf routes: 0 IPv6 multicast routes: 3 EoM routes: 1 #sh cef linecard Slot Flags 6/0 up 3/0 up 2/0 disabled VRF IPv4:__Platform_iVRF:_ID00_, 11 routes Slot I/Fs State Flags 6/0 0 Active sync, table-up 3/0 0 Active sync, table-up 2/0 0 Inactive table-disabled VRF IPv4:FV, 385602 routes Slot I/Fs State Flags 6/0 0 Active sync, table-up 3/0 0 Active sync, table-up 2/0 0 Inactive table-disabled VRF IPv4:Default, 13 routes Slot I/Fs State Flags 6/0 5 Active sync, table-up 3/0 11 Active sync, table-up 2/0 27 Active table-disabled VRF IPv6:Default, 2 routes Slot I/Fs State Flags 6/0 0 Active sync, table-up 3/0 0 Active sync, table-up 2/0 0 Active table-disabled #show platform hardware capacity forwarding L2 Forwarding Resources MAC Table usage: Module Collisions Total Used %Used 2 0 65536 19 1% 3 0 98304 19 1% 6 0 65536 19 1% VPN CAM usage: Total Used %Used 512 1 1% L3 Forwarding Resources FIB TCAM usage: Total Used %Used 72 bits (IPv4, MPLS, EoM) 933888 771490 83% 144 bits (IP mcast, IPv6) 57344 8 1% detail: Protocol Used %Used IPv4 385761 41% MPLS 385728 41% EoM 1 1% IPv6 1 1% IPv4 mcast 4 1% IPv6 mcast 3 1% Adjacency usage: Total Used %Used 1048576 385895 37%
  23. show platform hardware pfc mode PFC operating mode : PFC3BXL думаю (но пока не уверен) мало памяти на модуле WS-X6748-GE-TX http://www.cisco.com/en/US/docs/switches/lan/catalyst6500/hardware/Module_Installation/Mod_Install_Guide/0adtrcrd.html циска пишет что для WS-F6700-DFC3BXL - 1 GB (и сноска - Requires a memory upgrade on the base module. Refer to the Catalyst 6500 Series DFC3A, DFC3B, DFC3BXL, DFC3C, and DFC3CXL Installation Note for additional information.) с модуля где установлена DFC remote command module 2 sh ver Cisco IOS Software, c6lc2 Software (c6lc2-SP-M), Version 12.2(33)SXI5, RELEASE SOFTWARE (fc2) Technical Support: http://www.cisco.com/techsupport Copyright (c) 1986-2010 by Cisco Systems, Inc. Compiled Sat 23-Oct-10 01:29 by prod_rel_team ROM: System Bootstrap, Version 12.2(18r)S1, RELEASE SOFTWARE (fc1) core uptime is 2 hours, 50 minutes System returned to ROM by power-on System restarted at 07:22:02 MSK Mon Jan 17 2000 Running default software cisco Catalyst 6000 (SB1121) processor with 262144K bytes of memory. Processor board ID SAL1429NCQ9 SB1121 Processor (Rev 48) Unknown CPU at 400Mhz, Implementation 0x410, Rev 5.0 Last reset from power-on 123K bytes of non-volatile configuration memory. 16384K bytes of Flash internal SIMM (Sector size 256K). Configuration register is 0x100 remote command module 2 sh mem su Head Total(b) Used(b) Free(b) Lowest(b) Largest(b) Processor 254DF320 179440672 109269652 70171020 0 14945948
  24. снял с платы WS-X6748-GE-TX - DFC и прикрутил на нее CFC, табличка bgp влилась без проблем и ошибок но тогда модуль работает в режиме sh fab show fabric active: Active fabric card in slot 6 No backup fabric card in the system show fabric mode: Global switching mode is Compact dCEF mode is not enforced for system to operate Fabric module is not required for system to operate Modules are allowed to operate in bus mode Truncated mode is allowed, due to presence of DFC, CEF720 module Module Slot Switching Mode 1 Crossbar 6 dCEF но так использовать не хочется