Перейти к содержимому
Калькуляторы

evg_b

Активный участник
  • Публикации

    109
  • Зарегистрирован

  • Посещение

Сообщения, опубликованные пользователем evg_b


  1. а собрать самовар, который должен ещё гладить и стирать, ну тут уже простите :)

    проблема то не в этом, самовар справляется, если я разнесу все по разным машинам, то изначальная проблема нестабильности не уйдет. Так что будем думать по поводу покупки оборудования.

     

    Представляю как огорчится когда у него "железное" решение упадет. Как это ни странно, но там на железе тоже софт крутится. Мой опыт показывает что и 1002 циски с PPPoE и NAT изредка крэшятся :)) Правда не наглухо, перезапускают какой-то модуль в софте и через 2-5 минут снова в строю

  2. Вышел 3.10.1. Кто уже опробовал NAT с PAP?

    Протестили - работает нормально, баг с PAP исправлен.

    Теперь можно юзать ASR1K для NAT overload (в режиме CGN+PAP).

    Работает ли в связке с ISG на одной коробке?

    У нас на ASR1K запущен ISG + Netflow версия софта - 03.07.01 проблем нет

    НАТ делаем на x86, может уже можно переносить на ASR?

     

    У нас работает ISG + NAT(pap) + netflow.

     

     

     

    что-то на 3.11.1 прошивке FTP не работает через NAT.

     

     

    ip nat settings mode cgn

    no ip nat settings support mapping outside

    ip nat settings pap limit 1000

    ip nat translation timeout 300

    ip nat translation tcp-timeout 180

    ip nat translation udp-timeout 180

    ip nat translation syn-timeout 180

    ip nat translation dns-timeout 120

    ip nat translation icmp-timeout 120

    ip nat translation max-entries 2000000

    ip nat translation max-entries all-host 500

    ip nat pool 1300 X.X.X.1 X.X.X.2 prefix-length 30

    ip nat pool 1301 X.X.X.5 X.X.X.6 prefix-length 30

    ip nat pool 1302 X.X.X.9 X.X.X.10 prefix-length 30

     

    ip nat inside source list 1300 pool 1300 overload

    ip nat inside source list 1301 pool 1301 overload

    ip nat inside source list 1302 pool 1302 overload

     

     

    У кого-нибудь работает? В чем еще может быть ошибка в нстройках?

     

     

    откатился на 10.1 Все заработало.

  3. Вышел 3.10.1. Кто уже опробовал NAT с PAP?

    Протестили - работает нормально, баг с PAP исправлен.

    Теперь можно юзать ASR1K для NAT overload (в режиме CGN+PAP).

    Работает ли в связке с ISG на одной коробке?

    У нас на ASR1K запущен ISG + Netflow версия софта - 03.07.01 проблем нет

    НАТ делаем на x86, может уже можно переносить на ASR?

     

    У нас работает ISG + NAT(pap) + netflow.

     

     

     

    что-то на 3.11.1 прошивке FTP не работает через NAT.

     

     

    ip nat settings mode cgn

    no ip nat settings support mapping outside

    ip nat settings pap limit 1000

    ip nat translation timeout 300

    ip nat translation tcp-timeout 180

    ip nat translation udp-timeout 180

    ip nat translation syn-timeout 180

    ip nat translation dns-timeout 120

    ip nat translation icmp-timeout 120

    ip nat translation max-entries 2000000

    ip nat translation max-entries all-host 500

    ip nat pool 1300 X.X.X.1 X.X.X.2 prefix-length 30

    ip nat pool 1301 X.X.X.5 X.X.X.6 prefix-length 30

    ip nat pool 1302 X.X.X.9 X.X.X.10 prefix-length 30

     

    ip nat inside source list 1300 pool 1300 overload

    ip nat inside source list 1301 pool 1301 overload

    ip nat inside source list 1302 pool 1302 overload

     

     

    У кого-нибудь работает? В чем еще может быть ошибка в нстройках?

  4. а вообще кто-нибудь подскажет почему на 3200-С1 на прошивке

    4.35.B015 в цепочках где нагрузка побольше особбенно по вечерам наблюдается у абонентов кратковременные периодические пропадания мультикаста.

     

    кусок конфига прилагаю

     

     

    # IGMP_MULTICAST_VLAN

     

    enable igmp_snooping multicast_vlan

    config igmp_snooping multicast_vlan forward_unmatched enable

    create igmp_snooping multicast_vlan 666 666

    config igmp_snooping multicast_vlan 666 state enable replace_source_ip 10.254.11.147

    config igmp_snooping data_driven_learning vlan_name 666 state enable

    config igmp_snooping multicast_vlan 666 add member_port 1-24

    config igmp_snooping multicast_vlan 666 add source_port 25-26

    config igmp_snooping vlan_name 666 fast_leave disable report_suppression disable

     

    config multicast vlan_filtering_mode vlanid 666 filter_unregistered_groups

     

    причем в этой конфигурации магистральные порты настроены оба как sourche и мультикаст ходит.

    Замена даунлинка на tag_member на пропажу мультикаста особо не повлияла.

     

    Косы на сети настроены по DSCP.

     

    В одной из веток помогла замена прошивок на 4.34.

    Но нафик на 4.34 прошивке DHCP relay сходит с ума, хотя на магистральных портах вробе ды выключен ( проявляется как закольцовка пакетов дхсп во влане менеджмента через дхсп сервер).

     

    Такая вот печалька с этими цескашми

  5. + IGMP Snooping:

    - IGMP v1/v2 Snooping

    - Поддержка до 64 групп

    В чем конкретно заключается ограничение 64 групп? Можно ли нормально IPTV (>100 каналов) поднять на таких свитчах?

     

    Да, только не одновременно. Коммутатор может обрабатывать 64 группы, с выключенным data driving и в тупиковой конфигурации все будет нормально.

     

    1228\1210-28

    |-1228\1210-28

    |-1228\1210-28

     

    Максимум три уровня вложенности. В случае супер популярности услуги, может быть и меньше.

    Т.е. если поставите коммтутатора на мини-аггрегацию, то подключенные к нему или за него абоненты могут жаловаться на "не идущие" каналы либо на "переключение с третьего раза".

     

     

    Про 1210 серию написано вроде 256 групп. http://dlink.ru/ru/products/1/1844_b.html

     

    Многоадресная рассылка уровня 2

    • IGMP Snooping

    - IGMP v1/v2 Snooping, v3 awareness

    - Поддержка 256 групп

    - IGMP Snooping Fast Leave на основе VLAN/хоста

    - Report Suppression 1

    • MLD Snooping

    - MLD v1, MLD v2 awareness

    - Поддержка 256 групп

  6. на asr9k в рамках бриджгруппы все красиво решается. а про петлю - это про физ линк между двумя портами коммутатора, когда в один порт разворачиваем xconnect, а с другого принимаем все что хотим и работаем с этим как хотим.

     

    про ASR 9001 c помощью BVI ?

     

    http://www.cisco.com/cisco/web/support/RU/112/1120/1120427_116500-problemsolution-product-00.html

  7. Нельзя так делать если у вас в ядро не смотрят карточки SIP или ES (Для 65-х и 76-х)

    То есть если вы не обладаете такими картами, то делаете петлю между двумя портами:

    1) пробрасываете свой VLAN

    2) Делаете xconnect на удалённую часть.

    На удолённой стороне делаете тоже самое.

     

    triam

     

    Дак в ядре будет ASR 9001 стоять.

    Не совсем понятно про петлю, объясните поподробнее

  8. есть несколько каталистов связанных по MPLS.

     

    на одном из них поднят SVI

     

    interface Vlan3500

    ip address 172.10.10.101 255.255.255.0

    xconnect vfi test_3500

     

     

    Если пинговать данный шлюз с абонентского влана включенного в один из портов данного коммутатора, то шлюз пингуется.

    Если же пинговать данный шлюз с другого конца EoMPLS на втором каталисте, то пинга нет, хотя мак светится.

     

    Так должно быть? или я чего-то не допонимаю.

  9. А9К ,в отличии от 65х (без ES+карт), умеет vpls. Если оно вам конечно надо. Но 3800 (или 3600) для аггрегации (или маленького ядра) выглядит очень неплохо.

    А вообще - 65я очень неплохая железка, есть VSS (активно используем), и все (ну, большая часть :) ) её баги давно пофиксены.

     

    У кого какие впечатления от ASR9000 линейки ?

    ощущение глючности присутствует)) Вот вчера нашла потрясный косяк - из-за span обучает левые арпы на src порту) смешно конечно, но некоторые хосты у некоторых пользователей случайным образом не работают через asr, придется ставить сплиттеры, т.к. от мониторинга отказаться нельзя.

    Ну и кучка подобных приколов.

    Еще очень непривычно конфигурировать, но это думаю вопрос времени.

     

    Со спаном на них всё плохо - ещё и не более 10% трафика, проходящего через NPU (а на нём или один или два 10Г порта висит) можно соспанить. Так что только сплиттерами. На 65х/76х такой проблемы нет - там со спаном всё хорошо.

     

     

    Судя по даташиту данное ограничение по SPAN есть только на старых платах. На платах Typhoon-Based Line Cards (or Enhanced Ethernet ) данного ограничения нет.

    http://www.cisco.com/en/US/products/ps9853/products_tech_note09186a0080c1e944.shtml#anc3

  10. Имеются несколько ME-3800-24FX установленных на агрегации по районам и объединенные в кольцо.

    Запущен mpls. В нем в основном гонятеся L2 VFI и xconnect-ы.

    Сейчас выбираем железо в ядро.

    Необходима поддержка MPLS c L2 vfi, xconnect. Также на вланах ШПД будут подняты несколько сотен интерфейсов ( шлюзы ). С ядра трафик будет уходить по 10Г портам на ASR-1002 ( PPPoE).

    Плюс с ядра же надо зеркалировать на СОРМ.

    Пока остановил выбор на ASR 9001

     

    Какие тут подводные камни могут быть? Что еще можно из цисок можно посмотреть на роль ядра в данном случае.

    ПО даташитам циска пишет производительность для 9001 равную 120 Гбит/c на всю систему - это значит 120 вышло и 120 ушло или 60 вошло и 60 ушло ?

  11. При покупке белых ипов ripe запрашивает статистику использования ранее купленных ипов.

    Каким образом и откуда её можно снять ? и как предоставить райпу ?

  12. кто-нибудь подскажет на ASR 1002 если применять Dynamic Carrier Grade NAT то будет ли работать схема например 1000 серых ипов в 254 белых ?

    Или в этом случае надо использовать Dynamic Port Address Carrier Grade NAT ?

  13. Активно расставляем, в бою прекрасно себя показывают. Если найду свободное время, то еще и E1/T1 на совместимость с RAD потестирую.

     

    Я как понимаю данные железяки поддерживают только xconnect ?

    VFI нету ?

  14. darkagent

     

    А киньте пример rsvp-te настроенный на Me-3600.

    Я у себя поднял MPLS между несколькими Me-3600 и замкнул в кольцо.

    А вот как настроить fast re-route не догоняю.

  15. Так много просмотров, все так активно комментируют как настроить voip-шлюз, а как вопрос посерьёзнее - ответов раз,два и обчёлся.

    Неужели никто больше не может предложить реализацию данного вопроса?

    Привет!

    Компания оператор КТВ и Инет, находимся на этапе запуска услуги телефонии для юр.лиц.

    В качестве АТС выбрали Eltex SMG-1016M, скрестили с BGbilling (авторизация, учет). Присоединение на местном уровне есть к Ростелекому, на этапе тестирования ЗСТТК.

    СОРМ еще не введен в эксплуатацию, бумаги все оформлены.

    В качестве шлюзов выбрали Eltex (RG-14xx, RG-24xx, ТАУ) как самые адекватные на предмет реализации SIP и наличию техподдержки.

    В качестве ВАТС (IVR, MOH, DISA, и пр.) хотим посмотреть на РТУ от МФИ софт как коробочное решение. Вариант с asterisk кажется дешевым, но в перспективе может потребовать кучу времени на реализацию и поддержку (мое личное мнение).

     

    Интересен опыт стыковки SMG с BGBilling. Всё удачно? Без супер костылей обошлись? Мы тоже этим биллингом считаем телематику.

     

    наш опыт- utm5 биллиинг. купили от мфи софт решение РТУ 5 кл + 4 кл. По факту это ДВО плюс железяка Mediant 2000 для стыка по ОКС7 и все пашет и фурычит. За год ни одной остановки услуг по телефонии. Конечон есть проблемы с факсами, но при работе со шлюзами Eltex, они минимальны

  16. а на практике через нат на asr не ходит gre, большие косяки с работой ftp и другими сервисами, критичными к работе через нат. всех физиологических жидкостей не хватит описать то, как криво он в ios xe работает на asr. в макулатуре цискофлудеры черта лысого рисуют, а вот суровая практика обламывает напроч все. у кого есть позитивный практический опыт использования ната на пул адресов на asr?

     

    моя практика такова что нат на пул белых ипов более менее работает на IOS 03.02.01.S.151-1.S1.(type rotary) Все протоколы работают ( сип, фтп, пптп и др.) Изредка нат падает, помогает перезагрузка циски.

    При переходе на более свежий иос и включение CGNAT получил 100 процентную загрузку RP при варианте rotary.В доке по CGNAT тип rotary не поддерживается, соответсвеено можно сделать нат либо один-в-один, либо нат по портам. В случае нат по портам - если тупо написать диапазон серых ипов на диапазон белых ипов, то все сеть серых ипов занатишь в малое количество белых ипов, что не комильфо. Ну и после того как я включил нат по портам, сразу прилетели звонки с ТП по поводу GRE и SIP.

    Как то вот так, поправьте, если у кого-то другой опыт и мнения

  17. Настроил две ME-3800 для раздачи мультикаста.

    конфиг первой.

     

    ip multicast-routing

     

    interface Loopback0

    ip address 192.168.5.1 255.255.255.255

     

    interface Vlan32

    mtu 1580

    ip address 172.16.32.1 255.255.255.0

    ip pim sparse-mode

    mpls ip

     

    interface Vlan667

    ip address 172.30.20.130 255.255.255.252

    ip pim sparse-mode

     

    router ospf 1

    ispf

    timers throttle spf 50 50 5000

    timers throttle lsa 10 20 5000

    timers lsa arrival 10

    timers pacing flood 5

    redistribute static subnets

    network 172.16.32.0 0.0.0.255 area 0

    network 192.168.5.1 0.0.0.0 area 0

    mpls ldp sync

     

    ip pim rp-address 172.30.29.10 IPTV override

    ip route 172.30.29.10 255.255.255.255 172.30.20.129

     

    ip access-list standard IPTV

    permit 239.72.0.0 0.0.255.255

     

     

     

    конфиг второй

     

    ip multicast-routing

    !

    interface Loopback0

    ip address 192.168.5.2 255.255.255.255

     

    interface Vlan32

    mtu 1580

    ip address 172.16.32.2 255.255.255.0

    ip pim sparse-mode

    mpls ip

     

    interface Vlan668

    ip address 10.254.0.1 255.255.0.0

    ip pim passive

     

     

    router ospf 1

    ispf

    timers throttle spf 50 50 5000

    timers throttle lsa 10 20 5000

    timers lsa arrival 10

    timers pacing flood 5

    network 172.16.32.0 0.0.0.255 area 0

    network 192.168.5.2 0.0.0.0 area 0

    mpls ldp sync

     

    ip pim rp-address 172.30.29.10 IPTV override

    !

    ip access-list standard IPTV

    permit 239.72.0.0 0.0.255.255

     

     

    На первой циске interface vlan667 является источником мультикаста. 172.30.29.10 - точка RP на сети поставщика мультикаста.

    На второй циске на interface Vlan668 заказываю мультикаст.

     

    Мультикаст приходит, вещается, но почему первая циска отсылает этот же канал обратно, судя по счетчикам на интерфейсе.

    Вывод с первой циски во время вещания канала 239.72.0.10.

     

    P16#show ip mr

    IP Multicast Routing Table

    Flags: D - Dense, S - Sparse, B - Bidir Group, s - SSM Group, C

    L - Local, P - Pruned, R - RP-bit set, F - Register flag

    T - SPT-bit set, J - Join SPT, M - MSDP created entry, E

    X - Proxy Join Timer Running, A - Candidate for MSDP Adv

    U - URD, I - Received Source Specific Host Report,

    Z - Multicast Tunnel, z - MDT-data group sender,

    Y - Joined MDT-data group, y - Sending to MDT-data group

    G - Received BGP C-Mroute, g - Sent BGP C-Mroute,

    Q - Received BGP S-A Route, q - Sent BGP S-A Route,

    V - RD & Vector, v - Vector

    Outgoing interface flags: H - Hardware switched, A - Assert win

    Timers: Uptime/Expires

    Interface state: Interface, Next-Hop or VCD, State/Mode

     

    (*, 239.72.0.10), 00:01:15/00:03:14, RP 172.30.29.10, flags: S

    Incoming interface: Vlan667, RPF nbr 172.30.20.129

    Outgoing interface list:

    Vlan32, Forward/Sparse, 00:01:15/00:03:14

     

    (*, 224.0.1.40), 14:58:28/00:02:47, RP 0.0.0.0, flags: DCL

    Incoming interface: Null, RPF nbr 0.0.0.0

    Outgoing interface list:

    Vlan667, Forward/Sparse, 01:52:02/00:02:41

     

     

     

    P16#show ip pim neighbor

    PIM Neighbor Table

    Mode: B - Bidir Capable, DR - Designated Router, N - Default DR Priority,

    P - Proxy Capable, S - State Refresh Capable, G - GenID Capable

    Neighbor Interface Uptime/Expires Ver DR

    Address Prio/Mode

    172.16.32.2 Vlan32 01:24:55/00:01:33 v2 1 / DR S P G

    172.30.20.129 Vlan667 01:49:31/00:01:35 v2 N /

    P16#

     

    P16#show ip pim rp

    P16#show ip pim rp

    Group: 239.72.0.10, RP: 172.30.29.10, uptime 00:02:12, expires never

     

     

    Почему трафик льется обратно ?

     

    счетчик с интерфейса откуда приходит мультикаст.

     

    5 minute input rate 8851000 bits/sec, 855 packets/sec

    5 minute output rate 7904000 bits/sec, 739 packets/sec

     

    Как только выключаю канал, счетчик по нолям в обе стороны.

  18. на джуне тоже уходят.

    ay 22 19:47:23.710649 OSPF periodic xmit from X to 224.0.0.5 (IFL 2684276196 area 0.0.0.0)

    May 22 19:47:32.700041 OSPF periodic xmit from X 224.0.0.5 (IFL 2684276196 area 0.0.0.0)

    May 22 19:47:40.261378 OSPF periodic xmit from X to 224.0.0.5 (IFL 2684276196 area 0.0.0.0

     

    Куда копать?

     

     

    А приходят? ospf в фильтре на lo0 разрешен?

     

    спасибо, на лупбэке не был разрешен, после снятия фильтра поднялось все.

  19. MTU с обеих сторон одинаковое на сабинтерфейсах?

    на циске

    GigabitEthernet0/0.1503 is up, line protocol is up

    Hardware is BCM1250 Internal MAC, address is 0000.

    b)

    MTU 1500 bytes, BW 100000 Kbit, DLY 100 usec,

     

     

    на джуне

     

    show interfaces ge-1/1/9.1503

    Logical interface ge-1/1/9.1503 (Index 83) (SNMP ifIndex 572)

    Description: test_ospf

    Flags: SNMP-Traps 0x0 VLAN-Tag [ 0x8100.1503 ] Encapsulation: ENET2

    Input packets : 3624

    Output packets: 2200

    Protocol inet, MTU: 1500

     

    там и там вроде бы 1500