Перейти к содержимому
Калькуляторы

CNick

Активный участник
  • Публикации

    478
  • Зарегистрирован

  • Посещение

Сообщения, опубликованные пользователем CNick


  1. И вы, кстати, попутали ME3600 с ME3800, там всего 16к емкость (а уже в 3800 256к).

    Вы правы, спасибо что поправили :) Кстати только сейчас заметил что 256к это с вариантом Scaled Metro Aggregation Services, что как бы намекает что дальше этой коробки L2 не пойдет, теперь понятней стало. Спасибо всем за объяснения! :)

  2. Давайте на минутку забудем о крупных операторов L3 и MPLS/VPLS, как у них все это работает я знаю. Интересует именно чистый QinQ, его используют как транспорт по городу так как о этом пишут в cisco доках? Вероятность того что у нашего оператора из примера стоит оборудование способное на VPLS ровна нулю :)

  3. Доброе время суток,

     

    Подскажите пожалуйста по QinQ, а то по работе не приходилось сталкиваться, а для получение очередной бумажки нужно заполнить пробелы :)

    Как выглядит сеть с QinQ в наших реалиях и какое оборудование используется в таких сетях?

     

    Например у нас в городе оператор на 50k+ PPPoE абонентов, предлагает L2 транспорт по городу (за QinQ не знаю, но в принципе результат будет похож. Как-то в голове не укладывается как может быть одна большая L2 сеть на весь город, ладно сейчас есть всякие Cisco 4948 c 50k+ и Cisco ME 3600 c 256k маков, но раньше таких коммутаторов не было да и то что они используют в сети больше на Zyxel и Dlink похоже чем на ME 3600 :) Пока что из того что приходит на ум это локальные L2 сегменты с своими PPPoE NAS'ми и L2 ядро в котором бегает только трафик от этих концентраторов + Vlan/QinQ транспорт по городу для корпоративных клиентов.

  4. А чем принципиально CSR отличается от линукса + quagga/bird в виртуалке?

    Если человек знаком с Cisco то сильно удобней будет в плане cli. В quagga он хоть и похож на cisco, но отличия все же есть, когда я пробовал его по приколу год назад сильно ругался, не помню на что именно, вроде route-map был сильно ограничен по функциям. В BIRD конфиг вроде совсем другой, на подобии Juniper.

  5. не нашел цен, но вот тут

    https://www.ciscoliv...03&backBtn=true (нужна регистрация)

    есть картинка, CSR дороже чем железные рутеры. да, получается это хреновая идея

    CRS не правильно сравнивать с харварными решениями потому что их нельзя задеплоить в облаке :)

    Как правильно заметили выше нужно узнать ограничение по трафику в 2.5 мегабита это на проходящий или на control plane тоже, хотя если для IX то и 2.5 мегабит будет достаточно.

  6. Мини-сервер на атоме в помощь. Всяко быстрее мозга циски. Тем более, л3 свичи не поворачивается язык маложрущими называть...

    Я так понимаю вы Cisco видели последний раз лет 10 назад? :) Сейчас там 4 ядерные ксеоны стоят в некоторых моделях даже несколько ;)

     

    да нет, нормальная железка, 512мег памяти даже для большого IX хватит, просто дорого это, если бы у меня был этот рутер, я бы использовал его как рутер, а ставить его как рут-сервер все равно что выкинуть

    Ну если так рассуждать то и сервер дорого, ведь можно взять soho роутер, длинк например и поставить туда openwrt :D

    Даже не знаю сколько должно ходить трафика через IX что бы было дорого поставить роутер за 2-3k$.

  7. Коллеги, подскажите пожалуйста работает ли у вас IP SLA на Cisco Nexus 5/7k в любой из систем мониторинга?

    Пробовал в Observium и Solarwinds обе не могут распознать пробы, а если распознают то не могут вытянуть из них информацию.

  8. MikroTik © Saab95

     

    Если денег сильно больше чем на микротик, тогда Cisco 2900/3900 в которые еще wireless и модуль с сервером (4xCore Xeon, 48G RAM, 2x1T HDD) влезит, который вам весь офис обслуживать будет :)

  9. Какие сервера вы используете на данный момент(вендор/конфигурация) и сколько на них используеться ресурсов?

    Дело в том что от этого очень сильно зависит дизайн сети, вот варианты:

     

    1. Пачка 1U серверов - для них лучше всего подойдет Top Of Rack дизайн где в каждой стойке у вас 2 свича.

    2. Блейд сервера IBM/HP/Dell - Судя подходят варианты с Cisco Nexus + Cisco B22 Fabric Extender

    3. Если по части приложений которые вы используете много серверов которые простаивают по IO/CPU например для приложения нужен выделенный сервер или какой-то API или сервера для DEV/QA/UAT тогда возможно вам подойдет виртуализация и тогда вам стоит посмотреть в сторону Cisco UCS. Это готовое решение где сервера интегрированные с сетью. UCS сильно экономит по части занимаемого места и питания и сильно лучше других вендоров по части управления.

     

    По поводу дизайна сети в не зависимости от вариантов то что вы нарисовали уже давно не делают, сейчас не практикуют отключения 50% серверов при отказе одного коммутатора. Из того что делают сейчас начиная от самого бюджетного варианта и заканчивая самым интересным:

    1. От каждого сервера 2х1g кабеля в два разные свича (можно самые дешевые : ) между ними bond для failover или 2х1g кабеля в один свич в разные модули при условии что у вас модульный свич с двумя супервизорами.

    2. От каждого сервера 2x1g или 2x10g в Cisco Nexus или Nexus + FEX или подобное от конкурентов, то же самое если у вас блейды только FEX там уже внутри корзины с серверами будут и все это в vPC (LACP между разными свичами). Этот вариант лучше первого потому что позволит использовать сразу всю пропускную способность сети и 50% при отказе любого из компонентов.

    3. Cisco UCS - В зависимости от комплектации, будет начиная от 20 заканчивая 80 гигабитами на сервер. Сразу может показаться сильно избыточным, но типичная набивка сервера это 20 ядер + 256 гиг оперативки. Один такой сервер заменит вам ~ 5-10 1u серверов двухлетней давности при том что места он занимает на 30% меньше.

     

    Еще нужно знать планируете ли вы использовать системы хранения данных. Судя по описанию контента у вас нет, а тот что есть в основном на CDN. Если так то не нужно выбрасывать деньги на всякие дорогие штуки типа FC, FCoE, iSCSI, Infiniband итд итп. Выбор очень велик главное знать подход если весь упор на ПО по части отказоустойчивости то нужно смотреть в сторону дешевого оборудования куда блейдам, UCS и Nexus путь заказан, а если ентерпрайз то там совсем другие устройства и схемы :)

     

    2) советую все-таки посмотреть на отдельный контур SAN на infiniband например.

    Судя по описанию это веб приложение, а там SAN/Infiniband даром не нужен :)

  10. Кстати у многих больших операторов таких как Verizon, BT, Level3 разные подразделения занимаються магистралями, сетями доступа, датацентрами. Там нету одной большой сети на весь мир которой рулят один и те же люди :) Ну а отвечать за один строительный блок гораздо легче. Кто-то будет DWDM/MPLS крутить, другие будут отвечать за датацентры, третьи будут на уровне одного города раздавать интернет, ну а кто-то выше будет рулить политикой партии для всех подразделений :)

     

    По поводу того что ASR/CRS не нужны, первые очень фичастые и используються как PE или BGP, в 6500 таких функция как VPLS,OAM,IPoDWDM,PTP/GPS sync нет :)

    CRS как ядро, он маштабируеться до 72 коробок в каждую можно 32x100G интерфейсов запихнуть, тут тоже 6500 и микротик не конкуренты :)

  11. У нас это основная проблема, никто из технарей крутить гайки и прокладывать провода не будет, а команды в датацентрах не всегда аккуратные.

    Хорошо когда большая компания и есть отдельно команда кабельщиков 85 уровня, но очень часто бывает что люди понятия не имеют как обращаться с оптикой и даже с многомодом иногда по 5 раз перетыкать нужно просить что бы линк заработал от СХД/Блейд сервер до свича.

  12. Читаю топик и такое впечатление что на другую планету попал :) Из того что видел у заокеанских кастомеров в датацентрах MM все что не транзит по городу или конекшины к точкам присутствия операторов в том же датацентре, все остальное строго MM. Я так понимаю это потому что коннекторы ММ не так чувствительный к загрязнению или плохому подключению.

  13. Не знаю о чем это вы, читаю сейчас доку http://www.cisco.com/en/US/prod/collateral/switches/ps9441/ps13386/white-paper-c11-729384.pdf О последних нексусах, мультимод живее всех живых :)

    40 гиг по двум старым MMF с LC конекторами аж бегом :)

  14. Зря смеётесь. Не так давно перенастраивал одну железку, у которой только web, она была доступна только с одного сервера(проброс X жутко тормозил, даже с компрессией), пришлось через w3m, даже осилил как в нём с фреймами работать.

    пффф, w3m шикарен, под ним спокойно можно в гугле доки искать прям с консоли сервера :)

     

    Так RAS/tcpip - это windows 95 минимум.

    К тому времени на Linux тоже с графикой было нормально.

    У меня этот период попал на windows 2003/freebsd4.7/Linux Read Hat 7.3/9.0

    Графика была, но на сервере где я в первый раз FreeBSD увидел ее не было, да и толку с нее если ничего сделать нельзя без консоли )

  15. А на чем Вы тогда сети строили?

     

    DOS и AT- команды в модемах как-то не очень гуевости способствовали.. Или локальные сети на Netware? Так она гуевой тоже весьма условно была.

    Строить сети это сильно громко сказано :) Я тогда школьником был и занимался в основном баловством с графикой, интернет был через Windows/RAS + DialUP. На этом знакомство с сетями закончилось пока не узнал о Linux/FreeBSD/Cisco.

  16. Так и что делать? :) У меня в доме тоже заземления нету, а УЗО и в помине нету... кстати почему в тебе именно за стиралку спрашивают, она входит в особую группу риска?

  17. Изучай его оперативку хоть до позеленения: она при каждом снятии питания пустеет ;-)

    Года 2-3 назад читал о экспериментах с охлаждением оперативки в работающем компьютере для последующего извлечения и снятия информации, вроде несколько часов у них инфа жила без питания :)

     

    Не утверждаю что такое есть, но так просто FYI

     

    Данные в оперативной памяти вроде пока еще не шифруют. Из того что последний раз видел максимум что делали это рандомизацию адресов, но это больше защита от других процессов, с охлаждением оперативки это не поможет :)

  18. И в роут мап может поставит set MPLS-label.

    Вы были правы, поставил в route-map который был на neighbor x.x.x.x out "set mpls-label" и все заработало.

     

    redistribute ospf 1 match internal route-map BGP_LABEL

    no neighbor 12.1.19.19 route-map BGP_LABEL out

     

    Вы тоже правы так будет работать. И роутер даже дает небольшое объяснение: "% "BGP_LABEL" used as redistribute isis into bgp route-map, set mpls label not supported"

    То есть опция set mpls-label работает только в route-map который отдельно на neighbor, в редистрибюции опция игнорируется и route-map работает как "обычный" фильтр.

     

    Спасибо всем, что помогли разобраться :) Надеюсь через 3 месяца не забуду и не прийдеться снова спрашивать :D

     

    (А например в juniper можно строго указать, что нужно посылать только labeled, или только не-labeled, или и те и другие).

    Прикольно, не знал. Нужно будет как-то попробовать, а то пока ничего кроме сетей с cisco в продакшине не видел :)