Jump to content
Калькуляторы

CNick

Активный участник
  • Content Count

    478
  • Joined

  • Last visited

Everything posted by CNick


  1. Управляется программно

    Вы правы, просто я не так вас понял в начале. А вот тут я снова не понял только уже идею SDN, в чем разница между контроллером SDN и контроллером для MPLS-TE? В том что первый использует открытый openflow, а не RSVP/GMPLS и это проще и позволяет сделать то же самое только до конечного устройства, а не только в ядре на крутых железках? А может это очередной способ подогреть продажи? :) Раньше все платили за железо, а сейчас за контроллеры будут и лицензии на 50, 100 и 200 устройств :) Можно как с виртуализацией сделать, навязать всем что она нужна, что это спасение и что странно как раньше без нее все работало, даже тем кому она и даром не сдалась навязать и продавать потом лицензии на vSphere и Windows с Hyper-V :)
  2. Управляется программно

    Честно признаюсь с SDN не сталкивался, но из того что понял по одному из докладов гугла и коментариям к нему то перрфлоу это не иллюзия, просто работает это на подобии RSVP-TE только через Openflow :) Вот доклад если кому интересно http://www.opennetsummit.org/archives/apr12/hoelzle-tue-openflow.pdf гугл уже два года как полностью на SDN внутри.
  3. Управляется программно

    дык на сайте уже месяц или два :) https://meraki.cisco.com/products/
  4. Может Mini ITX + Linux? Грузиться будет секунд 5-10 :)
  5. Наверно считают как 95% http://en.wikipedia.org/wiki/Burstable_billing
  6. Доброе время суток, Подскажите пожалуйста по QinQ, а то по работе не приходилось сталкиваться, а для получение очередной бумажки нужно заполнить пробелы :) Как выглядит сеть с QinQ в наших реалиях и какое оборудование используется в таких сетях? Например у нас в городе оператор на 50k+ PPPoE абонентов, предлагает L2 транспорт по городу (за QinQ не знаю, но в принципе результат будет похож. Как-то в голове не укладывается как может быть одна большая L2 сеть на весь город, ладно сейчас есть всякие Cisco 4948 c 50k+ и Cisco ME 3600 c 256k маков, но раньше таких коммутаторов не было да и то что они используют в сети больше на Zyxel и Dlink похоже чем на ME 3600 :) Пока что из того что приходит на ум это локальные L2 сегменты с своими PPPoE NAS'ми и L2 ядро в котором бегает только трафик от этих концентраторов + Vlan/QinQ транспорт по городу для корпоративных клиентов.
  7. Вы правы, спасибо что поправили :) Кстати только сейчас заметил что 256к это с вариантом Scaled Metro Aggregation Services, что как бы намекает что дальше этой коробки L2 не пойдет, теперь понятней стало. Спасибо всем за объяснения! :)
  8. Давайте на минутку забудем о крупных операторов L3 и MPLS/VPLS, как у них все это работает я знаю. Интересует именно чистый QinQ, его используют как транспорт по городу так как о этом пишут в cisco доках? Вероятность того что у нашего оператора из примера стоит оборудование способное на VPLS ровна нулю :)
  9. Если человек знаком с Cisco то сильно удобней будет в плане cli. В quagga он хоть и похож на cisco, но отличия все же есть, когда я пробовал его по приколу год назад сильно ругался, не помню на что именно, вроде route-map был сильно ограничен по функциям. В BIRD конфиг вроде совсем другой, на подобии Juniper.
  10. CRS не правильно сравнивать с харварными решениями потому что их нельзя задеплоить в облаке :) Как правильно заметили выше нужно узнать ограничение по трафику в 2.5 мегабита это на проходящий или на control plane тоже, хотя если для IX то и 2.5 мегабит будет достаточно.
  11. Я так понимаю вы Cisco видели последний раз лет 10 назад? :) Сейчас там 4 ядерные ксеоны стоят в некоторых моделях даже несколько ;) Ну если так рассуждать то и сервер дорого, ведь можно взять soho роутер, длинк например и поставить туда openwrt :D Даже не знаю сколько должно ходить трафика через IX что бы было дорого поставить роутер за 2-3k$.
  12. Коллеги, подскажите пожалуйста работает ли у вас IP SLA на Cisco Nexus 5/7k в любой из систем мониторинга? Пробовал в Observium и Solarwinds обе не могут распознать пробы, а если распознают то не могут вытянуть из них информацию.
  13. MikroTik © Saab95 Если денег сильно больше чем на микротик, тогда Cisco 2900/3900 в которые еще wireless и модуль с сервером (4xCore Xeon, 48G RAM, 2x1T HDD) влезит, который вам весь офис обслуживать будет :)
  14. Какие сервера вы используете на данный момент(вендор/конфигурация) и сколько на них используеться ресурсов? Дело в том что от этого очень сильно зависит дизайн сети, вот варианты: 1. Пачка 1U серверов - для них лучше всего подойдет Top Of Rack дизайн где в каждой стойке у вас 2 свича. 2. Блейд сервера IBM/HP/Dell - Судя подходят варианты с Cisco Nexus + Cisco B22 Fabric Extender 3. Если по части приложений которые вы используете много серверов которые простаивают по IO/CPU например для приложения нужен выделенный сервер или какой-то API или сервера для DEV/QA/UAT тогда возможно вам подойдет виртуализация и тогда вам стоит посмотреть в сторону Cisco UCS. Это готовое решение где сервера интегрированные с сетью. UCS сильно экономит по части занимаемого места и питания и сильно лучше других вендоров по части управления. По поводу дизайна сети в не зависимости от вариантов то что вы нарисовали уже давно не делают, сейчас не практикуют отключения 50% серверов при отказе одного коммутатора. Из того что делают сейчас начиная от самого бюджетного варианта и заканчивая самым интересным: 1. От каждого сервера 2х1g кабеля в два разные свича (можно самые дешевые : ) между ними bond для failover или 2х1g кабеля в один свич в разные модули при условии что у вас модульный свич с двумя супервизорами. 2. От каждого сервера 2x1g или 2x10g в Cisco Nexus или Nexus + FEX или подобное от конкурентов, то же самое если у вас блейды только FEX там уже внутри корзины с серверами будут и все это в vPC (LACP между разными свичами). Этот вариант лучше первого потому что позволит использовать сразу всю пропускную способность сети и 50% при отказе любого из компонентов. 3. Cisco UCS - В зависимости от комплектации, будет начиная от 20 заканчивая 80 гигабитами на сервер. Сразу может показаться сильно избыточным, но типичная набивка сервера это 20 ядер + 256 гиг оперативки. Один такой сервер заменит вам ~ 5-10 1u серверов двухлетней давности при том что места он занимает на 30% меньше. Еще нужно знать планируете ли вы использовать системы хранения данных. Судя по описанию контента у вас нет, а тот что есть в основном на CDN. Если так то не нужно выбрасывать деньги на всякие дорогие штуки типа FC, FCoE, iSCSI, Infiniband итд итп. Выбор очень велик главное знать подход если весь упор на ПО по части отказоустойчивости то нужно смотреть в сторону дешевого оборудования куда блейдам, UCS и Nexus путь заказан, а если ентерпрайз то там совсем другие устройства и схемы :) Судя по описанию это веб приложение, а там SAN/Infiniband даром не нужен :)
  15. Кстати у многих больших операторов таких как Verizon, BT, Level3 разные подразделения занимаються магистралями, сетями доступа, датацентрами. Там нету одной большой сети на весь мир которой рулят один и те же люди :) Ну а отвечать за один строительный блок гораздо легче. Кто-то будет DWDM/MPLS крутить, другие будут отвечать за датацентры, третьи будут на уровне одного города раздавать интернет, ну а кто-то выше будет рулить политикой партии для всех подразделений :) По поводу того что ASR/CRS не нужны, первые очень фичастые и используються как PE или BGP, в 6500 таких функция как VPLS,OAM,IPoDWDM,PTP/GPS sync нет :) CRS как ядро, он маштабируеться до 72 коробок в каждую можно 32x100G интерфейсов запихнуть, тут тоже 6500 и микротик не конкуренты :)
  16. У нас это основная проблема, никто из технарей крутить гайки и прокладывать провода не будет, а команды в датацентрах не всегда аккуратные. Хорошо когда большая компания и есть отдельно команда кабельщиков 85 уровня, но очень часто бывает что люди понятия не имеют как обращаться с оптикой и даже с многомодом иногда по 5 раз перетыкать нужно просить что бы линк заработал от СХД/Блейд сервер до свича.
  17. Читаю топик и такое впечатление что на другую планету попал :) Из того что видел у заокеанских кастомеров в датацентрах MM все что не транзит по городу или конекшины к точкам присутствия операторов в том же датацентре, все остальное строго MM. Я так понимаю это потому что коннекторы ММ не так чувствительный к загрязнению или плохому подключению.
  18. Не знаю о чем это вы, читаю сейчас доку http://www.cisco.com/en/US/prod/collateral/switches/ps9441/ps13386/white-paper-c11-729384.pdf О последних нексусах, мультимод живее всех живых :) 40 гиг по двум старым MMF с LC конекторами аж бегом :)
  19. А провайдеры не могут нагнуть государство? Просто я человек отдаленный от политики, не знаю даже что в родной стране твориться, а у соседей тем более :)
  20. Так вроде у нас не только денег, но и данных сильно меньше :)
  21. http://habrahabr.ru/post/200276/ внезапно оказалось что у АБН проблем с записью данных за 5 дней нету :)
  22. пффф, w3m шикарен, под ним спокойно можно в гугле доки искать прям с консоли сервера :) У меня этот период попал на windows 2003/freebsd4.7/Linux Read Hat 7.3/9.0 Графика была, но на сервере где я в первый раз FreeBSD увидел ее не было, да и толку с нее если ничего сделать нельзя без консоли )
  23. Строить сети это сильно громко сказано :) Я тогда школьником был и занимался в основном баловством с графикой, интернет был через Windows/RAS + DialUP. На этом знакомство с сетями закончилось пока не узнал о Linux/FreeBSD/Cisco.
  24. А мне почему-то наоборот от GUI ностальгировать тянет :) Временна беззаботного детства в котором еще не было Unix/Cisco.