Перейти к содержимому
Калькуляторы

Nikolaicheg

Активный участник
  • Публикации

    288
  • Зарегистрирован

  • Посещение

Все публикации пользователя Nikolaicheg


  1. на 5ггц тоже виснет, но я уже склонен верить в то, что это дело в оборудовании. получается порядка 150+ клиентов на 3 точки доступа. на англоязычных форумах натыкался на инфу, что юбики uni-fi глючат при маломальском зашумлении вайфаем и количестве клиентов 30+. у нас предпоследний этаж, на крыше может быть всё, что угодно ) ремонт не вариант, это уже совсем другие бюджеты. из русских брендов знаю только snr и eltex
  2. переносил инжекторы ближе, стало реже, но поведение то же. посмотрю, что за Cambium, и с чем его едят. там контроллер нужен? как реализована возможность роуминга? какая-то из точек берет на себя функцию контроллера?
  3. я вроде бы написал, что пробовал 5ггц сеть, она в данный момент работает. но всё точно так же периодически отваливается. контроллер показывает, что с точкой всё ок, а трафик через нее не идет. приходится нажимать кнопу рестарт
  4. 5ггц рассматриваю. Но меня останавливает то, что далеко не все мобильные устройства поддерживают 5ггц. Да и ноуты не все, но с ними проще, там можно карточки махнуть, цена вопроса 1к на ноут.
  5. Товарищи, помогите решить, что делать с вафлей. Немного вводных данных и история. сидим в офисе в крупном БЦ, площадь офиса примерно 1000м2, прямоугольной формы, коридор посередине, ТД стоят в коридоре. клиенты относительно равномерно распределены по офису. Клиенты из себя представляют: 1) ноуты (примерно штук 20) (сидят в приватной ssid, через vlan зарулены в сеть компании) 2) моноблоки (штук 10) (аналогично) 3) мобильные устройства (штук 100). (сидят в гостевом ssid, позволяем сотрудникам юзать офисный вайфай, через vlan зарулены в отдельную подсеть.) Оборудование. На данный момент есть ubiquiti 3 ТД. Контроллер стоит на выделенном пк, который постоянно включен. ModelUniFi AP-ProVersion3.2.12.2920 История. Изначально был сделан роуминг для вифи-клиентов (приличное кол-во сотрудников перемещается по офису постоянно), все сидели на одном ssid и были в одной сети. По каким-то причинам вафля стала падать регулярно. Либо само ребутилось, либо зависало, оборудование ребутилось руками. ПОсле этого бесшовный ssid "разобрали" на 3 отдельных, по одному на каждую ТД. Потом в компании появился я. Повникал, что и как сделано по внутренней сети и пришел в ужас ), оказалось, что вообще все сидели на вафле (на тот момент около 80 сотрудников + мобильные устройства). Да и перестало хватать dhcp пула офисной сети :) Стационарных клиентов пересадили на провода (за исключением нескольких моноблоков), передалал вайфай, сделал 2 ssid под разные сети с разным уровнем доступа до ресурсов. Авторизацию пользователей не используем. Всё равно периодически точки ребутятся, в логах контроллера тишина о причинах, просто disconnected. Иногда точки зависают в режиме adopting. Пробовал выключать ssid'ы на 5ггц, Пробовал поднимать hand-off на 5ггц частоте. Всё бес толку. часто зависает, тупит (не пропускает трафик при хорошем уровне сигнала), отваливается. Условия: Сверху сидит один известный крупный банк, у них оч мощный вифи, через перекрытия у них получается мощность самую малость ниже нашей (смотрел через inssider), у банка цыско. Снизу тоже сидит этот же банк, тоже с высоким уровнем сигнала, чуть ниже уровня наших ssid'ов. И данный банк соответственно занял все три непересекающихся частоты в 2.4 диапазоне. Так же видны с очень высоким уровнем сигнала и другие сети других арендаторов. Из всего этого вытекает вопрос, как быть с офисной вафлей? :) Начальство (использует ноуты и мобильные устройства активно) прессует на тему нерабочего вайфая, даже готово выделить денег на новый, если будет необходимо. Вот и думаю, как поступить, попытаться заставить это всё работать более стабильно на существующем оборудовании, либо брать что-то иное. Из требований вижу такие: 1) роуминг 2) поддержка vlan (нужен гостевой вайфай) 3) поддержка AC стандарта на будущее. P.S. на нашей повсеместной волне "импортозамещения" рассматриваю и наших вендоров. В случае замены оборудования хотелось бы уложиться в 100к.
  6. требования поменялись :) в итоге выбор остался между 1) Dell n3048 2) Huawei CE5810-48T4S-EI Никто не юзал вышеуказанные железки?
  7. бюджет 600тр на 2 железки (с аксессуарами, если требуется). напомню, что я не делаю ДЦ, а у меня стойка в ДЦ :) и мне нужна отказоустойчивость МОИХ сервисов, а не сервисов ДЦ))
  8. у нас 6 гипервизоров, поэтому sas не подходит. на данный момент есть возможность сделать только 1G, в перспективе хотелось бы 10G
  9. hyper-v не исключаю, что я в корне неправильно подошел к решению вопроса хай авайлабилити :(
  10. так. давайте может стек в сторону отбросим. мне нужно, чтобы у меня работала моя схема из первого порта. нужно: 1) чтобы было аггрегирование интерфейсов на гипервизорах, подключенных к разным свитчам, для отказоустойчивости. поверх аггрегированного интерфейса будут VLAN'ы с WAN\LAN трафиком. и отдельно SAN трафик без аггрегирования, через MPIO. Помимо гипервизоров, есть еще сервера БД, их нужно подключить так же, как гипервизоры с LAN\WAN трафиком. Нужно, чтобы при выходе из строя одного из свитчей\линков до серверов, все сервисы работали пусть и с деградацией скорости. 2) нужны нормальные буферы, чтобы не было дропов при бурсте ISCSI трафа, а так же трафа при заливке бекапов на бекап сервак. хотелось бы рассмотреть 2 ценовых диападона: до 150 и до 300. БУ тоже рассматриваю.
  11. я не строю ДЦ, я арендую стойку в ДЦ. и мне нужны свитчи для своего проекта. Мне нужно продумать несколько вариантов, с которыми идти уже к руководству. 300к за свитч, дороговато для текущего проекта. поэтому хотелось бы несколько вариантов рассмотреть, в том числе на перспективу. а вот такие как? и буфер 16мб, и стек, и большое кол-во езерченнелов. 1) первый диападон до 150 за железку. 2) до 300 за железку. БУ тоже как вариант.
  12. 3750e хаят за маленький буфер, при iSCSI трафе идет резкий бурст, а буферы маленькие, следовательно дропы. В данный момент такую штуку наблюдаю на своем 2960s. Не хотелось бы шило на мыло со стеком менять =)
  13. не думаю, что это проблема :) в данный момент, да и на перспективу пока не думаю, что внешний трафик будет больше гигабита. а локальный трафик внутри кластера не превысит способностей мозгов того же 2960s. про Dell никто ничего не скажет?? очень вкусно выглядит за свои деньги...
  14. а сколько можно делать групп lacp? закопался в цысковском сайте, но не нашел инфу о количестве езерченнелов.
  15. можно примеры, почему стек больше проблем приносит??
  16. было понято мной что ожидается распределение трафика в нормальном рабочем состоянии. Ну вообще хотелось бы, чтобы в нормальном режиме скорость была 2х1Gb
  17. не совсем понял, о каком распределении трафика идет речь?
  18. а как насчет ex3300-48t? в официальном даташите пишут, что есть cross-member link aggregation а ребутить по отдельности нельзя?
  19. а это уже серия 4200, и другой ценовой диапазон( аналогично предыдущему. Сразу хотелось бы определить бюджет до 300 за железку. А кто-нибудь может что-то сказать про Dell? P.S. порты у нас на серверах гигабитные
  20. Добрый день! Встал вопрос покупки оборудования в арендованную стойку в ДЦ. Хочу воплотить схему как на рисунке ниже. Конечная цель - построение системы без единой точки отказа. Поэтому встал вопрос выбора свитчей. В данный момент имею свитчи WS-C2960S на 48 портов, работают без стека. Имею много дропов на портах, где у меня iscsi трафик и трафик бекапов. К тому же по моей схеме мне нужно больше 6 групп портов, т.к. на рисунке не указан дополнительно сервер хранения бекапов и сервера БД. Мысль такая, что каждый сервер должен быть подключен к каждому свитчу. От стека свитчей жду, что можно будет делать LACP с портов разных свитчей. Поверх групп портов хочу использовать vlan для доступа к сервисам. Так же от стека ожидаю, что в случае отказа одного из свитчей, сервисы не прекратят работу, а будут рабоать, пусть и с деградацией скорости. Надеюсь доходчиво объяснил свои хотелки. Выбираю из: 1) Dell N2038 2) Juniper EX3200-48t (может ли 2200 дать того, что мне нужно? и как я понимаю, то аплинки там гиговые) 3) Cisco Catalyst 2960X Пока список кандидатов такой. Первые 2 варианта интереснее цысок тем, что там либо сразу стековы порты есть без доп модулей, либо стандартный sfp+ нужен.
  21. Товарищи, добрый день! Подскажите, пожалуйста, кто знаком с ситуацией. Хочу под нужды своей конторы и филиала гонять телефонию по протоколу sip. Как с этим делом сейчас в Беларуси? не придут к нам в филиал дядьки из КГБ? :) Часто звоним в филиал, встал вопрос экономии средств, а то ценник на звонки в Беларусь стал космический(((
  22. В том году разрабатывал для одного мегаоператора в т.ч. стоечные кондиционеры. Со шкафом, полками, SNMP мониторингом, энергоучётом, резервериванием и всем-всем-всем получилось по 100 т.р. за 1 узел. вобщем климатический шкафчик энергомеры выходит дешовле :)
  23. подниму ка тему :) Господа, никто не подскажет решения именно в исполнении 19", чтобы можно было запихать в шкаф? либо такой вариант, что поставить на стенку или дверь шкафа. Находил решения фирмы Dantherm (CLASSIC CS03060B или CS012035B), только вот не возят их почему-то больше. Может есть что-то подобное? требуемая мощность охлаждения с большим запасом около 1кв (планируется 1 сервер 2юнита с 2 ксеонами, 1 нас на 12 дицков, смарт упс 1000ВА).
  24. сделал по рисунку...но не вышло. при включении кабеля происходит вырубание свитча. отключаешь - включается... видимо, всё же, инфо не верное. к сожалению нет возможности тестировать, свитч в сети работает уже.