Перейти к содержимому
Калькуляторы

amihalchuk

Пользователи
  • Публикации

    11
  • Зарегистрирован

  • Посещение

О amihalchuk

  • Звание
    Абитуриент

Посетители профиля

Блок посетителей профиля отключен и не будет отображаться другим пользователям

  1. Спасибо! Собственно, вместе с ТС этой ветки задачей совместно и занимаемся, что-то я не догадался в его ветку написать. В нашем случае highload-систем с тяжелыми БД не прогнозируется. Самая большая нагрузка в плане БД - bgbilling с его 2500qps в пике и 300qps в среднем и, как не удивительно, сервер zabbix.
  2. Про большие пакеты я понял из IP SAN BEST PRACTICES, про низкую задержку - не совсем понятно... По крайней мере насколько эта разница велика. Cisco Nexus купить есть возможность, однако 2 подобные железки не будут ли избыточны для этих целей?
  3. Спасибо, однако хотелось бы понимать почему. Насколько понял, для FCoE это критично, насколько это критично и что дает для iSCSI из Вашего ответа я не понял.
  4. ESXI 6.5 и HP p420

    @FATHER_FBI Благодарю за совет! Развернул кастомный образ - уже почти 2 года полет нормальный, думаю тема закрыта.
  5. Доброго времени суток, уважаемые коллеги! Пытаюсь модернизировать серверный парк и СХД компании, наткнулся на пробелы с собственных знаниях. Начну с того как есть на данный момент. В качестве парка серверов для собственных нужд используем 2 железки HP Proliant DL160 G6 и одну ML350 G5 на гипервизорах ESXi 5.0 в кластере. Подключены они по iSCSI 1G кабелями непосредственно к системе хранения QSAN P300Q-D212, которая на сегодня не соответсвует потребностям компании (сейчас в ней собрано 4 группы разными SATA-дисками, диски сыпятся, при ребилде все становится вообще очень плохо). Внедрено все это было задолго до меня, почему именно эта хранилка была выбрана не знаю. Обновление парка начал с модернизации СХД. Выбрал Dell MD3820i в качестве нового датастора для гипервизоров (тоже в планах обновить), 24x1,8Tb 10k SAS, 2 контроллера с 4G cache на каждый, по 2 медных порта 10G iSCSI на голову. И вот тут как раз возникла проблема с подключением 1G Initiator`ов: их как минимум больше 2, гасить нельзя, машины мигрировать могу только между двумя... Да и подключать новые гиперизоры тоже куда-то нужно будет. Потребуется какой-либо коммутатор. Изучил документ IP SAN BEST PRACTICES от делл и сделал для себя следующие выводы: сеть SAN будет изолирована от основной, коммутаторов потребуется 2, источников бесперебойного питания тоже 2 (уже есть). В эту же SAN включу и старый СХД для бекапов и медленных данных (логи, потоки netflow, etc.). Из L2-фич коммутатора: STP и Unicast storm control будет выключен, Flow Control и Jumbo frame включены (т.к. у серверов с ESXi программный инициатор и обычные NIC), L3-фичи вроде как бы не нужны (делл, насколько я понял, всякие QOS и expedited forwarding рекомендуют использовать если трафик iSCSI ходит по общей сети). Собственно в чем вопросы... Рассматриваем 2 разных класса коммутаторов: уровня top of rack (основная фича - снижение задерки за счет передачи трафика мимо буфера) и уровня агрегации (да хоть простой длинк на 8 10G медных портов и пару SFP), ну и разница в цене на порядок. Естественно, сравнивая их "в лоб" есть отличия - размер буфера, коммутационная матрица и т.д. Касаемо низкой задерки коммутации - на сколько это критично и важно? Будет ли от этого значительный прирост в приложениях, либо он составит 2-3% и будет в районе погрешности? На что еще следует обратить внимание? Может быть кому-то, у кого есть опыт проектирования и интегреции СХД, эти вопросы покажутся простыми (может даже глупыми), но меня это сейчас останавливает, куда копать пока тоже не совсем понимаю.
  6. CCR1036-12G-4S

    Если адрес управления висит на отдельном физическом интерфейсе такое возможно? Опять же, перед ним стоит l2 молотилка, которая должна была шторм заметить, + по графикам портов в zabbix загрузка не превышала повседневную. К сожалению дежурный инженер просто передернул питание на ней, консолью не подключались, может быть и узнали бы чего это она в себя ушла.
  7. CCR1036-12G-4S

    Напруга 24,4В, температура 29C, проц 55C, все показания достаточно стабильны.
  8. CCR1036-12G-4S

    Спасибо! Вертилки судя по показаниям zabbix крутят и напруга не плавает, с пищащим дросселем БП сталкивались на другой такой железке, пофиксили заменой. Ткнуть осциллографом в выход БП возможности не имею.
  9. Доброго времени суток! Недавно столкнулись с такой проблемой: периодически виснет вне зависимости от загрузки Mikrotik CCR1036-12G-4S на котором прописано примерно 1500 подсетей с маской /30 (терминируются серые адреса), с другими маршрутизаторами связан по OSPF (в этой Area ходит примерно 2000 маршрутов), simple queues, ACL не используем. Куда следует копать?
  10. ESXI 6.5 и HP p420

    Спасибо, о существованиии кастомного образа узнали недавно, вот только не хочется длительный перерыв устраивать, поэтому и думаем можно ли установить драйвер и SSA CLI вручную. Хотя, видимо, поступим как Вы посоветовали...
  11. Коллеги, добрый день! Нашей компанией для собственных нужд используется сервер HP ProLiant P4300 Gen2 в конфигурации 2xE5520, 24Гб ОЗУ с контроллером HP p420, на котором собран RAID5 из 4 дисков HGST 6Тб SAS, на нем развернут гипервизор ESXI 6.5 в котором этот RAID смонтирован в качестве локального датастора. На данный момент на нем работают 3 гостевые ОС CentOS и Debian, нагрузка на CPU гипервизора не превышает 10-20%, памяти 60-80%, диски загружены примерно наполовину. Недавно у нас произошел инцидент: резко возросли показатели CPU iowait на виртуальных машинах гипервизора, в короткий промежуток времени машины стали недоступны (зависли), выключить/перезапустить их из гипервизора так же не удалось, в итоге сервер был перезагружен вручную. При запуске и инициализации ошибок не возникло, при анализе логов обнаружилась ошибка вида: 2017-05-26T03:31:27.172Z cpu7:788405)WARNING: VSCSI: 3488: handle 8228(vscsi0:1):WaitForCIF: Issuing reset; number of CIF:17 (время в UTC). Свидетельствует ли это о возможном сбое контроллера/дисков? Так же перед инцидентом производилась запись на одной из виртуальных машин, трафик около 50Мб/с. Возможно требуется подключение какого-либо дополнительного драйвера для контроллера или тонкая настройка гипервизора? На странице поддержки HP доступны драйверы для контроллера для VSphere 6.5, а так же набор утилит HPE SSA Cli, возможно ли их установить на гипервизоре? Или проблема все-таки кроется в "железе" (без HPE SSA Cli нельзя ведь данные SMART дисков в RAID узнать)? Заранее благодарны за помощь.