Перейти к содержимому
Калькуляторы

amihalchuk

Пользователи
  • Публикации

    11
  • Зарегистрирован

  • Посещение

Все публикации пользователя amihalchuk


  1. Спасибо! Собственно, вместе с ТС этой ветки задачей совместно и занимаемся, что-то я не догадался в его ветку написать. В нашем случае highload-систем с тяжелыми БД не прогнозируется. Самая большая нагрузка в плане БД - bgbilling с его 2500qps в пике и 300qps в среднем и, как не удивительно, сервер zabbix.
  2. Про большие пакеты я понял из IP SAN BEST PRACTICES, про низкую задержку - не совсем понятно... По крайней мере насколько эта разница велика. Cisco Nexus купить есть возможность, однако 2 подобные железки не будут ли избыточны для этих целей?
  3. Спасибо, однако хотелось бы понимать почему. Насколько понял, для FCoE это критично, насколько это критично и что дает для iSCSI из Вашего ответа я не понял.
  4. @FATHER_FBI Благодарю за совет! Развернул кастомный образ - уже почти 2 года полет нормальный, думаю тема закрыта.
  5. Доброго времени суток, уважаемые коллеги! Пытаюсь модернизировать серверный парк и СХД компании, наткнулся на пробелы с собственных знаниях. Начну с того как есть на данный момент. В качестве парка серверов для собственных нужд используем 2 железки HP Proliant DL160 G6 и одну ML350 G5 на гипервизорах ESXi 5.0 в кластере. Подключены они по iSCSI 1G кабелями непосредственно к системе хранения QSAN P300Q-D212, которая на сегодня не соответсвует потребностям компании (сейчас в ней собрано 4 группы разными SATA-дисками, диски сыпятся, при ребилде все становится вообще очень плохо). Внедрено все это было задолго до меня, почему именно эта хранилка была выбрана не знаю. Обновление парка начал с модернизации СХД. Выбрал Dell MD3820i в качестве нового датастора для гипервизоров (тоже в планах обновить), 24x1,8Tb 10k SAS, 2 контроллера с 4G cache на каждый, по 2 медных порта 10G iSCSI на голову. И вот тут как раз возникла проблема с подключением 1G Initiator`ов: их как минимум больше 2, гасить нельзя, машины мигрировать могу только между двумя... Да и подключать новые гиперизоры тоже куда-то нужно будет. Потребуется какой-либо коммутатор. Изучил документ IP SAN BEST PRACTICES от делл и сделал для себя следующие выводы: сеть SAN будет изолирована от основной, коммутаторов потребуется 2, источников бесперебойного питания тоже 2 (уже есть). В эту же SAN включу и старый СХД для бекапов и медленных данных (логи, потоки netflow, etc.). Из L2-фич коммутатора: STP и Unicast storm control будет выключен, Flow Control и Jumbo frame включены (т.к. у серверов с ESXi программный инициатор и обычные NIC), L3-фичи вроде как бы не нужны (делл, насколько я понял, всякие QOS и expedited forwarding рекомендуют использовать если трафик iSCSI ходит по общей сети). Собственно в чем вопросы... Рассматриваем 2 разных класса коммутаторов: уровня top of rack (основная фича - снижение задерки за счет передачи трафика мимо буфера) и уровня агрегации (да хоть простой длинк на 8 10G медных портов и пару SFP), ну и разница в цене на порядок. Естественно, сравнивая их "в лоб" есть отличия - размер буфера, коммутационная матрица и т.д. Касаемо низкой задерки коммутации - на сколько это критично и важно? Будет ли от этого значительный прирост в приложениях, либо он составит 2-3% и будет в районе погрешности? На что еще следует обратить внимание? Может быть кому-то, у кого есть опыт проектирования и интегреции СХД, эти вопросы покажутся простыми (может даже глупыми), но меня это сейчас останавливает, куда копать пока тоже не совсем понимаю.
  6. Если адрес управления висит на отдельном физическом интерфейсе такое возможно? Опять же, перед ним стоит l2 молотилка, которая должна была шторм заметить, + по графикам портов в zabbix загрузка не превышала повседневную. К сожалению дежурный инженер просто передернул питание на ней, консолью не подключались, может быть и узнали бы чего это она в себя ушла.
  7. Напруга 24,4В, температура 29C, проц 55C, все показания достаточно стабильны.
  8. Спасибо! Вертилки судя по показаниям zabbix крутят и напруга не плавает, с пищащим дросселем БП сталкивались на другой такой железке, пофиксили заменой. Ткнуть осциллографом в выход БП возможности не имею.
  9. Доброго времени суток! Недавно столкнулись с такой проблемой: периодически виснет вне зависимости от загрузки Mikrotik CCR1036-12G-4S на котором прописано примерно 1500 подсетей с маской /30 (терминируются серые адреса), с другими маршрутизаторами связан по OSPF (в этой Area ходит примерно 2000 маршрутов), simple queues, ACL не используем. Куда следует копать?
  10. Спасибо, о существованиии кастомного образа узнали недавно, вот только не хочется длительный перерыв устраивать, поэтому и думаем можно ли установить драйвер и SSA CLI вручную. Хотя, видимо, поступим как Вы посоветовали...
  11. Коллеги, добрый день! Нашей компанией для собственных нужд используется сервер HP ProLiant P4300 Gen2 в конфигурации 2xE5520, 24Гб ОЗУ с контроллером HP p420, на котором собран RAID5 из 4 дисков HGST 6Тб SAS, на нем развернут гипервизор ESXI 6.5 в котором этот RAID смонтирован в качестве локального датастора. На данный момент на нем работают 3 гостевые ОС CentOS и Debian, нагрузка на CPU гипервизора не превышает 10-20%, памяти 60-80%, диски загружены примерно наполовину. Недавно у нас произошел инцидент: резко возросли показатели CPU iowait на виртуальных машинах гипервизора, в короткий промежуток времени машины стали недоступны (зависли), выключить/перезапустить их из гипервизора так же не удалось, в итоге сервер был перезагружен вручную. При запуске и инициализации ошибок не возникло, при анализе логов обнаружилась ошибка вида: 2017-05-26T03:31:27.172Z cpu7:788405)WARNING: VSCSI: 3488: handle 8228(vscsi0:1):WaitForCIF: Issuing reset; number of CIF:17 (время в UTC). Свидетельствует ли это о возможном сбое контроллера/дисков? Так же перед инцидентом производилась запись на одной из виртуальных машин, трафик около 50Мб/с. Возможно требуется подключение какого-либо дополнительного драйвера для контроллера или тонкая настройка гипервизора? На странице поддержки HP доступны драйверы для контроллера для VSphere 6.5, а так же набор утилит HPE SSA Cli, возможно ли их установить на гипервизоре? Или проблема все-таки кроется в "железе" (без HPE SSA Cli нельзя ведь данные SMART дисков в RAID узнать)? Заранее благодарны за помощь.