QWE Опубликовано 13 июля, 2017 (изменено) · Жалоба таков вопрос, можно ли сначала сделать один сервер, на нем все поднять, а потом перевести сервис на него и поднять второй? может есть какой мануал? Можно. пишите пошаговый план после добавления второй ноды на бумажке. Шаред сторадж у Вас же планируется? вот и подумайте как Вы его организуете сразу сделаете половинку (в случае с DRBD) или целиком после появления второй ноды, а после на него смигрируете виртуалки. У Вас частный случай - инструкции для Вас не будет. Кусками только может что то и есть для настройки технологии/фичи, но шаги инсталляции именно Ваших особенностей за Вами. по кускам настраивать - это выдет дольше/дороже в итоге, и по кускам взяться настраивать в Вашем случае я бы не советовал. Вы же боевые сейчас сервисы настроете, а после при объединении двух нод где нибудь вдруг косанете и приплыли. Что делать?! Пожар! Дайте инструкцию! Хотя все будет зависеть от проработанного плана (нюансов). Изменено 13 июля, 2017 пользователем QWE Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
paindrug Опубликовано 14 июля, 2017 · Жалоба таков вопрос, можно ли сначала сделать один сервер, на нем все поднять, а потом перевести сервис на него и поднять второй? может есть какой мануал? Конечно, в proxmox 5 на zfs можно настроить репликацию и live миграцию без shared storage. Сначала все заведёте на одном сервере(pvecm create имя кластера), потом добавить в кластер второй, выполнив на нем pvecm add имя первого сервера. и через веб-морду все перенести. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
taf_321 Опубликовано 14 июля, 2017 · Жалоба таков вопрос, можно ли сначала сделать один сервер, на нем все поднять, а потом перевести сервис на него и поднять второй? может есть какой мануал? На поиграться можно и на одном замутить. Но под боевое применение все же надо начинать сразу с трех. Ибо кворума из двух нод никогда не получится, и выхватить brain split можно за нефиг делать. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
QWE Опубликовано 14 июля, 2017 · Жалоба ну и живую миграцию попробовать говорят если железо разное то все плохо Главное, чтобы учитывались три вещи: 1 - одинаковый процессор по типу и по количеству ядер, 2 - влезало в хост по памяти, 3 - был одинаковый набор дисковых накопителей. У меня данные размещаются в хранилище на CEPH, перекидка виртуалки с ноды на ноду занимает от 30 до 80 мс, что-то заподозрить успевает только работающий внутри виртуалки ntpd. какой не дремлющий ntpd )) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
taf_321 Опубликовано 14 июля, 2017 · Жалоба какой не дремлющий ntpd )) Это несложно, когда по своим часам прошло как бы 200 мс, а внешние сервера все разом утверждают что 250. Но голос, раздача видео (VoD и ретрансляция камер) при миграции проходят вообще незаметно. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
fractal Опубликовано 15 июля, 2017 · Жалоба Блин у меня ток 2 сервака к сожалению Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
paindrug Опубликовано 15 июля, 2017 · Жалоба Блин у меня ток 2 сервака к сожалению Если нужно HA, для кворума можно использовать какой-нибудь raspberry pi или что-то подобное. А так нормально на двух серверах все будет жить. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Megas Опубликовано 16 июля, 2017 · Жалоба с 4ки он хочет 3и сервера, там уже давно на их форуме перетиралось, лучше не строить велосипед и все будет работать как часы... Кластер с 9ю проксами на 4й ветки, ceph внутри этого добра на 20ссд по 1ТБ, аптайм уже 1.3года. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
edo Опубликовано 16 июля, 2017 · Жалоба Кластер с 9ю проксами на 4й ветки, ceph внутри этого добра на 20ссд по 1ТБ, аптайм уже 1.3года. а что внутри крутится? как с производительностью? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Megas Опубликовано 16 июля, 2017 (изменено) · Жалоба Крутятся клиентские машины, нормально, не чьхает. Intel® Xeon® CPU E5-1650 v3 @ 3.50GHz, по 128рамы в каждой ноде, сеть 10ка. root@cluster-2-1:~# qm status 710 --verbose balloon: 3145728000 ballooninfo: mem_swapped_in: 0 max_mem: 3145728000 mem_swapped_out: 0 minor_page_faults: 464722271 free_mem: 2062954496 last_update: 1500239099 major_page_faults: 1227 actual: 3145728000 total_mem: 3094065152 blockstat: virtio0: rd_bytes: 1255962624 wr_merged: 240868 failed_flush_operations: 0 rd_merged: 5244 invalid_wr_operations: 0 rd_total_time_ns: 44284516712 wr_operations: 11861153 wr_bytes: 345293930496 flush_total_time_ns: 1160799865764 failed_wr_operations: 0 wr_highest_offset: 26007842816 rd_operations: 45619 idle_time_ns: 2118013840 timed_stats: flush_operations: 5911909 wr_total_time_ns: 141062041675738 invalid_rd_operations: 0 invalid_flush_operations: 0 failed_rd_operations: 0 ide2: flush_total_time_ns: 0 wr_bytes: 0 failed_wr_operations: 0 rd_total_time_ns: 77081 wr_operations: 0 rd_merged: 0 invalid_wr_operations: 0 failed_flush_operations: 0 wr_merged: 0 rd_bytes: 138 failed_rd_operations: 0 invalid_flush_operations: 0 wr_total_time_ns: 0 flush_operations: 0 timed_stats: invalid_rd_operations: 0 rd_operations: 6 wr_highest_offset: 0 idle_time_ns: 953628008805251 cpus: 2 disk: 0 diskread: 1255962762 diskwrite: 345293930496 freemem: 2062954496 maxdisk: 36700160000 maxmem: 3145728000 mem: 1031110656 name: cf761963 netin: 26286530529 netout: 10480811260 nics: tap710i0: netout: 10480811260 netin: 26286530529 pid: 108615 qmpstatus: running status: running template: uptime: 5111681 Единственное что в новых системах отказались от ceph и прочего, проще работать с бэкапами, которые выполняются каждую ночь и кладутся на общий сторедж с glusterfs. Смысла нету вкладывать в это все. Изменено 16 июля, 2017 пользователем Megas Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
edo Опубликовано 16 июля, 2017 · Жалоба Единственное что в новых системах отказались от ceph вот ceph меня и интересовал ) а почему решили отказаться? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
fractal Опубликовано 20 июля, 2017 · Жалоба Меня тоже интересует отказ от ceph Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
paindrug Опубликовано 22 июля, 2017 · Жалоба Я предполагаю, что нету критичных сервисов и потеря данных за день нормальное явление. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
fractal Опубликовано 24 июля, 2017 · Жалоба Я предполагаю, что нету критичных сервисов и потеря данных за день нормальное явление. ну это зависит от организации, к примеру проводят обследование на включение клиента, делают фото, заполняю акты, отправляют через систему электронного документооборота, данные хранятся на файловом сервере до полно утверждения и тут бац, сдох сервак, а клиент на миллиона 4 Я предполагаю, что нету критичных сервисов и потеря данных за день нормальное явление. ну это зависит от организации, к примеру проводят обследование на включение клиента, делают фото, заполняю акты, отправляют через систему электронного документооборота, данные хранятся на файловом сервере до полно утверждения и тут бац, сдох сервак, а клиент на миллиона 4 это конечно чисто пример и фантазия) понятное дело, крупная организация закупит какое нибудь простое и профессиональное решение с которым может работать средний спец, но все таки хочется стабильности всем) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...