Перейти к содержимому
Калькуляторы

Кластер для виртуальных серверов и samba

таков вопрос, можно ли сначала сделать один сервер, на нем все поднять, а потом перевести сервис на него и поднять второй? может есть какой мануал?

Можно. пишите пошаговый план после добавления второй ноды на бумажке.

Шаред сторадж у Вас же планируется? вот и подумайте как Вы его организуете сразу сделаете половинку (в случае с DRBD) или целиком после появления второй ноды, а после на него смигрируете виртуалки. У Вас частный случай - инструкции для Вас не будет.

Кусками только может что то и есть для настройки технологии/фичи, но шаги инсталляции именно Ваших особенностей за Вами.

по кускам настраивать - это выдет дольше/дороже в итоге, и по кускам взяться настраивать в Вашем случае я бы не советовал. Вы же боевые сейчас сервисы настроете, а после при объединении двух нод где нибудь вдруг косанете и приплыли. Что делать?! Пожар! Дайте инструкцию!

Хотя все будет зависеть от проработанного плана (нюансов).

Изменено пользователем QWE

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

таков вопрос, можно ли сначала сделать один сервер, на нем все поднять, а потом перевести сервис на него и поднять второй? может есть какой мануал?

 

 

Конечно, в proxmox 5 на zfs можно настроить репликацию и live миграцию без shared storage. Сначала все заведёте на одном сервере(pvecm create имя кластера), потом добавить в кластер второй, выполнив на нем pvecm add имя первого сервера. и через веб-морду все перенести.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

таков вопрос, можно ли сначала сделать один сервер, на нем все поднять, а потом перевести сервис на него и поднять второй? может есть какой мануал?

На поиграться можно и на одном замутить. Но под боевое применение все же надо начинать сразу с трех. Ибо кворума из двух нод никогда не получится, и выхватить brain split можно за нефиг делать.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

ну и живую миграцию попробовать говорят если железо разное то все плохо

Главное, чтобы учитывались три вещи: 1 - одинаковый процессор по типу и по количеству ядер, 2 - влезало в хост по памяти, 3 - был одинаковый набор дисковых накопителей. У меня данные размещаются в хранилище на CEPH, перекидка виртуалки с ноды на ноду занимает от 30 до 80 мс, что-то заподозрить успевает только работающий внутри виртуалки ntpd.

какой не дремлющий ntpd ))

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

какой не дремлющий ntpd ))

Это несложно, когда по своим часам прошло как бы 200 мс, а внешние сервера все разом утверждают что 250. Но голос, раздача видео (VoD и ретрансляция камер) при миграции проходят вообще незаметно.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Блин у меня ток 2 сервака к сожалению

 

Если нужно HA, для кворума можно использовать какой-нибудь raspberry pi или что-то подобное. А так нормально на двух серверах все будет жить.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

с 4ки он хочет 3и сервера, там уже давно на их форуме перетиралось, лучше не строить велосипед и все будет работать как часы...

Кластер с 9ю проксами на 4й ветки, ceph внутри этого добра на 20ссд по 1ТБ, аптайм уже 1.3года.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Кластер с 9ю проксами на 4й ветки, ceph внутри этого добра на 20ссд по 1ТБ, аптайм уже 1.3года.

а что внутри крутится? как с производительностью?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Крутятся клиентские машины, нормально, не чьхает.

 

Intel® Xeon® CPU E5-1650 v3 @ 3.50GHz, по 128рамы в каждой ноде, сеть 10ка.

 

root@cluster-2-1:~# qm status 710 --verbose
balloon: 3145728000
ballooninfo:
       mem_swapped_in: 0
       max_mem: 3145728000
       mem_swapped_out: 0
       minor_page_faults: 464722271
       free_mem: 2062954496
       last_update: 1500239099
       major_page_faults: 1227
       actual: 3145728000
       total_mem: 3094065152
blockstat:
       virtio0:
               rd_bytes: 1255962624
               wr_merged: 240868
               failed_flush_operations: 0
               rd_merged: 5244
               invalid_wr_operations: 0
               rd_total_time_ns: 44284516712
               wr_operations: 11861153
               wr_bytes: 345293930496
               flush_total_time_ns: 1160799865764
               failed_wr_operations: 0
               wr_highest_offset: 26007842816
               rd_operations: 45619
               idle_time_ns: 2118013840
               timed_stats:
               flush_operations: 5911909
               wr_total_time_ns: 141062041675738
               invalid_rd_operations: 0
               invalid_flush_operations: 0
               failed_rd_operations: 0
       ide2:
               flush_total_time_ns: 0
               wr_bytes: 0
               failed_wr_operations: 0
               rd_total_time_ns: 77081
               wr_operations: 0
               rd_merged: 0
               invalid_wr_operations: 0
               failed_flush_operations: 0
               wr_merged: 0
               rd_bytes: 138
               failed_rd_operations: 0
               invalid_flush_operations: 0
               wr_total_time_ns: 0
               flush_operations: 0
               timed_stats:
               invalid_rd_operations: 0
               rd_operations: 6
               wr_highest_offset: 0
               idle_time_ns: 953628008805251
cpus: 2
disk: 0
diskread: 1255962762
diskwrite: 345293930496
freemem: 2062954496
maxdisk: 36700160000
maxmem: 3145728000
mem: 1031110656
name: cf761963
netin: 26286530529
netout: 10480811260
nics:
       tap710i0:
               netout: 10480811260
               netin: 26286530529
pid: 108615
qmpstatus: running
status: running
template: 
uptime: 5111681

 

Единственное что в новых системах отказались от ceph и прочего, проще работать с бэкапами, которые выполняются каждую ночь и кладутся на общий сторедж с glusterfs.

Смысла нету вкладывать в это все.

Изменено пользователем Megas

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Единственное что в новых системах отказались от ceph

вот ceph меня и интересовал )

а почему решили отказаться?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Я предполагаю, что нету критичных сервисов и потеря данных за день нормальное явление.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Я предполагаю, что нету критичных сервисов и потеря данных за день нормальное явление.

 

ну это зависит от организации, к примеру проводят обследование на включение клиента, делают фото, заполняю акты, отправляют через систему электронного документооборота, данные хранятся на файловом сервере до полно утверждения и тут бац, сдох сервак, а клиент на миллиона 4

 

Я предполагаю, что нету критичных сервисов и потеря данных за день нормальное явление.

 

ну это зависит от организации, к примеру проводят обследование на включение клиента, делают фото, заполняю акты, отправляют через систему электронного документооборота, данные хранятся на файловом сервере до полно утверждения и тут бац, сдох сервак, а клиент на миллиона 4

 

это конечно чисто пример и фантазия) понятное дело, крупная организация закупит какое нибудь простое и профессиональное решение с которым может работать средний спец, но все таки хочется стабильности всем)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.