fractal Опубликовано 26 августа, 2017 · Жалоба Хочу поднять кластер из 2-х серверов Что сделал (пока работаю с одним) 1. Raid10 из 4-х дисков по 2TB 2. Разбил raid на 2 раздела, первый 200Гб, второй 3500Гб 3. Установил drbd Пока у меня есть только один сервак, хочу настроить на нем все, далее перенести с работающего сервака виртуалки на него и далее работающий сервак загнать в кластер, но drbd ругается root@pve-1:~# drbdadm up r0 /etc/drbd.d/r0.res:1: in resource r0: Missing section 'on <PEER> { ... }'. resource r0: cannot configure network without knowing my peer. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
wtyd Опубликовано 29 августа, 2017 · Жалоба В 26.08.2017 в 22:48, fractal сказал: Хочу поднять кластер из 2-х серверов Что сделал (пока работаю с одним) 1. Raid10 из 4-х дисков по 2TB 2. Разбил raid на 2 раздела, первый 200Гб, второй 3500Гб 3. Установил drbd Пока у меня есть только один сервак, хочу настроить на нем все, далее перенести с работающего сервака виртуалки на него и далее работающий сервак загнать в кластер, но drbd ругается root@pve-1:~# drbdadm up r0 /etc/drbd.d/r0.res:1: in resource r0: Missing section 'on { ... }'. resource r0: cannot configure network without knowing my peer. Покажите, что в конфиге-то ? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
fractal Опубликовано 29 августа, 2017 · Жалоба 6 часов назад, wtyd сказал: Покажите, что в конфиге-то ? /etc/drbd.d/r0.res resource r0 { protocol C; startup { wfc-timeout 0; # non-zero might be dangerous degr-wfc-timeout 60; become-primary-on both; } net { cram-hmac-alg sha1; shared-secret "oogh2ouch0aitahNBLABLABLA"; allow-two-primaries; after-sb-0pri discard-zero-changes; after-sb-1pri discard-secondary; after-sb-2pri disconnect; } on pve-1 { device /dev/drbd0; disk /dev/md0p1; address 10.10.10.1:7788; meta-disk internal; } } /etc/drbd.d/global_common.conf global { usage-count no; } common { syncer { rate 30M; } } Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
wtyd Опубликовано 30 августа, 2017 · Жалоба Попробуйте указать в конфиге отсутствующую ноду, которая потом появится у вас. Т.е. наверное для 10.10.10.2 добавить секцию. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
fractal Опубликовано 30 августа, 2017 · Жалоба 12 часов назад, wtyd сказал: Попробуйте указать в конфиге отсутствующую ноду, которая потом появится у вас. Т.е. наверное для 10.10.10.2 добавить секцию. Спасибо, попробую, отпишусь Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
fractal Опубликовано 30 августа, 2017 · Жалоба 12 часов назад, wtyd сказал: Попробуйте указать в конфиге отсутствующую ноду, которая потом появится у вас. Т.е. наверное для 10.10.10.2 добавить секцию. Вопрос возник, в инструкции На обоих узлах: nano /etc/lvm/lvm.conf # Меняем строчку filter = [ "a/.*/" ] на filter = [ "r|^/dev/sdb1|", "a|^/dev/sd|", "a|^/dev/drbd|" ,"r/.*/" ] мне надо т.к. у меня raid filter = [ "r|^/dev/md0p1|", "a|^/dev/md|", "a|^/dev/drbd|" ,"r/.*/" ] Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...