Jump to content
Калькуляторы

proxmox 5 с drbd

Хочу поднять кластер из 2-х серверов

 

Что сделал (пока работаю с одним)

 

1. Raid10 из 4-х дисков по 2TB

2. Разбил raid на 2 раздела, первый 200Гб, второй 3500Гб

3. Установил drbd

 

Пока у меня есть только один сервак, хочу настроить на нем все, далее перенести с работающего сервака виртуалки на него и далее работающий сервак загнать в кластер, но drbd ругается

 

root@pve-1:~# drbdadm up r0
/etc/drbd.d/r0.res:1: in resource r0:
       Missing section 'on <PEER> { ... }'.
resource r0: cannot configure network without knowing my peer.

Share this post


Link to post
Share on other sites
В 26.08.2017 в 22:48, fractal сказал:

Хочу поднять кластер из 2-х серверов

 

Что сделал (пока работаю с одним)

 

1. Raid10 из 4-х дисков по 2TB

2. Разбил raid на 2 раздела, первый 200Гб, второй 3500Гб

3. Установил drbd

 

Пока у меня есть только один сервак, хочу настроить на нем все, далее перенести с работающего сервака виртуалки на него и далее работающий сервак загнать в кластер, но drbd ругается

 

 


root@pve-1:~# drbdadm up r0
/etc/drbd.d/r0.res:1: in resource r0:
       Missing section 'on  { ... }'.
resource r0: cannot configure network without knowing my peer.
 

 

Покажите, что в конфиге-то ?

Share this post


Link to post
Share on other sites
6 часов назад, wtyd сказал:

Покажите, что в конфиге-то ?

/etc/drbd.d/r0.res

 

resource r0 {
     protocol C;
     startup {
             wfc-timeout 0; # non-zero might be dangerous
             degr-wfc-timeout 60;
             become-primary-on both;
     }
     net {
             cram-hmac-alg sha1;
             shared-secret "oogh2ouch0aitahNBLABLABLA";
             allow-two-primaries;
             after-sb-0pri discard-zero-changes;
             after-sb-1pri discard-secondary;
             after-sb-2pri disconnect;
     }
     on pve-1 {
             device /dev/drbd0;
             disk /dev/md0p1;
             address 10.10.10.1:7788;
             meta-disk internal;
     }
}

/etc/drbd.d/global_common.conf

global { usage-count no; }
common { syncer { rate 30M; } }

 

Share this post


Link to post
Share on other sites

Попробуйте указать в конфиге отсутствующую ноду, которая потом появится у вас. Т.е. наверное для 10.10.10.2 добавить секцию.

Share this post


Link to post
Share on other sites
12 часов назад, wtyd сказал:

Попробуйте указать в конфиге отсутствующую ноду, которая потом появится у вас. Т.е. наверное для 10.10.10.2 добавить секцию.

Спасибо, попробую, отпишусь

Share this post


Link to post
Share on other sites
12 часов назад, wtyd сказал:

Попробуйте указать в конфиге отсутствующую ноду, которая потом появится у вас. Т.е. наверное для 10.10.10.2 добавить секцию.

Вопрос возник, в инструкции

 

На обоих узлах:
nano /etc/lvm/lvm.conf
# Меняем строчку filter = [ "a/.*/" ] на
filter = [ "r|^/dev/sdb1|", "a|^/dev/sd|", "a|^/dev/drbd|" ,"r/.*/" ]

 

мне надо т.к. у меня raid

filter = [ "r|^/dev/md0p1|", "a|^/dev/md|", "a|^/dev/drbd|" ,"r/.*/" ]

 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now