Jump to content
Калькуляторы

proxmox 5 с drbd

Хочу поднять кластер из 2-х серверов

 

Что сделал (пока работаю с одним)

 

1. Raid10 из 4-х дисков по 2TB

2. Разбил raid на 2 раздела, первый 200Гб, второй 3500Гб

3. Установил drbd

 

Пока у меня есть только один сервак, хочу настроить на нем все, далее перенести с работающего сервака виртуалки на него и далее работающий сервак загнать в кластер, но drbd ругается

 

root@pve-1:~# drbdadm up r0
/etc/drbd.d/r0.res:1: in resource r0:
       Missing section 'on <PEER> { ... }'.
resource r0: cannot configure network without knowing my peer.

Share this post


Link to post
Share on other sites

В 26.08.2017 в 22:48, fractal сказал:

Хочу поднять кластер из 2-х серверов

 

Что сделал (пока работаю с одним)

 

1. Raid10 из 4-х дисков по 2TB

2. Разбил raid на 2 раздела, первый 200Гб, второй 3500Гб

3. Установил drbd

 

Пока у меня есть только один сервак, хочу настроить на нем все, далее перенести с работающего сервака виртуалки на него и далее работающий сервак загнать в кластер, но drbd ругается

 

 


root@pve-1:~# drbdadm up r0
/etc/drbd.d/r0.res:1: in resource r0:
       Missing section 'on  { ... }'.
resource r0: cannot configure network without knowing my peer.
 

 

Покажите, что в конфиге-то ?

Share this post


Link to post
Share on other sites

6 часов назад, wtyd сказал:

Покажите, что в конфиге-то ?

/etc/drbd.d/r0.res

 

resource r0 {
     protocol C;
     startup {
             wfc-timeout 0; # non-zero might be dangerous
             degr-wfc-timeout 60;
             become-primary-on both;
     }
     net {
             cram-hmac-alg sha1;
             shared-secret "oogh2ouch0aitahNBLABLABLA";
             allow-two-primaries;
             after-sb-0pri discard-zero-changes;
             after-sb-1pri discard-secondary;
             after-sb-2pri disconnect;
     }
     on pve-1 {
             device /dev/drbd0;
             disk /dev/md0p1;
             address 10.10.10.1:7788;
             meta-disk internal;
     }
}

/etc/drbd.d/global_common.conf

global { usage-count no; }
common { syncer { rate 30M; } }

 

Share this post


Link to post
Share on other sites

Попробуйте указать в конфиге отсутствующую ноду, которая потом появится у вас. Т.е. наверное для 10.10.10.2 добавить секцию.

Share this post


Link to post
Share on other sites

12 часов назад, wtyd сказал:

Попробуйте указать в конфиге отсутствующую ноду, которая потом появится у вас. Т.е. наверное для 10.10.10.2 добавить секцию.

Спасибо, попробую, отпишусь

Share this post


Link to post
Share on other sites

12 часов назад, wtyd сказал:

Попробуйте указать в конфиге отсутствующую ноду, которая потом появится у вас. Т.е. наверное для 10.10.10.2 добавить секцию.

Вопрос возник, в инструкции

 

На обоих узлах:
nano /etc/lvm/lvm.conf
# Меняем строчку filter = [ "a/.*/" ] на
filter = [ "r|^/dev/sdb1|", "a|^/dev/sd|", "a|^/dev/drbd|" ,"r/.*/" ]

 

мне надо т.к. у меня raid

filter = [ "r|^/dev/md0p1|", "a|^/dev/md|", "a|^/dev/drbd|" ,"r/.*/" ]

 

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.