Перейти к содержимому
Калькуляторы

proxmox 5 с drbd

Хочу поднять кластер из 2-х серверов

 

Что сделал (пока работаю с одним)

 

1. Raid10 из 4-х дисков по 2TB

2. Разбил raid на 2 раздела, первый 200Гб, второй 3500Гб

3. Установил drbd

 

Пока у меня есть только один сервак, хочу настроить на нем все, далее перенести с работающего сервака виртуалки на него и далее работающий сервак загнать в кластер, но drbd ругается

 

root@pve-1:~# drbdadm up r0
/etc/drbd.d/r0.res:1: in resource r0:
       Missing section 'on <PEER> { ... }'.
resource r0: cannot configure network without knowing my peer.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

В 26.08.2017 в 22:48, fractal сказал:

Хочу поднять кластер из 2-х серверов

 

Что сделал (пока работаю с одним)

 

1. Raid10 из 4-х дисков по 2TB

2. Разбил raid на 2 раздела, первый 200Гб, второй 3500Гб

3. Установил drbd

 

Пока у меня есть только один сервак, хочу настроить на нем все, далее перенести с работающего сервака виртуалки на него и далее работающий сервак загнать в кластер, но drbd ругается

 

 


root@pve-1:~# drbdadm up r0
/etc/drbd.d/r0.res:1: in resource r0:
       Missing section 'on  { ... }'.
resource r0: cannot configure network without knowing my peer.
 

 

Покажите, что в конфиге-то ?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

6 часов назад, wtyd сказал:

Покажите, что в конфиге-то ?

/etc/drbd.d/r0.res

 

resource r0 {
     protocol C;
     startup {
             wfc-timeout 0; # non-zero might be dangerous
             degr-wfc-timeout 60;
             become-primary-on both;
     }
     net {
             cram-hmac-alg sha1;
             shared-secret "oogh2ouch0aitahNBLABLABLA";
             allow-two-primaries;
             after-sb-0pri discard-zero-changes;
             after-sb-1pri discard-secondary;
             after-sb-2pri disconnect;
     }
     on pve-1 {
             device /dev/drbd0;
             disk /dev/md0p1;
             address 10.10.10.1:7788;
             meta-disk internal;
     }
}

/etc/drbd.d/global_common.conf

global { usage-count no; }
common { syncer { rate 30M; } }

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Попробуйте указать в конфиге отсутствующую ноду, которая потом появится у вас. Т.е. наверное для 10.10.10.2 добавить секцию.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

12 часов назад, wtyd сказал:

Попробуйте указать в конфиге отсутствующую ноду, которая потом появится у вас. Т.е. наверное для 10.10.10.2 добавить секцию.

Спасибо, попробую, отпишусь

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

12 часов назад, wtyd сказал:

Попробуйте указать в конфиге отсутствующую ноду, которая потом появится у вас. Т.е. наверное для 10.10.10.2 добавить секцию.

Вопрос возник, в инструкции

 

На обоих узлах:
nano /etc/lvm/lvm.conf
# Меняем строчку filter = [ "a/.*/" ] на
filter = [ "r|^/dev/sdb1|", "a|^/dev/sd|", "a|^/dev/drbd|" ,"r/.*/" ]

 

мне надо т.к. у меня raid

filter = [ "r|^/dev/md0p1|", "a|^/dev/md|", "a|^/dev/drbd|" ,"r/.*/" ]

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.