fractal

Активный участник
  • Публикаций

    378
  • Зарегистрирован

  • Посещение

Информация о fractal

  • Звание
    Студент
  • День рождения
  1. Пытаюсь настроить proxmox5 + ceph, но ошибки с самого начала root@pve-1:~# pveceph init —network 10.10.10.0/30 400 too many arguments pveceph init [OPTIONS] root@pve-1:~# почему ругается, что не нравится хз
  2. Недавно заметил нагрузку ну интерфейсе микротика от провайдела 4мбит? глянул торч прописал правило но счетчик появился только после того как я добавил в bridge порт ether2, трафик не упал, что делать?
  3. Вопрос возник, в инструкции На обоих узлах: nano /etc/lvm/lvm.conf # Меняем строчку filter = [ "a/.*/" ] на filter = [ "r|^/dev/sdb1|", "a|^/dev/sd|", "a|^/dev/drbd|" ,"r/.*/" ] мне надо т.к. у меня raid filter = [ "r|^/dev/md0p1|", "a|^/dev/md|", "a|^/dev/drbd|" ,"r/.*/" ]
  4. /etc/drbd.d/r0.res resource r0 { protocol C; startup { wfc-timeout 0; # non-zero might be dangerous degr-wfc-timeout 60; become-primary-on both; } net { cram-hmac-alg sha1; shared-secret "oogh2ouch0aitahNBLABLABLA"; allow-two-primaries; after-sb-0pri discard-zero-changes; after-sb-1pri discard-secondary; after-sb-2pri disconnect; } on pve-1 { device /dev/drbd0; disk /dev/md0p1; address 10.10.10.1:7788; meta-disk internal; } } /etc/drbd.d/global_common.conf global { usage-count no; } common { syncer { rate 30M; } }
  5. Хочу поднять кластер из 2-х серверов Что сделал (пока работаю с одним) 1. Raid10 из 4-х дисков по 2TB 2. Разбил raid на 2 раздела, первый 200Гб, второй 3500Гб 3. Установил drbd Пока у меня есть только один сервак, хочу настроить на нем все, далее перенести с работающего сервака виртуалки на него и далее работающий сервак загнать в кластер, но drbd ругается root@pve-1:~# drbdadm up r0 /etc/drbd.d/r0.res:1: in resource r0: Missing section 'on <PEER> { ... }'. resource r0: cannot configure network without knowing my peer.
  6. Хочу поднять кластер из 2-х серверов Что сделал (пока работаю с одним) 1. Raid10 из 4-х дисков по 2TB 2. Разбил raid на 2 раздела, первый 200Гб, второй 3500Гб 3. Установил drbd Пока у меня есть только один сервак, хочу настроить на нем все, далее перенести с работающего сервака виртуалки на него и далее работающий сервак загнать в кластер, но drbd ругается root@pve-1:~# drbdadm up r0 /etc/drbd.d/r0.res:1: in resource r0: Missing section 'on <PEER> { ... }'. resource r0: cannot configure network without knowing my peer.
  7. Все просто, mst это же многовендорный, немного позже скину, а так связка 2 длинка и cisco пашут, root-ом является cisco 3560
  8. Cisco с mst работает норм и с другими вендорами, провайдер даёт qinq туннель и bpdu туннель
  9. Всем привет, имеется удаленный коммутатор cisco 3560 к нему подключен офис, ядро сети в другом месте, до этого ядра сторонний провайдер предоставляет 2 канала qinq с прохождением bpdu. Можно ли как то на основе mst сделать резервирование? логически это выглядит как будто коммутатор замыкает кольцо на себя (). В другом расположении где у нас три офиса все понятное дело работает ()
  10. Такой функционал есть в планах, но на конкретный релиз пока не назначен. Очень сам сожалею об этом. эх, обидно, а когда планируется?
  11. В камбиуме есть режим теста как в ubiquity? чтобы проверить конфигурацию и при не работе возврат к предыдущему состоянию?