Перейти к содержимому
Калькуляторы

CentOS и автоподключение Intel RAID 1

Добрый день!

Есть машина с созданным в биосе зеркальным рэйдом, с другого диска загружается CentOS 7. В /etc/fstab указан массив и точка монтирования:

 

/dev/md176p1	/mnt/Storage1	ext4	defaults	1	0

 

 

Информация о массиве:

 

# mdadm --detail /dev/md126p1
/dev/md126p1:
     Container : /dev/md/imsm0, member 0
    Raid Level : raid1
    Array Size : 976758784 (931.51 GiB 1000.20 GB)
 Used Dev Size : 976759940 (931.51 GiB 1000.20 GB)
  Raid Devices : 2
 Total Devices : 2

         State : clean 
Active Devices : 2
Working Devices : 2
Failed Devices : 0
 Spare Devices : 0


          UUID : 484dded0:00aae369:90e701d4:57bd62a0
   Number   Major   Minor   RaidDevice State
      1       8        0        0      active sync   /dev/sda
      0       8       16        1      active sync   /dev/sdb

 

 

При загрузке система переходит в emergency mode, journalctl -xb выдает вот что (кусок с ошибками монтирования):

 

-- Unit sys-fs-fuse-connections.mount has finished starting up.
-- 
-- The start-up result is done.
мар 26 15:49:38 kvm systemd[1]: Mounting /mnt/Storage1...
-- Subject: Unit mnt-Storage1.mount has begun with start-up
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit mnt-Storage1.mount has begun starting up.
мар 26 15:49:38 kvm mount[823]: mount: /dev/md126p1 is already mounted or /mnt/Storage1 busy
мар 26 15:49:38 kvm systemd[1]: mnt-Storage1.mount mount process exited, code=exited status=32
мар 26 15:49:38 kvm systemd[1]: Failed to mount /mnt/Storage1.
-- Subject: Unit mnt-Storage1.mount has failed
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit mnt-Storage1.mount has failed.
-- 
-- The result is failed.
мар 26 15:49:38 kvm systemd[1]: Dependency failed for Local File Systems.
-- Subject: Unit local-fs.target has failed
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit local-fs.target has failed.
-- 
-- The result is dependency.
мар 26 15:49:38 kvm systemd[1]: Dependency failed for Relabel all filesystems, if necessary.
-- Subject: Unit rhel-autorelabel.service has failed
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit rhel-autorelabel.service has failed.
-- 
-- The result is dependency.
мар 26 15:49:38 kvm systemd[1]: Dependency failed for Mark the need to relabel after reboot.
-- Subject: Unit rhel-autorelabel-mark.service has failed
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit rhel-autorelabel-mark.service has failed.
-- 
-- The result is dependency.
мар 26 15:49:38 kvm systemd[1]: Triggering OnFailure= dependencies of local-fs.target.
мар 26 15:49:38 kvm systemd[1]: Unit mnt-Storage1.mount entered failed state.
мар 26 15:49:38 kvm systemd[1]: Stopped Daily Cleanup of Temporary Directories.
-- Subject: Unit systemd-tmpfiles-clean.timer has finished shutting down
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel

 

 

Вручную с помощью "mount -a" этот раздел монтируется без проблем.

Помогите решить эту проблему :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Бросьте вы эту затею с raid в bios. Если нужен нормальный RAID лучше купите что нибудь хардварное, если маленький бюджет. Барахолки никто не запрещал.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Intel Matrix Storage и иже с ними?

Выбросьте и используйте mdadm. Один хрен и то, и другое софтовое.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Если нужен нормальный RAID лучше купите что нибудь хардварное

 

В корне не согласен, hw raid ничем не лучше софтового кроме 2-5% выигрыша в цпу. Зато минусов целая пачка.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

/mnt/Storage1 существует персистентно на диске? Рутфс успевает смонтироваться до этого?

добавьте в опции фс nofail

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

/mnt/Storage1 существует персистентно на диске? Рутфс успевает смонтироваться до этого?

добавьте в опции фс nofail

 

Да, директория существует, рут монтируется до него. Еще в /mnt/Storage2 монтируется другой жесткий диск, отдельный от массива, c ним никаких проблем нет

/dev/sdc1       /mnt/Storage2   ext4    defaults        1       2

Добавил nofail, система грузится, в emergency mode не падает, но массив не подключается.

#cat /etc/fstab
/dev/mapper/centos-root /                       xfs     defaults        1 1
UUID=6d129378-9346-4cb5-8afc-de9aef2979db /boot                   xfs     defaults        1 2
/dev/mapper/centos-swap swap                    swap    defaults        0 0
/dev/md126p1	/mnt/Storage1	ext4	defaults,nofail	1	0
/dev/sdc1	/mnt/Storage2	ext4	defaults	1	2

#journalctl -xb | grep -C 5 Storage1
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit sys-fs-fuse-connections.mount has finished starting up.
-- 
-- The start-up result is done.
мар 27 11:12:00 kvm systemd[1]: Mounting /mnt/Storage1...
-- Subject: Unit mnt-Storage1.mount has begun with start-up
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit mnt-Storage1.mount has begun starting up.
мар 27 11:12:00 kvm systemd[1]: Started File System Check on /dev/sdc1.
-- Subject: Unit systemd-fsck@dev-sdc1.service has finished start-up
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
--
-- Subject: Unit mnt-Storage2.mount has begun with start-up
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit mnt-Storage2.mount has begun starting up.
мар 27 11:12:00 kvm mount[796]: mount: /dev/md126p1 is already mounted or /mnt/Storage1 busy
мар 27 11:12:00 kvm systemd[1]: mnt-Storage1.mount mount process exited, code=exited status=32
мар 27 11:12:00 kvm systemd[1]: Failed to mount /mnt/Storage1.
-- Subject: Unit mnt-Storage1.mount has failed
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit mnt-Storage1.mount has failed.
-- 
-- The result is failed.
мар 27 11:12:00 kvm systemd[1]: Unit mnt-Storage1.mount entered failed state.
мар 27 11:12:00 kvm systemd[1]: Mounted /mnt/Storage2.
-- Subject: Unit mnt-Storage2.mount has finished start-up
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
--

Изменено пользователем evgen.v

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Если нужен нормальный RAID лучше купите что нибудь хардварное

 

В корне не согласен, hw raid ничем не лучше софтового кроме 2-5% выигрыша в цпу. Зато минусов целая пачка.

Был у меня опыт с такими soft-raid на обычных мамах. Если один винт начинает тупить. Весь массив начинает загибаться, такое впечатление что запросы на диски становились в очередь. Читал спецификацию хардварных контроллеров, там явно указывается если какой нибудь из винтов не ответил N милисекунд, контроллер помечает его как degraded. А на софте это лечилось вычислением через SMART какой винт умер.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

FATHER_FBI,

Для этого нужно использовать серверные HDD (как WD RE). Они сами в случае деградации не тупят, а сразу выдают ошибку. Тогда RAID-контроллер (или ОС) сразу же делает его degraded.

И именно по этой же причине серверные HDD нельзя использовать на десктопе. Кстати, вот: http://geektimes.ru/post/92701/ .

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

FATHER_FBI,

Для этого нужно использовать серверные HDD (как WD RE). Они сами в случае деградации не тупят, а сразу выдают ошибку. Тогда RAID-контроллер (или ОС) сразу же делает его degraded.

И именно по этой же причине серверные HDD нельзя использовать на десктопе. Кстати, вот: http://geektimes.ru/post/92701/ .

Использовались WD VelociRaptor, тестовый стенд проработал неделю под нагрузкой и успешно умер.

Спасибо за статью)

Изменено пользователем FATHER_FBI

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Если нужен нормальный RAID лучше купите что нибудь хардварное

 

В корне не согласен, hw raid ничем не лучше софтового кроме 2-5% выигрыша в цпу. Зато минусов целая пачка.

Был у меня опыт с такими soft-raid на обычных мамах. Если один винт начинает тупить. Весь массив начинает загибаться, такое впечатление что запросы на диски становились в очередь. Читал спецификацию хардварных контроллеров, там явно указывается если какой нибудь из винтов не ответил N милисекунд, контроллер помечает его как degraded. А на софте это лечилось вычислением через SMART какой винт умер.

 

Я не говорил про всякий intel-matrix. Речь про обычный mdadm, например.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Number Major Minor RaidDevice State

1 8 0 0 active sync /dev/sda

0 8 16 1 active sync /dev/sdb

 

Говорил в другой ветке, повторю тут: при создании массивов в mdadm, использовать "сырые" устройства без создания на них разделов - это подложить себе мину на будущее. Ну хреново работает с не размеченными устройствами mdadm, о чем честно пришет при попытке создания.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.