Jump to content
Калькуляторы

CentOS и автоподключение Intel RAID 1

Добрый день!

Есть машина с созданным в биосе зеркальным рэйдом, с другого диска загружается CentOS 7. В /etc/fstab указан массив и точка монтирования:

 

/dev/md176p1	/mnt/Storage1	ext4	defaults	1	0

 

 

Информация о массиве:

 

# mdadm --detail /dev/md126p1
/dev/md126p1:
     Container : /dev/md/imsm0, member 0
    Raid Level : raid1
    Array Size : 976758784 (931.51 GiB 1000.20 GB)
 Used Dev Size : 976759940 (931.51 GiB 1000.20 GB)
  Raid Devices : 2
 Total Devices : 2

         State : clean 
Active Devices : 2
Working Devices : 2
Failed Devices : 0
 Spare Devices : 0


          UUID : 484dded0:00aae369:90e701d4:57bd62a0
   Number   Major   Minor   RaidDevice State
      1       8        0        0      active sync   /dev/sda
      0       8       16        1      active sync   /dev/sdb

 

 

При загрузке система переходит в emergency mode, journalctl -xb выдает вот что (кусок с ошибками монтирования):

 

-- Unit sys-fs-fuse-connections.mount has finished starting up.
-- 
-- The start-up result is done.
мар 26 15:49:38 kvm systemd[1]: Mounting /mnt/Storage1...
-- Subject: Unit mnt-Storage1.mount has begun with start-up
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit mnt-Storage1.mount has begun starting up.
мар 26 15:49:38 kvm mount[823]: mount: /dev/md126p1 is already mounted or /mnt/Storage1 busy
мар 26 15:49:38 kvm systemd[1]: mnt-Storage1.mount mount process exited, code=exited status=32
мар 26 15:49:38 kvm systemd[1]: Failed to mount /mnt/Storage1.
-- Subject: Unit mnt-Storage1.mount has failed
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit mnt-Storage1.mount has failed.
-- 
-- The result is failed.
мар 26 15:49:38 kvm systemd[1]: Dependency failed for Local File Systems.
-- Subject: Unit local-fs.target has failed
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit local-fs.target has failed.
-- 
-- The result is dependency.
мар 26 15:49:38 kvm systemd[1]: Dependency failed for Relabel all filesystems, if necessary.
-- Subject: Unit rhel-autorelabel.service has failed
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit rhel-autorelabel.service has failed.
-- 
-- The result is dependency.
мар 26 15:49:38 kvm systemd[1]: Dependency failed for Mark the need to relabel after reboot.
-- Subject: Unit rhel-autorelabel-mark.service has failed
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit rhel-autorelabel-mark.service has failed.
-- 
-- The result is dependency.
мар 26 15:49:38 kvm systemd[1]: Triggering OnFailure= dependencies of local-fs.target.
мар 26 15:49:38 kvm systemd[1]: Unit mnt-Storage1.mount entered failed state.
мар 26 15:49:38 kvm systemd[1]: Stopped Daily Cleanup of Temporary Directories.
-- Subject: Unit systemd-tmpfiles-clean.timer has finished shutting down
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel

 

 

Вручную с помощью "mount -a" этот раздел монтируется без проблем.

Помогите решить эту проблему :)

Share this post


Link to post
Share on other sites

Бросьте вы эту затею с raid в bios. Если нужен нормальный RAID лучше купите что нибудь хардварное, если маленький бюджет. Барахолки никто не запрещал.

Share this post


Link to post
Share on other sites

Intel Matrix Storage и иже с ними?

Выбросьте и используйте mdadm. Один хрен и то, и другое софтовое.

Share this post


Link to post
Share on other sites

Если нужен нормальный RAID лучше купите что нибудь хардварное

 

В корне не согласен, hw raid ничем не лучше софтового кроме 2-5% выигрыша в цпу. Зато минусов целая пачка.

Share this post


Link to post
Share on other sites

/mnt/Storage1 существует персистентно на диске? Рутфс успевает смонтироваться до этого?

добавьте в опции фс nofail

Share this post


Link to post
Share on other sites

/mnt/Storage1 существует персистентно на диске? Рутфс успевает смонтироваться до этого?

добавьте в опции фс nofail

 

Да, директория существует, рут монтируется до него. Еще в /mnt/Storage2 монтируется другой жесткий диск, отдельный от массива, c ним никаких проблем нет

/dev/sdc1       /mnt/Storage2   ext4    defaults        1       2

Добавил nofail, система грузится, в emergency mode не падает, но массив не подключается.

#cat /etc/fstab
/dev/mapper/centos-root /                       xfs     defaults        1 1
UUID=6d129378-9346-4cb5-8afc-de9aef2979db /boot                   xfs     defaults        1 2
/dev/mapper/centos-swap swap                    swap    defaults        0 0
/dev/md126p1	/mnt/Storage1	ext4	defaults,nofail	1	0
/dev/sdc1	/mnt/Storage2	ext4	defaults	1	2

#journalctl -xb | grep -C 5 Storage1
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit sys-fs-fuse-connections.mount has finished starting up.
-- 
-- The start-up result is done.
мар 27 11:12:00 kvm systemd[1]: Mounting /mnt/Storage1...
-- Subject: Unit mnt-Storage1.mount has begun with start-up
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit mnt-Storage1.mount has begun starting up.
мар 27 11:12:00 kvm systemd[1]: Started File System Check on /dev/sdc1.
-- Subject: Unit systemd-fsck@dev-sdc1.service has finished start-up
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
--
-- Subject: Unit mnt-Storage2.mount has begun with start-up
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit mnt-Storage2.mount has begun starting up.
мар 27 11:12:00 kvm mount[796]: mount: /dev/md126p1 is already mounted or /mnt/Storage1 busy
мар 27 11:12:00 kvm systemd[1]: mnt-Storage1.mount mount process exited, code=exited status=32
мар 27 11:12:00 kvm systemd[1]: Failed to mount /mnt/Storage1.
-- Subject: Unit mnt-Storage1.mount has failed
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit mnt-Storage1.mount has failed.
-- 
-- The result is failed.
мар 27 11:12:00 kvm systemd[1]: Unit mnt-Storage1.mount entered failed state.
мар 27 11:12:00 kvm systemd[1]: Mounted /mnt/Storage2.
-- Subject: Unit mnt-Storage2.mount has finished start-up
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
--

Edited by evgen.v

Share this post


Link to post
Share on other sites

Если нужен нормальный RAID лучше купите что нибудь хардварное

 

В корне не согласен, hw raid ничем не лучше софтового кроме 2-5% выигрыша в цпу. Зато минусов целая пачка.

Был у меня опыт с такими soft-raid на обычных мамах. Если один винт начинает тупить. Весь массив начинает загибаться, такое впечатление что запросы на диски становились в очередь. Читал спецификацию хардварных контроллеров, там явно указывается если какой нибудь из винтов не ответил N милисекунд, контроллер помечает его как degraded. А на софте это лечилось вычислением через SMART какой винт умер.

Share this post


Link to post
Share on other sites

FATHER_FBI,

Для этого нужно использовать серверные HDD (как WD RE). Они сами в случае деградации не тупят, а сразу выдают ошибку. Тогда RAID-контроллер (или ОС) сразу же делает его degraded.

И именно по этой же причине серверные HDD нельзя использовать на десктопе. Кстати, вот: http://geektimes.ru/post/92701/ .

Share this post


Link to post
Share on other sites

FATHER_FBI,

Для этого нужно использовать серверные HDD (как WD RE). Они сами в случае деградации не тупят, а сразу выдают ошибку. Тогда RAID-контроллер (или ОС) сразу же делает его degraded.

И именно по этой же причине серверные HDD нельзя использовать на десктопе. Кстати, вот: http://geektimes.ru/post/92701/ .

Использовались WD VelociRaptor, тестовый стенд проработал неделю под нагрузкой и успешно умер.

Спасибо за статью)

Edited by FATHER_FBI

Share this post


Link to post
Share on other sites

Если нужен нормальный RAID лучше купите что нибудь хардварное

 

В корне не согласен, hw raid ничем не лучше софтового кроме 2-5% выигрыша в цпу. Зато минусов целая пачка.

Был у меня опыт с такими soft-raid на обычных мамах. Если один винт начинает тупить. Весь массив начинает загибаться, такое впечатление что запросы на диски становились в очередь. Читал спецификацию хардварных контроллеров, там явно указывается если какой нибудь из винтов не ответил N милисекунд, контроллер помечает его как degraded. А на софте это лечилось вычислением через SMART какой винт умер.

 

Я не говорил про всякий intel-matrix. Речь про обычный mdadm, например.

Share this post


Link to post
Share on other sites

Number Major Minor RaidDevice State

1 8 0 0 active sync /dev/sda

0 8 16 1 active sync /dev/sdb

 

Говорил в другой ветке, повторю тут: при создании массивов в mdadm, использовать "сырые" устройства без создания на них разделов - это подложить себе мину на будущее. Ну хреново работает с не размеченными устройствами mdadm, о чем честно пришет при попытке создания.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this