Jump to content

CentOS и автоподключение Intel RAID 1

Добрый день!

Есть машина с созданным в биосе зеркальным рэйдом, с другого диска загружается CentOS 7. В /etc/fstab указан массив и точка монтирования:

 

/dev/md176p1	/mnt/Storage1	ext4	defaults	1	0

 

 

Информация о массиве:

 

# mdadm --detail /dev/md126p1
/dev/md126p1:
     Container : /dev/md/imsm0, member 0
    Raid Level : raid1
    Array Size : 976758784 (931.51 GiB 1000.20 GB)
 Used Dev Size : 976759940 (931.51 GiB 1000.20 GB)
  Raid Devices : 2
 Total Devices : 2

         State : clean 
Active Devices : 2
Working Devices : 2
Failed Devices : 0
 Spare Devices : 0


          UUID : 484dded0:00aae369:90e701d4:57bd62a0
   Number   Major   Minor   RaidDevice State
      1       8        0        0      active sync   /dev/sda
      0       8       16        1      active sync   /dev/sdb

 

 

При загрузке система переходит в emergency mode, journalctl -xb выдает вот что (кусок с ошибками монтирования):

 

-- Unit sys-fs-fuse-connections.mount has finished starting up.
-- 
-- The start-up result is done.
мар 26 15:49:38 kvm systemd[1]: Mounting /mnt/Storage1...
-- Subject: Unit mnt-Storage1.mount has begun with start-up
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit mnt-Storage1.mount has begun starting up.
мар 26 15:49:38 kvm mount[823]: mount: /dev/md126p1 is already mounted or /mnt/Storage1 busy
мар 26 15:49:38 kvm systemd[1]: mnt-Storage1.mount mount process exited, code=exited status=32
мар 26 15:49:38 kvm systemd[1]: Failed to mount /mnt/Storage1.
-- Subject: Unit mnt-Storage1.mount has failed
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit mnt-Storage1.mount has failed.
-- 
-- The result is failed.
мар 26 15:49:38 kvm systemd[1]: Dependency failed for Local File Systems.
-- Subject: Unit local-fs.target has failed
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit local-fs.target has failed.
-- 
-- The result is dependency.
мар 26 15:49:38 kvm systemd[1]: Dependency failed for Relabel all filesystems, if necessary.
-- Subject: Unit rhel-autorelabel.service has failed
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit rhel-autorelabel.service has failed.
-- 
-- The result is dependency.
мар 26 15:49:38 kvm systemd[1]: Dependency failed for Mark the need to relabel after reboot.
-- Subject: Unit rhel-autorelabel-mark.service has failed
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit rhel-autorelabel-mark.service has failed.
-- 
-- The result is dependency.
мар 26 15:49:38 kvm systemd[1]: Triggering OnFailure= dependencies of local-fs.target.
мар 26 15:49:38 kvm systemd[1]: Unit mnt-Storage1.mount entered failed state.
мар 26 15:49:38 kvm systemd[1]: Stopped Daily Cleanup of Temporary Directories.
-- Subject: Unit systemd-tmpfiles-clean.timer has finished shutting down
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel

 

 

Вручную с помощью "mount -a" этот раздел монтируется без проблем.

Помогите решить эту проблему :)

Share this post


Link to post
Share on other sites

Бросьте вы эту затею с raid в bios. Если нужен нормальный RAID лучше купите что нибудь хардварное, если маленький бюджет. Барахолки никто не запрещал.

Share this post


Link to post
Share on other sites

Если нужен нормальный RAID лучше купите что нибудь хардварное

 

В корне не согласен, hw raid ничем не лучше софтового кроме 2-5% выигрыша в цпу. Зато минусов целая пачка.

Share this post


Link to post
Share on other sites

/mnt/Storage1 существует персистентно на диске? Рутфс успевает смонтироваться до этого?

добавьте в опции фс nofail

Share this post


Link to post
Share on other sites

/mnt/Storage1 существует персистентно на диске? Рутфс успевает смонтироваться до этого?

добавьте в опции фс nofail

 

Да, директория существует, рут монтируется до него. Еще в /mnt/Storage2 монтируется другой жесткий диск, отдельный от массива, c ним никаких проблем нет

/dev/sdc1       /mnt/Storage2   ext4    defaults        1       2

Добавил nofail, система грузится, в emergency mode не падает, но массив не подключается.

#cat /etc/fstab
/dev/mapper/centos-root /                       xfs     defaults        1 1
UUID=6d129378-9346-4cb5-8afc-de9aef2979db /boot                   xfs     defaults        1 2
/dev/mapper/centos-swap swap                    swap    defaults        0 0
/dev/md126p1	/mnt/Storage1	ext4	defaults,nofail	1	0
/dev/sdc1	/mnt/Storage2	ext4	defaults	1	2

#journalctl -xb | grep -C 5 Storage1
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit sys-fs-fuse-connections.mount has finished starting up.
-- 
-- The start-up result is done.
мар 27 11:12:00 kvm systemd[1]: Mounting /mnt/Storage1...
-- Subject: Unit mnt-Storage1.mount has begun with start-up
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit mnt-Storage1.mount has begun starting up.
мар 27 11:12:00 kvm systemd[1]: Started File System Check on /dev/sdc1.
-- Subject: Unit systemd-fsck@dev-sdc1.service has finished start-up
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
--
-- Subject: Unit mnt-Storage2.mount has begun with start-up
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit mnt-Storage2.mount has begun starting up.
мар 27 11:12:00 kvm mount[796]: mount: /dev/md126p1 is already mounted or /mnt/Storage1 busy
мар 27 11:12:00 kvm systemd[1]: mnt-Storage1.mount mount process exited, code=exited status=32
мар 27 11:12:00 kvm systemd[1]: Failed to mount /mnt/Storage1.
-- Subject: Unit mnt-Storage1.mount has failed
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
-- 
-- Unit mnt-Storage1.mount has failed.
-- 
-- The result is failed.
мар 27 11:12:00 kvm systemd[1]: Unit mnt-Storage1.mount entered failed state.
мар 27 11:12:00 kvm systemd[1]: Mounted /mnt/Storage2.
-- Subject: Unit mnt-Storage2.mount has finished start-up
-- Defined-By: systemd
-- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel
--

Edited by evgen.v

Share this post


Link to post
Share on other sites

Если нужен нормальный RAID лучше купите что нибудь хардварное

 

В корне не согласен, hw raid ничем не лучше софтового кроме 2-5% выигрыша в цпу. Зато минусов целая пачка.

Был у меня опыт с такими soft-raid на обычных мамах. Если один винт начинает тупить. Весь массив начинает загибаться, такое впечатление что запросы на диски становились в очередь. Читал спецификацию хардварных контроллеров, там явно указывается если какой нибудь из винтов не ответил N милисекунд, контроллер помечает его как degraded. А на софте это лечилось вычислением через SMART какой винт умер.

Share this post


Link to post
Share on other sites

FATHER_FBI,

Для этого нужно использовать серверные HDD (как WD RE). Они сами в случае деградации не тупят, а сразу выдают ошибку. Тогда RAID-контроллер (или ОС) сразу же делает его degraded.

И именно по этой же причине серверные HDD нельзя использовать на десктопе. Кстати, вот: http://geektimes.ru/post/92701/ .

Share this post


Link to post
Share on other sites

FATHER_FBI,

Для этого нужно использовать серверные HDD (как WD RE). Они сами в случае деградации не тупят, а сразу выдают ошибку. Тогда RAID-контроллер (или ОС) сразу же делает его degraded.

И именно по этой же причине серверные HDD нельзя использовать на десктопе. Кстати, вот: http://geektimes.ru/post/92701/ .

Использовались WD VelociRaptor, тестовый стенд проработал неделю под нагрузкой и успешно умер.

Спасибо за статью)

Edited by FATHER_FBI

Share this post


Link to post
Share on other sites

Если нужен нормальный RAID лучше купите что нибудь хардварное

 

В корне не согласен, hw raid ничем не лучше софтового кроме 2-5% выигрыша в цпу. Зато минусов целая пачка.

Был у меня опыт с такими soft-raid на обычных мамах. Если один винт начинает тупить. Весь массив начинает загибаться, такое впечатление что запросы на диски становились в очередь. Читал спецификацию хардварных контроллеров, там явно указывается если какой нибудь из винтов не ответил N милисекунд, контроллер помечает его как degraded. А на софте это лечилось вычислением через SMART какой винт умер.

 

Я не говорил про всякий intel-matrix. Речь про обычный mdadm, например.

Share this post


Link to post
Share on other sites

Number Major Minor RaidDevice State

1 8 0 0 active sync /dev/sda

0 8 16 1 active sync /dev/sdb

 

Говорил в другой ветке, повторю тут: при создании массивов в mdadm, использовать "сырые" устройства без создания на них разделов - это подложить себе мину на будущее. Ну хреново работает с не размеченными устройствами mdadm, о чем честно пришет при попытке создания.

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.