evgen.v Posted March 26, 2015 · Report post Добрый день! Есть машина с созданным в биосе зеркальным рэйдом, с другого диска загружается CentOS 7. В /etc/fstab указан массив и точка монтирования: /dev/md176p1 /mnt/Storage1 ext4 defaults 1 0 Информация о массиве: # mdadm --detail /dev/md126p1 /dev/md126p1: Container : /dev/md/imsm0, member 0 Raid Level : raid1 Array Size : 976758784 (931.51 GiB 1000.20 GB) Used Dev Size : 976759940 (931.51 GiB 1000.20 GB) Raid Devices : 2 Total Devices : 2 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 UUID : 484dded0:00aae369:90e701d4:57bd62a0 Number Major Minor RaidDevice State 1 8 0 0 active sync /dev/sda 0 8 16 1 active sync /dev/sdb При загрузке система переходит в emergency mode, journalctl -xb выдает вот что (кусок с ошибками монтирования): -- Unit sys-fs-fuse-connections.mount has finished starting up. -- -- The start-up result is done. мар 26 15:49:38 kvm systemd[1]: Mounting /mnt/Storage1... -- Subject: Unit mnt-Storage1.mount has begun with start-up -- Defined-By: systemd -- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel -- -- Unit mnt-Storage1.mount has begun starting up. мар 26 15:49:38 kvm mount[823]: mount: /dev/md126p1 is already mounted or /mnt/Storage1 busy мар 26 15:49:38 kvm systemd[1]: mnt-Storage1.mount mount process exited, code=exited status=32 мар 26 15:49:38 kvm systemd[1]: Failed to mount /mnt/Storage1. -- Subject: Unit mnt-Storage1.mount has failed -- Defined-By: systemd -- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel -- -- Unit mnt-Storage1.mount has failed. -- -- The result is failed. мар 26 15:49:38 kvm systemd[1]: Dependency failed for Local File Systems. -- Subject: Unit local-fs.target has failed -- Defined-By: systemd -- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel -- -- Unit local-fs.target has failed. -- -- The result is dependency. мар 26 15:49:38 kvm systemd[1]: Dependency failed for Relabel all filesystems, if necessary. -- Subject: Unit rhel-autorelabel.service has failed -- Defined-By: systemd -- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel -- -- Unit rhel-autorelabel.service has failed. -- -- The result is dependency. мар 26 15:49:38 kvm systemd[1]: Dependency failed for Mark the need to relabel after reboot. -- Subject: Unit rhel-autorelabel-mark.service has failed -- Defined-By: systemd -- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel -- -- Unit rhel-autorelabel-mark.service has failed. -- -- The result is dependency. мар 26 15:49:38 kvm systemd[1]: Triggering OnFailure= dependencies of local-fs.target. мар 26 15:49:38 kvm systemd[1]: Unit mnt-Storage1.mount entered failed state. мар 26 15:49:38 kvm systemd[1]: Stopped Daily Cleanup of Temporary Directories. -- Subject: Unit systemd-tmpfiles-clean.timer has finished shutting down -- Defined-By: systemd -- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel Вручную с помощью "mount -a" этот раздел монтируется без проблем. Помогите решить эту проблему :) Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
FATHER_FBI Posted March 26, 2015 · Report post Бросьте вы эту затею с raid в bios. Если нужен нормальный RAID лучше купите что нибудь хардварное, если маленький бюджет. Барахолки никто не запрещал. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
Abram Posted March 26, 2015 · Report post Intel Matrix Storage и иже с ними? Выбросьте и используйте mdadm. Один хрен и то, и другое софтовое. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
DVM-Avgoor Posted March 27, 2015 · Report post Если нужен нормальный RAID лучше купите что нибудь хардварное В корне не согласен, hw raid ничем не лучше софтового кроме 2-5% выигрыша в цпу. Зато минусов целая пачка. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
DVM-Avgoor Posted March 27, 2015 · Report post /mnt/Storage1 существует персистентно на диске? Рутфс успевает смонтироваться до этого? добавьте в опции фс nofail Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
evgen.v Posted March 27, 2015 (edited) · Report post /mnt/Storage1 существует персистентно на диске? Рутфс успевает смонтироваться до этого? добавьте в опции фс nofail Да, директория существует, рут монтируется до него. Еще в /mnt/Storage2 монтируется другой жесткий диск, отдельный от массива, c ним никаких проблем нет /dev/sdc1 /mnt/Storage2 ext4 defaults 1 2 Добавил nofail, система грузится, в emergency mode не падает, но массив не подключается. #cat /etc/fstab /dev/mapper/centos-root / xfs defaults 1 1 UUID=6d129378-9346-4cb5-8afc-de9aef2979db /boot xfs defaults 1 2 /dev/mapper/centos-swap swap swap defaults 0 0 /dev/md126p1 /mnt/Storage1 ext4 defaults,nofail 1 0 /dev/sdc1 /mnt/Storage2 ext4 defaults 1 2 #journalctl -xb | grep -C 5 Storage1 -- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel -- -- Unit sys-fs-fuse-connections.mount has finished starting up. -- -- The start-up result is done. мар 27 11:12:00 kvm systemd[1]: Mounting /mnt/Storage1... -- Subject: Unit mnt-Storage1.mount has begun with start-up -- Defined-By: systemd -- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel -- -- Unit mnt-Storage1.mount has begun starting up. мар 27 11:12:00 kvm systemd[1]: Started File System Check on /dev/sdc1. -- Subject: Unit systemd-fsck@dev-sdc1.service has finished start-up -- Defined-By: systemd -- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel -- -- -- Subject: Unit mnt-Storage2.mount has begun with start-up -- Defined-By: systemd -- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel -- -- Unit mnt-Storage2.mount has begun starting up. мар 27 11:12:00 kvm mount[796]: mount: /dev/md126p1 is already mounted or /mnt/Storage1 busy мар 27 11:12:00 kvm systemd[1]: mnt-Storage1.mount mount process exited, code=exited status=32 мар 27 11:12:00 kvm systemd[1]: Failed to mount /mnt/Storage1. -- Subject: Unit mnt-Storage1.mount has failed -- Defined-By: systemd -- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel -- -- Unit mnt-Storage1.mount has failed. -- -- The result is failed. мар 27 11:12:00 kvm systemd[1]: Unit mnt-Storage1.mount entered failed state. мар 27 11:12:00 kvm systemd[1]: Mounted /mnt/Storage2. -- Subject: Unit mnt-Storage2.mount has finished start-up -- Defined-By: systemd -- Support: http://lists.freedesktop.org/mailman/listinfo/systemd-devel -- Edited March 27, 2015 by evgen.v Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
FATHER_FBI Posted March 27, 2015 · Report post Если нужен нормальный RAID лучше купите что нибудь хардварное В корне не согласен, hw raid ничем не лучше софтового кроме 2-5% выигрыша в цпу. Зато минусов целая пачка. Был у меня опыт с такими soft-raid на обычных мамах. Если один винт начинает тупить. Весь массив начинает загибаться, такое впечатление что запросы на диски становились в очередь. Читал спецификацию хардварных контроллеров, там явно указывается если какой нибудь из винтов не ответил N милисекунд, контроллер помечает его как degraded. А на софте это лечилось вычислением через SMART какой винт умер. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
Abram Posted March 27, 2015 · Report post FATHER_FBI, Для этого нужно использовать серверные HDD (как WD RE). Они сами в случае деградации не тупят, а сразу выдают ошибку. Тогда RAID-контроллер (или ОС) сразу же делает его degraded. И именно по этой же причине серверные HDD нельзя использовать на десктопе. Кстати, вот: http://geektimes.ru/post/92701/ . Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
FATHER_FBI Posted March 27, 2015 (edited) · Report post FATHER_FBI, Для этого нужно использовать серверные HDD (как WD RE). Они сами в случае деградации не тупят, а сразу выдают ошибку. Тогда RAID-контроллер (или ОС) сразу же делает его degraded. И именно по этой же причине серверные HDD нельзя использовать на десктопе. Кстати, вот: http://geektimes.ru/post/92701/ . Использовались WD VelociRaptor, тестовый стенд проработал неделю под нагрузкой и успешно умер. Спасибо за статью) Edited March 27, 2015 by FATHER_FBI Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
DVM-Avgoor Posted March 27, 2015 · Report post Если нужен нормальный RAID лучше купите что нибудь хардварное В корне не согласен, hw raid ничем не лучше софтового кроме 2-5% выигрыша в цпу. Зато минусов целая пачка. Был у меня опыт с такими soft-raid на обычных мамах. Если один винт начинает тупить. Весь массив начинает загибаться, такое впечатление что запросы на диски становились в очередь. Читал спецификацию хардварных контроллеров, там явно указывается если какой нибудь из винтов не ответил N милисекунд, контроллер помечает его как degraded. А на софте это лечилось вычислением через SMART какой винт умер. Я не говорил про всякий intel-matrix. Речь про обычный mdadm, например. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...
taf_321 Posted March 30, 2015 · Report post Number Major Minor RaidDevice State 1 8 0 0 active sync /dev/sda 0 8 16 1 active sync /dev/sdb Говорил в другой ветке, повторю тут: при создании массивов в mdadm, использовать "сырые" устройства без создания на них разделов - это подложить себе мину на будущее. Ну хреново работает с не размеченными устройствами mdadm, о чем честно пришет при попытке создания. Вставить ник Quote Ответить с цитированием Share this post Link to post Share on other sites More sharing options...