Hehabr Опубликовано 11 июня, 2013 · Жалоба Вот какой вопрос возник, помогите разобраться пожалуйста: На сервер с аппаратным RAID и 4 жесткими дисками ( RAID 5 )устанавливается Windows Server 2008 R2. Будет ли системный раздел распределяться на все 4 диска или вся система установится на каком то одном? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
CNick Опубликовано 11 июня, 2013 · Жалоба Как-то так http://ru.wikipedia.org/wiki/RAID#RAID_5 Блоки данных и контрольные суммы циклически записываются на все диски массива, нет асимметричности конфигурации дисков. (С) wiki Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
digsi Опубликовано 11 июня, 2013 · Жалоба 5 рейд не стоит делать, а то при вылете одного, может и второй тоже за ним последовать при ребилде Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
S.Sannikov Опубликовано 11 июня, 2013 · Жалоба 5 рейд не стоит делать, а то при вылете одного, может и второй тоже за ним последовать при ребилде На железном рейде? В чем причина? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 11 июня, 2013 · Жалоба На железном рейде? На любом рэйде. С тем отличием, что железный собирать будет мучительно больно... В чем причина? В повышенной нагрузке при ребилде. И в том, что если не шедулить регулярную проверку - в неиспользуемых уголках легко могут образоваться "спящие" бэды, о которых ни контроллер, ни винт ни сном ни духом (хотя не, в смарте скорее всего offline uncorrectable вырастет - но не факт, а сам бэд навряд заримэпится), и при отказе одного из винтов спящий бэд на другом преподнесет веселый сюрприз... Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
dignity Опубликовано 12 июня, 2013 · Жалоба 10 в вашем случае или 6, если паранойя. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
BiWiS Опубликовано 12 июня, 2013 · Жалоба да, рэйд 5 аппаратный оставил печальные воспоминания :( Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
dignity Опубликовано 12 июня, 2013 · Жалоба ну почему же. Если SAS диски на 147 - 300 GB то RAID5 на 4х дисках нормально живет. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
digsi Опубликовано 12 июня, 2013 · Жалоба при нынешних ценах на SSD энтепрайз интел типа s3700 - поставил парочку и всё летает. А под объем - поставить SATA Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Alex/AT Опубликовано 12 июня, 2013 · Жалоба В повышенной нагрузке при ребилде. И в том, что если не шедулить регулярную проверку - в неиспользуемых уголках легко могут образоваться "спящие" бэды, о которых ни контроллер, ни винт ни сном ни духом (хотя не, в смарте скорее всего offline uncorrectable вырастет - но не факт, а сам бэд навряд заримэпится), и при отказе одного из винтов спящий бэд на другом преподнесет веселый сюрприз... Отключать patrol read - моветон :) А так - да, спящие бэды хоть на пятерке, хоть на единице - беда еще та. С другой стороны - если "уголок" действительно не используется - обычно ничего страшного не происходит, допустим на LSI массив в работе остаётся, но просит менять диски. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
dignity Опубликовано 12 июня, 2013 · Жалоба Вообще, надо контроллер с поддержкой скраббинга и все ок, не будет у вас спящих бэдов. Только такой контроллер еще найти надо, а так, реализуется на уровне фс, например ZFS. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Alex/AT Опубликовано 12 июня, 2013 · Жалоба Вообще, надо контроллер с поддержкой скраббинга и все ок, не будет у вас спящих бэдов. Только такой контроллер еще найти надо, а так, реализуется на уровне фс, например ZFS. На уровне FS - там цена слишком высока за данную фичу. Проще иметь нормальный аппаратный контроллер с включенным patrol read. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
dignity Опубликовано 12 июня, 2013 (изменено) · Жалоба Вообще, надо контроллер с поддержкой скраббинга и все ок, не будет у вас спящих бэдов. Только такой контроллер еще найти надо, а так, реализуется на уровне фс, например ZFS. На уровне FS - там цена слишком высока за данную фичу. Проще иметь нормальный аппаратный контроллер с включенным patrol read. это смотря какая FS) У меня на параллельной многотеррабайтной ФС scrubbing - вполне себе обычный процесс. Да и вообще, неочевидно что означает "слишком дорога". Обычно скраб делается в периоды низкой нагрузки, какая разница насколько он дорог. Изменено 12 июня, 2013 пользователем dignity Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Alex/AT Опубликовано 12 июня, 2013 · Жалоба это смотря какая FS) У меня на параллельной многотеррабайтной ФС scrubbing - вполне себе обычный процесс. Да и вообще, неочевидно что означает "слишком дорога". Обычно скраб делается в периоды низкой нагрузки, какая разница насколько он дорог. Речь выше шла о ZFS. Как насчет расхода памяти под ZFS? Или гиперфрагментации CoW, что неприемлемо для БД? Да и вообще - дело не в самом процессе скраббинга. У параллельных FS - тоже есть свои тонкости, и своя, строго ограниченная, сфера применения. Для повседневности цена этих FS слишком высока, всё-таки. Я не имею в виду только производительность - я имею в виду собственно стоимость владения. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
dignity Опубликовано 12 июня, 2013 · Жалоба это смотря какая FS) У меня на параллельной многотеррабайтной ФС scrubbing - вполне себе обычный процесс. Да и вообще, неочевидно что означает "слишком дорога". Обычно скраб делается в периоды низкой нагрузки, какая разница насколько он дорог. Речь выше шла о ZFS. Как насчет расхода памяти под ZFS? Или гиперфрагментации CoW, что неприемлемо для БД? Да и вообще - дело не в самом процессе скраббинга. У параллельных FS - тоже есть свои тонкости, и своя, строго ограниченная, сфера применения. Для повседневности цена этих FS слишком высока, всё-таки. Я не имею в виду только производительность - я имею в виду собственно стоимость владения. вы правы, конечно, однако все же ZFS + БД - нормальная связка, хотя, возможно, и не без вышеуказанных недостатков. В конце концов есть же SSD кэш) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...