taf_321 Опубликовано 23 января, 2017 · Жалоба Значит есть и 8A, 8B, 8C? Где они на материнке? по идее это все должно быть нарисовано на наклейке, помещенной с внутренней стороны крышки. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
nixx Опубликовано 24 января, 2017 · Жалоба В доке на платформу есть пара страниц про память, но там же примечание: "NOTE: Chart does not represent all possible configurations." И про банки/слоты не очень понятно - "When upgrading memory, DIMMs 1A and 3A must match. DIMMs 5B and 7B, DIMMs 2C and 4C, and DIMMs 6D and 8D must match and must be installed as a pair" - как они нумеруются? Что такое 8D? Значит есть и 8A, 8B, 8C? Где они на материнке? а вы попробуйте почитать не quickspecs, а полный мануал, коих у хьюлетта штук 20 разных на разные темы общения с сервером. там и рисунок есть, на котором слоты памяти подписаны, и догадываться ни о чем не надо. http://h20566.www2.hpe.com/hpsc/doc/public/display?sp4ts.oid=1121486&docLocale=en_US&docId=emr_na-c00710376, 75-я страница. "ощути себя гуглем" ) к слову, не помню, как было у Gen5, а у серверов Gen6 все слоты подписаны прямо на материнке. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Andrei Опубликовано 24 января, 2017 · Жалоба Охренеть нумерация слотов! Ни за что бы не догадался. И кто такое придумал?! :) По фото получается, что сейчас заняты все "нечетные" слоты, значит ставим 2 новые планки в "DIMMs 6D and 8D must match and must be installed as a pair" или "DIMMs 2C and 4C" Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Andrei Опубликовано 27 января, 2017 · Жалоба Тоже до сих пор жужжит HP Proliant DL360 G5 Но вот стали последнее время в лог сервера сыпаться сообщения вида: sudo dmesg | grep channel [675527.168041] EDAC MC0: CE row 1, channel 0, label "": (Branch=0 DRAM-Bank=1 RDWR=Read RAS=16177 C AS=956, CE Err=0x2000 (Correctable Non-Mirrored Demand Data ECC)) [675528.168040] EDAC MC0: CE row 0, channel 0, label "": (Branch=0 DRAM-Bank=2 RDWR=Read RAS=13828 C AS=952, CE Err=0x2000 (Correctable Non-Mirrored Demand Data ECC)) [675529.168068] EDAC MC0: CE row 0, channel 0, label "": (Branch=0 DRAM-Bank=2 RDWR=Read RAS=13828 C AS=952, CE Err=0x2000 (Correctable Non-Mirrored Demand Data ECC)) [675530.168032] EDAC MC0: CE row 0, channel 0, label "": (Branch=0 DRAM-Bank=1 RDWR=Read RAS=6160 CA S=8, CE Err=0x2000 (Correctable Non-Mirrored Demand Data ECC)) [675531.168039] EDAC MC0: CE row 0, channel 0, label "": (Branch=0 DRAM-Bank=2 RDWR=Read RAS=13828 C AS=952, CE Err=0x2000 (Correctable Non-Mirrored Demand Data ECC)) [675532.168047] EDAC MC0: CE row 0, channel 0, label "": (Branch=0 DRAM-Bank=2 RDWR=Read RAS=13828 C AS=952, CE Err=0x2000 (Correctable Non-Mirrored Demand Data ECC)) Похоже, что проблемы с памятью? Поставил сегодня ночью две новые купленные планки памяти по 4Г каждая, и похоже, что причина реально в том, что 2 из 4х старых планок сбоят - см.фото. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vlad11 Опубликовано 27 января, 2017 · Жалоба Поставил сегодня ночью две новые купленные планки памяти по 4Г каждая, и похоже, что причина реально в том, что 2 из 4х старых планок сбоят - см.фото. Или у планок проблемы или у разъемов или в обвязке питания на материнке. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Andrei Опубликовано 28 января, 2017 · Жалоба Или у планок проблемы или у разъемов или в обвязке питания на материнке. Это как бы очевидный ответ :). Вопрос в диагностике. Думаю снять все планки памяти, взять 2 подозрительные планки, поставить в один банк и прогнать тесты. Будет сбоить - скорее всего планки. Подозрения именно на это, т.к. сервак сейчас в работе и видит 10 гиг памяти из установленных 12. PS. Контакты на планках стеркой чистил с последующей промывкой изопропиловым спиртом. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
NiTr0 Опубликовано 28 января, 2017 · Жалоба я бы для начала потестил плашку в слоте 1А... и да, memtest86+ для тестов памятивесьма годен. он и ЕСС ошибки умеет видеть. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Andrei Опубликовано 28 января, 2017 · Жалоба я бы для начала потестил плашку в слоте 1А... По мануалу на сервак плашки ставятся парами. Если поставить только одну плашку в первый банк, то сервак скажет, что не обнаружена валидная память в банке 1. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Andrei Опубликовано 15 февраля, 2017 · Жалоба В сервере HP DL360 G5 стоит raid controller hp p400i Под Дебиан поставили hpacucli как описано тут https://sumguy.com/linux-hp-smart-array-raid-controller/ Вроде видит все установленные диски (в работе только диск в bay 1, в bay 2 и 3 поставили новые диски): hpacucli ctrl all show status Smart Array P400i in Slot 0 (Embedded) Controller Status: OK Cache Status: OK hpacucli ctrl slot=0 pd all show status physicaldrive 1I:1:1 (port 1I:box 1:bay 1, 320.0 GB): OK physicaldrive 1I:1:2 (port 1I:box 1:bay 2, 500 GB): OK physicaldrive 1I:1:3 (port 1I:box 1:bay 3, 320.0 GB): OK hpacucli ctrl all show config Smart Array P400i in Slot 0 (Embedded) (sn: PH8CMQ6371 ) array A (SATA, Unused Space: 0 MB) logicaldrive 1 (298.1 GB, RAID 0, OK) physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SATA, 320.0 GB, OK) unassigned physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SATA, 500 GB, OK) physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SATA, 320.0 GB, OK) hpacucli ctrl slot=0 ld all show Smart Array P400i in Slot 0 (Embedded) array A logicaldrive 1 (298.1 GB, RAID 0, OK) Вопрос только в том - как создать например raid 1 из 1го и 3го дисков Судя по https://ru-tld.ru/h/help_system:servera:raid:nastroika-hpacucle вроде так: hpacucli ctrl slot=0 create type=ld drives=1I:1:1,1I:1:3 raid=1 stripesize=128 или так: #Добавление дополнительного физического диска к логическому hpacucli ctrl slot=0 ld 1 add drives=1I:1:3 вот только не понятно - что будет с данными на 1м диске? У кого был опыт в этом деле? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
dIMbI4 Опубликовано 15 февраля, 2017 · Жалоба Не он тебе выдает, а ты ему должен выдать. Если активности ноль- снеси на помойку, антиквариат уже почти. Хотя у меня до сих пор один пенсионер 360г3 жужжит, дак к нему еще 2 тела зипом прилагаются. а, я ошибался. не жужжит он уже несколько лет, на нем просто два тауэра стоят, снять никак)))) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
sol Опубликовано 16 февраля, 2017 · Жалоба Не он тебе выдает, а ты ему должен выдать. Если активности ноль- снеси на помойку, антиквариат уже почти. Хотя у меня до сих пор один пенсионер 360г3 жужжит, дак к нему еще 2 тела зипом прилагаются. а, я ошибался. не жужжит он уже несколько лет, на нем просто два тауэра стоят, снять никак)))) Хайтек-рэк-полочка? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Andrei Опубликовано 20 февраля, 2017 · Жалоба Раз советов нет, то пробую сам Исходные данные hpacucli controller slot=0 physicaldrive all show status physicaldrive 1I:1:1 (port 1I:box 1:bay 1, 320.0 GB): OK physicaldrive 1I:1:2 (port 1I:box 1:bay 2, 500 GB): OK physicaldrive 1I:1:3 (port 1I:box 1:bay 3, 320.0 GB): OK hpacucli controller slot=0 logicaldrive all show status logicaldrive 1 (298.1 GB, 0): OK 1й диск - рабочий, 2й и 3й - новые. Создал для эксперимента логический диск и рейд из одного 3го диска hpacucli ctrl slot=0 create type=ld drives=1I:1:3 raid=0 Результат: hpacucli ctrl all show config Smart Array P400i in Slot 0 (Embedded) (sn: PH8CMQ6371 ) array A (SATA, Unused Space: 0 MB) logicaldrive 1 (298.1 GB, RAID 0, OK) physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SATA, 320.0 GB, OK) array B (SATA, Unused Space: 0 MB) logicaldrive 2 (298.1 GB, RAID 0, OK) physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SATA, 320.0 GB, OK) unassigned physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SATA, 500 GB, OK) и sudo fdisk -l ... Disk /dev/cciss/c0d1: 320.0 GB, 320039378944 bytes 255 heads, 63 sectors/track, 38909 cylinders, total 625076912 sectors Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x5cc2013e Device Boot Start End Blocks Id System /dev/cciss/c0d1p1 2048 625139711 312568832 7 HPFS/NTFS/exFAT Пытаюсь замонтировать: sudo mount -t ntfs -o rw /dev/cciss/c0d1 /vol1 mount: wrong fs type, bad option, bad superblock on /dev/cciss/c0d1, missing codepage or helper program, or other error In some cases useful info is found in syslog - try dmesg | tail or so :( В dmesq пусто, в kernel.log Feb 20 17:23:11 gate kernel: [385730.358468] NTFS-fs warning (device cciss/c0d1): is_boot_sector_ntf s(): Invalid boot sector checksum. Feb 20 17:23:11 gate kernel: [385730.358617] NTFS-fs error (device cciss/c0d1): read_ntfs_boot_secto r(): Primary boot sector is invalid. Feb 20 17:23:11 gate kernel: [385730.358760] NTFS-fs error (device cciss/c0d1): read_ntfs_boot_secto r(): Mount option errors=recover not used. Aborting without trying to recover. Feb 20 17:23:11 gate kernel: [385730.358959] NTFS-fs error (device cciss/c0d1): ntfs_fill_super(): N ot an NTFS volume. ЧЯДН? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vlad11 Опубликовано 20 февраля, 2017 · Жалоба Наверное, это. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Andrei Опубликовано 20 февраля, 2017 · Жалоба Там описана совсем другая ситуация. 1й диск у меня рабочий, с него сервер грузится и работает сейчас. Установлены 2 новых диска, надо их задействовать. Контроллер их видит, но... - см. выше. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
h3ll1 Опубликовано 20 февраля, 2017 · Жалоба Можно sudo mount -t ntfs -o rw /dev/cciss/c0d1p1 /vol1 Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
vlad11 Опубликовано 21 февраля, 2017 · Жалоба Перегрузите сервер и сравните метки. А вообще зайдите с биос контроллера после растарта и посмотрите статус массива из новых дисков. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Andrei Опубликовано 22 февраля, 2017 · Жалоба Перегрузите сервер и сравните метки. А вообще зайдите с биос контроллера после растарта и посмотрите статус массива из новых дисков. Сервер стоит в ядре, перегружать - если только ночью. Диски и так видны, замонтировать удалось. sudo hpacucli ctrl all show config Smart Array P400i in Slot 0 (Embedded) (sn: PH8CMQ6371 ) array A (SATA, Unused Space: 0 MB) logicaldrive 1 (298.1 GB, RAID 0, OK) physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SATA, 320.0 GB, OK) array B (SATA, Unused Space: 0 MB) logicaldrive 2 (298.1 GB, RAID 0, OK) physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SATA, 320.0 GB, OK) array C (SATA, Unused Space: 0 MB) logicaldrive 3 (465.7 GB, RAID 0, OK) physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SATA, 500 GB, OK) Вопрос был в том - как собрать из двух из них - 1го (загрузочный, рабочий, с данными) и 3го (новый) - raid1, и что при этом произойдет с данными на 1м диске. Сейчас они все в raid0 и гугление говорит, что он без потери данных в raid1 не переделывается :( Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
taf_321 Опубликовано 23 февраля, 2017 · Жалоба Гугль правду говорит. Был бы первый диск в деградированном RAID1, то достаточно было бы добавить в массив второй. А так только сохранить данные, и пересоздать массив. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
zhenya` Опубликовано 23 февраля, 2017 · Жалоба На 410 с батарейкой так точно можно. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Andrei Опубликовано 25 февраля, 2017 · Жалоба На 410 с батарейкой так точно можно. Ну уж в таком случае договаривали бы... :) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Andrei Опубликовано 5 мая, 2022 · Жалоба В 23.02.2017 в 23:34, zhenya` сказал: На 410 с батарейкой так точно можно. Сорри за некропост, но какие преимущества в этом случае дает батарейка, и как ими воспользоваться? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
sol Опубликовано 5 мая, 2022 · Жалоба В 05.05.2022 в 11:41, Andrei сказал: Сорри за некропост, но какие преимущества в этом случае дает батарейка, и как ими воспользоваться? Она разблокирует работу с RAID5. Без батарейки - только 0, 1 и 1+0 Как этим воспользоваться думаю догадаетесь сами. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Andrei Опубликовано 5 мая, 2022 · Жалоба В 05.05.2022 в 19:27, sol сказал: догадаетесь сами. Честно? Понятия не имею :) Задача - переделать Raid0 в Raid1 без потери данных. Raid5 не планируется. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Garra-67 Опубликовано 6 мая, 2022 · Жалоба По опыту G6 G7 создать Raid5 появляется после установки модуля кеша. Без него только 0 или 1. А вот на Raid6 он уже лицуху хочет. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
sol Опубликовано 6 мая, 2022 · Жалоба В 06.05.2022 в 08:39, Garra-67 сказал: По опыту G6 G7 создать Raid5 появляется после установки модуля кеша. И не просто модуля, а модуля С БАТАРЕЙКОЙ. В 05.05.2022 в 17:59, Andrei сказал: Задача - переделать Raid0 в Raid1 без потери данных. Тут такое дело... При факапе вы потеряете данные. Так что требуется бекап. А раз есть бекап - то просто восстановитесь с него на массив нужного уровня. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...