Перейти к содержимому
Калькуляторы

не работает HP Proliant DL360 G4

Значит есть и 8A, 8B, 8C? Где они на материнке?

по идее это все должно быть нарисовано на наклейке, помещенной с внутренней стороны крышки.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

В доке на платформу есть пара страниц про память, но там же примечание: "NOTE: Chart does not represent all possible configurations." И про банки/слоты не очень понятно - "When upgrading memory, DIMMs 1A and 3A must match. DIMMs 5B and 7B, DIMMs 2C and 4C, and DIMMs 6D and 8D must match and must be installed as a pair" - как они нумеруются? Что такое 8D? Значит есть и 8A, 8B, 8C? Где они на материнке?

а вы попробуйте почитать не quickspecs, а полный мануал, коих у хьюлетта штук 20 разных на разные темы общения с сервером. там и рисунок есть, на котором слоты памяти подписаны, и догадываться ни о чем не надо.

 

http://h20566.www2.hpe.com/hpsc/doc/public/display?sp4ts.oid=1121486&docLocale=en_US&docId=emr_na-c00710376, 75-я страница. "ощути себя гуглем" )

 

к слову, не помню, как было у Gen5, а у серверов Gen6 все слоты подписаны прямо на материнке.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Охренеть нумерация слотов! Ни за что бы не догадался. И кто такое придумал?! :)

По фото получается, что сейчас заняты все "нечетные" слоты, значит ставим 2 новые планки в "DIMMs 6D and 8D must match and must be installed as a pair" или "DIMMs 2C and 4C"

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Тоже до сих пор жужжит HP Proliant DL360 G5

Но вот стали последнее время в лог сервера сыпаться сообщения вида:

sudo dmesg | grep channel
[675527.168041] EDAC MC0: CE row 1, channel 0, label "": (Branch=0 DRAM-Bank=1 RDWR=Read RAS=16177 C AS=956, CE Err=0x2000 (Correctable Non-Mirrored Demand Data ECC))
[675528.168040] EDAC MC0: CE row 0, channel 0, label "": (Branch=0 DRAM-Bank=2 RDWR=Read RAS=13828 C AS=952, CE Err=0x2000 (Correctable Non-Mirrored Demand Data ECC))
[675529.168068] EDAC MC0: CE row 0, channel 0, label "": (Branch=0 DRAM-Bank=2 RDWR=Read RAS=13828 C AS=952, CE Err=0x2000 (Correctable Non-Mirrored Demand Data ECC))
[675530.168032] EDAC MC0: CE row 0, channel 0, label "": (Branch=0 DRAM-Bank=1 RDWR=Read RAS=6160 CA S=8, CE Err=0x2000 (Correctable Non-Mirrored Demand Data ECC))
[675531.168039] EDAC MC0: CE row 0, channel 0, label "": (Branch=0 DRAM-Bank=2 RDWR=Read RAS=13828 C AS=952, CE Err=0x2000 (Correctable Non-Mirrored Demand Data ECC))
[675532.168047] EDAC MC0: CE row 0, channel 0, label "": (Branch=0 DRAM-Bank=2 RDWR=Read RAS=13828 C AS=952, CE Err=0x2000 (Correctable Non-Mirrored Demand Data ECC))

 

Похоже, что проблемы с памятью?

Поставил сегодня ночью две новые купленные планки памяти по 4Г каждая, и похоже, что причина реально в том, что 2 из 4х старых планок сбоят - см.фото.

IMG_2017-01-27_065124.jpg

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Поставил сегодня ночью две новые купленные планки памяти по 4Г каждая, и похоже, что причина реально в том, что 2 из 4х старых планок сбоят - см.фото.

IMG_2017-01-27_065124.jpg

 

Или у планок проблемы или у разъемов или в обвязке питания на материнке.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Или у планок проблемы или у разъемов или в обвязке питания на материнке.

Это как бы очевидный ответ :). Вопрос в диагностике.

Думаю снять все планки памяти, взять 2 подозрительные планки, поставить в один банк и прогнать тесты. Будет сбоить - скорее всего планки. Подозрения именно на это, т.к. сервак сейчас в работе и видит 10 гиг памяти из установленных 12.

PS. Контакты на планках стеркой чистил с последующей промывкой изопропиловым спиртом.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

я бы для начала потестил плашку в слоте 1А...

 

и да, memtest86+ для тестов памятивесьма годен. он и ЕСС ошибки умеет видеть.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

я бы для начала потестил плашку в слоте 1А...

По мануалу на сервак плашки ставятся парами. Если поставить только одну плашку в первый банк, то сервак скажет, что не обнаружена валидная память в банке 1.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

В сервере HP DL360 G5 стоит raid controller hp p400i

Под Дебиан поставили hpacucli как описано тут https://sumguy.com/linux-hp-smart-array-raid-controller/

Вроде видит все установленные диски (в работе только диск в bay 1, в bay 2 и 3 поставили новые диски):

hpacucli ctrl all show status
Smart Array P400i in Slot 0 (Embedded)
  Controller Status: OK
  Cache Status: OK

hpacucli ctrl slot=0 pd all show status
  physicaldrive 1I:1:1 (port 1I:box 1:bay 1, 320.0 GB): OK
  physicaldrive 1I:1:2 (port 1I:box 1:bay 2, 500 GB): OK
  physicaldrive 1I:1:3 (port 1I:box 1:bay 3, 320.0 GB): OK

hpacucli  ctrl all show config

Smart Array P400i in Slot 0 (Embedded)    (sn: PH8CMQ6371     )
  array A (SATA, Unused Space: 0  MB)
     logicaldrive 1 (298.1 GB, RAID 0, OK)
     physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SATA, 320.0 GB, OK)
  unassigned
     physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SATA, 500 GB, OK)
     physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SATA, 320.0 GB, OK)

hpacucli ctrl slot=0 ld all show

Smart Array P400i in Slot 0 (Embedded)
  array A
     logicaldrive 1 (298.1 GB, RAID 0, OK)

 

Вопрос только в том - как создать например raid 1 из 1го и 3го дисков

Судя по https://ru-tld.ru/h/help_system:servera:raid:nastroika-hpacucle

вроде так:

hpacucli ctrl slot=0  create type=ld drives=1I:1:1,1I:1:3 raid=1 stripesize=128

или так:

#Добавление дополнительного физического диска к логическому
hpacucli ctrl slot=0 ld 1 add drives=1I:1:3

 

вот только не понятно - что будет с данными на 1м диске?

У кого был опыт в этом деле?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Не он тебе выдает, а ты ему должен выдать. Если активности ноль- снеси на помойку, антиквариат уже почти.

Хотя у меня до сих пор один пенсионер 360г3 жужжит, дак к нему еще 2 тела зипом прилагаются.

а, я ошибался. не жужжит он уже несколько лет, на нем просто два тауэра стоят, снять никак))))

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Не он тебе выдает, а ты ему должен выдать. Если активности ноль- снеси на помойку, антиквариат уже почти.

Хотя у меня до сих пор один пенсионер 360г3 жужжит, дак к нему еще 2 тела зипом прилагаются.

а, я ошибался. не жужжит он уже несколько лет, на нем просто два тауэра стоят, снять никак))))

 

Хайтек-рэк-полочка?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Раз советов нет, то пробую сам

Исходные данные

hpacucli controller slot=0 physicaldrive all show status

  physicaldrive 1I:1:1 (port 1I:box 1:bay 1, 320.0 GB): OK
  physicaldrive 1I:1:2 (port 1I:box 1:bay 2, 500 GB): OK
  physicaldrive 1I:1:3 (port 1I:box 1:bay 3, 320.0 GB): OK

hpacucli controller slot=0 logicaldrive all show status

  logicaldrive 1 (298.1 GB, 0): OK

 

1й диск - рабочий, 2й и 3й - новые.

 

Создал для эксперимента логический диск и рейд из одного 3го диска

 hpacucli ctrl slot=0 create type=ld drives=1I:1:3 raid=0

Результат:

 hpacucli  ctrl all show config
Smart Array P400i in Slot 0 (Embedded)    (sn: PH8CMQ6371     )
  array A (SATA, Unused Space: 0  MB)
     logicaldrive 1 (298.1 GB, RAID 0, OK)
     physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SATA, 320.0 GB, OK)
  array B (SATA, Unused Space: 0  MB)
     logicaldrive 2 (298.1 GB, RAID 0, OK)
     physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SATA, 320.0 GB, OK)
  unassigned
     physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SATA, 500 GB, OK)

и

 sudo fdisk -l
...
Disk /dev/cciss/c0d1: 320.0 GB, 320039378944 bytes
255 heads, 63 sectors/track, 38909 cylinders, total 625076912 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x5cc2013e

          Device Boot      Start         End      Blocks   Id  System
/dev/cciss/c0d1p1            2048   625139711   312568832    7  HPFS/NTFS/exFAT

 

Пытаюсь замонтировать:

 sudo mount -t ntfs -o rw /dev/cciss/c0d1 /vol1
mount: wrong fs type, bad option, bad superblock on /dev/cciss/c0d1,
      missing codepage or helper program, or other error
      In some cases useful info is found in syslog - try
      dmesg | tail  or so

:(

 

В dmesq пусто, в kernel.log

Feb 20 17:23:11 gate kernel: [385730.358468] NTFS-fs warning (device cciss/c0d1): is_boot_sector_ntf
s(): Invalid boot sector checksum.
Feb 20 17:23:11 gate kernel: [385730.358617] NTFS-fs error (device cciss/c0d1): read_ntfs_boot_secto
r(): Primary boot sector is invalid.
Feb 20 17:23:11 gate kernel: [385730.358760] NTFS-fs error (device cciss/c0d1): read_ntfs_boot_secto
r(): Mount option errors=recover not used. Aborting without trying to recover.
Feb 20 17:23:11 gate kernel: [385730.358959] NTFS-fs error (device cciss/c0d1): ntfs_fill_super(): N
ot an NTFS volume.

 

ЧЯДН?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Там описана совсем другая ситуация.

1й диск у меня рабочий, с него сервер грузится и работает сейчас.

Установлены 2 новых диска, надо их задействовать. Контроллер их видит, но... - см. выше.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Можно sudo mount -t ntfs -o rw /dev/cciss/c0d1p1 /vol1

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Перегрузите сервер и сравните метки.

А вообще зайдите с биос контроллера после растарта и посмотрите статус массива из новых дисков.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Перегрузите сервер и сравните метки.

А вообще зайдите с биос контроллера после растарта и посмотрите статус массива из новых дисков.

Сервер стоит в ядре, перегружать - если только ночью.

Диски и так видны, замонтировать удалось.

 sudo  hpacucli  ctrl all show config
Smart Array P400i in Slot 0 (Embedded)    (sn: PH8CMQ6371     )
  array A (SATA, Unused Space: 0  MB)
     logicaldrive 1 (298.1 GB, RAID 0, OK)
     physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SATA, 320.0 GB, OK)
  array B (SATA, Unused Space: 0  MB)
     logicaldrive 2 (298.1 GB, RAID 0, OK)
     physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SATA, 320.0 GB, OK)
  array C (SATA, Unused Space: 0  MB)
     logicaldrive 3 (465.7 GB, RAID 0, OK)
     physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SATA, 500 GB, OK)

Вопрос был в том - как собрать из двух из них - 1го (загрузочный, рабочий, с данными) и 3го (новый) - raid1, и что при этом произойдет с данными на 1м диске.

Сейчас они все в raid0 и гугление говорит, что он без потери данных в raid1 не переделывается :(

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Гугль правду говорит. Был бы первый диск в деградированном RAID1, то достаточно было бы добавить в массив второй. А так только сохранить данные, и пересоздать массив.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

На 410 с батарейкой так точно можно.

Ну уж в таком случае договаривали бы... :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

В 23.02.2017 в 23:34, zhenya` сказал:

На 410 с батарейкой так точно можно.

Сорри за некропост, но какие преимущества в этом случае дает батарейка, и как ими воспользоваться?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

В 05.05.2022 в 11:41, Andrei сказал:

Сорри за некропост, но какие преимущества в этом случае дает батарейка, и как ими воспользоваться?

Она разблокирует работу с RAID5. Без батарейки - только 0, 1 и 1+0

Как этим воспользоваться думаю догадаетесь сами.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

В 05.05.2022 в 19:27, sol сказал:

догадаетесь сами.

Честно? Понятия не имею :)

Задача - переделать Raid0 в Raid1 без потери данных. Raid5 не планируется.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

По опыту G6 G7 создать Raid5 появляется после установки модуля кеша. Без него только 0 или 1. А вот на Raid6 он уже лицуху хочет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

В 06.05.2022 в 08:39, Garra-67 сказал:

По опыту G6 G7 создать Raid5 появляется после установки модуля кеша.

И не просто модуля, а модуля С БАТАРЕЙКОЙ.

 

 

В 05.05.2022 в 17:59, Andrei сказал:

Задача - переделать Raid0 в Raid1 без потери данных.

Тут такое дело... При факапе вы потеряете данные. Так что требуется бекап.

А раз есть бекап - то просто восстановитесь с него на массив нужного уровня.

 

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Гость
Ответить в тему...

×   Вставлено в виде отформатированного текста.   Вставить в виде обычного текста

  Разрешено не более 75 смайлов.

×   Ваша ссылка была автоматически встроена.   Отобразить как ссылку

×   Ваш предыдущий контент был восстановлен.   Очистить редактор

×   Вы не можете вставить изображения напрямую. Загрузите или вставьте изображения по ссылке.