Страница 1 из 1

CentOS6 SoftRAID (RAID1) - как восстановить?

Добавлено: 2016-01-20 12:01:57
cyri
Есть сервер на CentOS 6, настроен RAID1, ночью был получен такое автоматическое сообщение:

Код: Выделить всё

From root@server.localdomain  Wed Jan 20 03:33:50 2016
Return-Path: <root@server.localdomain>
X-Original-To: root
Delivered-To: root@server.localdomain
Received: by server.localdomain (Postfix, from userid 0)
	id XXXX; Wed, 20 Jan 2016 03:33:50 +0400 (AMT)
From: mdadm monitoring <root@server.localdomain>
To: root@server.localdomain
Subject: Fail event on /dev/md126:server.localdomain
Message-Id: <20160119233350.XXXX@server.localdomain>
Date: Wed, 20 Jan 2016 03:33:50 +0400 (AMT)

This is an automatically generated mail message from mdadm
running on server.localdomain

A Fail event had been detected on md device /dev/md126.

It could be related to component device /dev/sda.

Faithfully yours, etc.

P.S. The /proc/mdstat file currently contains the following:

Personalities : [raid1] 
md126 : active raid1 sdb[1]
      976759808 blocks super external:/md0/0 [2/1] [U_]
      
md0 : inactive sdb[1](S) sda[0](S)
      5288 blocks super external:imsm
       
unused devices: <none>
Вот содержимое /etc/mdadm.conf:

Код: Выделить всё

# mdadm.conf written out by anaconda
MAILADDR root
AUTO +imsm +1.x -all
ARRAY /dev/md0 UUID=aaaa:bbbb:cccc:dddd
ARRAY /dev/md127 UUID=xxxx:zzzz:yyyy:qqqq
Вот результат команды mdadm --misc --detail /dev/md0:

Код: Выделить всё

/dev/md0:
        Version : imsm
     Raid Level : container
  Total Devices : 2

Working Devices : 2


           UUID : aaaa:bbbb:cccc:dddd
  Member Arrays : /dev/md/SYSTEM

    Number   Major   Minor   RaidDevice

       0       8        0        -        /dev/sda
       1       8       16        -        /dev/sdb
Вот результат команды mdadm --misc --detail /dev/md126:

Код: Выделить всё

/dev/md126:
      Container : /dev/md0, member 0
     Raid Level : raid1
     Array Size : 976759808 (931.51 GiB 1000.20 GB)
  Used Dev Size : 976759940 (931.51 GiB 1000.20 GB)
   Raid Devices : 2
  Total Devices : 1

          State : active, degraded
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0


           UUID : xxxx:zzzz:yyyy:qqqq
    Number   Major   Minor   RaidDevice State
       1       8       16        0      active sync   /dev/sdb
       2       0        0        2      removed
Вот содержимое /boot/grub/grub.conf:

Код: Выделить всё

# grub.conf generated by anaconda
#
# Note that you do not have to rerun grub after making changes to this file
# NOTICE:  You have a /boot partition.  This means that
#          all kernel and initrd paths are relative to /boot/, eg.
#          root (hd0,0)
#          kernel /vmlinuz-version ro root=/dev/md127p2
#          initrd /initrd-[generic-]version.img
#boot=/dev/md127
default=0
timeout=5
splashimage=(hd0,0)/grub/splash.xpm.gz
hiddenmenu
title CentOS (2.6.32-573.12.1.el6.x86_64)
	root (hd0,0)
	kernel /vmlinuz-2.6.32-573.12.1.el6.x86_64 ro root=UUID=xxxx-xxxx nomodeset rd_NO_LUKS  KEYBOARDTYPE=pc KEYTABLE=us LANG=en_US.UTF-8 rd_MD_UUID=yyyy:yyyy SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_LVM rd_NO_DM rd_MD_UUID=zzzz:zzzz rhgb quiet
	initrd /initramfs-2.6.32-573.12.1.el6.x86_64.img
title CentOS (2.6.32-573.8.1.el6.x86_64)
	root (hd0,0)
	kernel /vmlinuz-2.6.32-573.8.1.el6.x86_64 ro root=UUID=xxxx-xxxx nomodeset rd_NO_LUKS  KEYBOARDTYPE=pc KEYTABLE=us LANG=en_US.UTF-8 rd_MD_UUID=yyyy:yyyy SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_LVM rd_NO_DM rd_MD_UUID=zzzz:zzzz rhgb quiet
	initrd /initramfs-2.6.32-573.8.1.el6.x86_64.img
Вот результат команды fdisk -l /dev/sdb:

Код: Выделить всё

Disk /dev/sdb: 1000.2 GB, 1000204886016 bytes
255 heads, 63 sectors/track, 121601 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x12345678

   Device Boot      Start         End      Blocks   Id  System
/dev/sdb1   *           1          26      204800   83  Linux
Partition 1 does not end on cylinder boundary.
/dev/sdb2              26        1332    10485760   83  Linux
/dev/sdb3            1332        1854     4194304   82  Linux swap / Solaris
/dev/sdb4            1854      121601   961873920    5  Extended
/dev/sdb5            1854        1984     1048576   83  Linux
/dev/sdb6            1985      121601   960823296   83  Linux
У кого есть опыт, расскажите пожалуйста примерный алгоритм восстановления. Достаточно ли восстановить средствами BIOS или нужно еще и в CentOS шаманить командами md*?

Вопрос навскидку: если новый диск будет иметь 4096-байтные физические сектора это будет проблемой?

Спасибо!

CentOS6 SoftRAID (RAID1) - как восстановить?

Добавлено: 2016-01-22 0:25:34
FiL
зеркало сделано из биоса (fakeraid)? Тогда и восстанавливайте там. И линукс увидит всё как надо.

Диск все-таки лучше менять на такой как и был.

CentOS6 SoftRAID (RAID1) - как восстановить?

Добавлено: 2016-01-22 11:23:18
cyri
зеркало сделано из биоса (fakeraid)?
Да
Тогда и восстанавливайте там. И линукс увидит всё как надо.
Линукс поймет что зеркало восстановилась и /proc/mdstat будет показывать что все в порядке без каких-либо вмешательств?
Диск все-таки лучше менять на такой как и был.
ОК.

Большое спасибо за ответ. Восстановление запланировано на воскресенье, надеюсь пройдет без проблем.

CentOS6 SoftRAID (RAID1) - как восстановить?

Добавлено: 2016-10-04 6:35:07
Danielnak
A new report:

Just to check, I plug a 2Tb USB external Disk to my server DL380G4

I mount it with:

ntfs-3g /dev/sda1 /mnt/ExtDISK2Tb

and this works fine... can read and write files in Centos...

Going crazy - maybe a raid0 conflict with ntfs-3g?


still trying...

regards

Antonio

CentOS6 SoftRAID (RAID1) - как восстановить?

Добавлено: 2016-10-04 9:37:54
snorlov
Ну по "русски" же написано, подключаемый вами внешний диск, имеет файловую систему ntfs, поэтому грузится ntfs-3g, при этом тот же диск воспринимается как часть зеркала, отсюда и возникает конфликт...

CentOS6 SoftRAID (RAID1) - как восстановить?

Добавлено: 2016-10-04 19:23:21
FiL
а не бот-ли это? :)

а какое отношение имеет то, что вы потом вставляете в usb к рейду, который сломался отдельно?
и вообще, может все-таки тему новую открыть, если проблема другая?