восстановление данных с развалилвшгегося ZFS pool

Простые/общие вопросы по UNIX системам. Спросите здесь, если вы новичок

Модераторы: vadim64, terminus

Правила форума
Убедительная просьба юзать теги [cоde] при оформлении листингов.
Сообщения не оформленные должным образом имеют все шансы быть незамеченными.
Mobilesfinks
мл. сержант
Сообщения: 128
Зарегистрирован: 2008-04-14 14:49:48
Контактная информация:

восстановление данных с развалилвшгегося ZFS pool

Непрочитанное сообщение Mobilesfinks » 2015-07-07 14:30:43

На днях навернулся массив ZFS mirror
на дисках поймал бэды.
В итоге ситуация такая:
2-й диск:
- zdb -l

Код: Выделить всё

~ » sudo zdb -l /dev/sdd2                                                                                                                                                                                               alexey@ayamschikov-pc
--------------------------------------------
LABEL 0
--------------------------------------------
    version: 5000
    name: 'userdata'
    state: 0
    txg: 2199934
    pool_guid: 7755428179599985620
    hostid: 2180312168
    hostname: 'freenas.local'
    top_guid: 12958262172326587208
    guid: 5059451112022724165
    vdev_children: 1
    vdev_tree:
        type: 'mirror'
        id: 0
        guid: 12958262172326587208
        metaslab_array: 35
        metaslab_shift: 32
        ashift: 12
        asize: 497955373056
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 4493488366482451897
            path: '/dev/gptid/22b2b9c6-a724-11e4-8650-00e04c6b51db'
            whole_disk: 1
            DTL: 115
            create_txg: 4
            removed: 1
        children[1]:
            type: 'disk'
            id: 1
            guid: 5059451112022724165
            path: '/dev/gptid/233672cb-a724-11e4-8650-00e04c6b51db'
            whole_disk: 1
            DTL: 117
            create_txg: 4
    features_for_read:
        com.delphix:hole_birth
--------------------------------------------
LABEL 1
--------------------------------------------
    version: 5000
    name: 'userdata'
    state: 0
    txg: 2199934
    pool_guid: 7755428179599985620
    hostid: 2180312168
    hostname: 'freenas.local'
    top_guid: 12958262172326587208
    guid: 5059451112022724165
    vdev_children: 1
    vdev_tree:
        type: 'mirror'
        id: 0
        guid: 12958262172326587208
        metaslab_array: 35
        metaslab_shift: 32
        ashift: 12
        asize: 497955373056
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 4493488366482451897
            path: '/dev/gptid/22b2b9c6-a724-11e4-8650-00e04c6b51db'
            whole_disk: 1
            DTL: 115
            create_txg: 4
            removed: 1
        children[1]:
            type: 'disk'
            id: 1
            guid: 5059451112022724165
            path: '/dev/gptid/233672cb-a724-11e4-8650-00e04c6b51db'
            whole_disk: 1
            DTL: 117
            create_txg: 4
    features_for_read:
        com.delphix:hole_birth
--------------------------------------------
LABEL 2
--------------------------------------------
    version: 5000
    name: 'userdata'
    state: 0
    txg: 2199934
    pool_guid: 7755428179599985620
    hostid: 2180312168
    hostname: 'freenas.local'
    top_guid: 12958262172326587208
    guid: 5059451112022724165
    vdev_children: 1
    vdev_tree:
        type: 'mirror'
        id: 0
        guid: 12958262172326587208
        metaslab_array: 35
        metaslab_shift: 32
        ashift: 12
        asize: 497955373056
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 4493488366482451897
            path: '/dev/gptid/22b2b9c6-a724-11e4-8650-00e04c6b51db'
            whole_disk: 1
            DTL: 115
            create_txg: 4
            removed: 1
        children[1]:
            type: 'disk'
            id: 1
            guid: 5059451112022724165
            path: '/dev/gptid/233672cb-a724-11e4-8650-00e04c6b51db'
            whole_disk: 1
            DTL: 117
            create_txg: 4
    features_for_read:
        com.delphix:hole_birth
--------------------------------------------
LABEL 3
--------------------------------------------
    version: 5000
    name: 'userdata'
    state: 0
    txg: 2199934
    pool_guid: 7755428179599985620
    hostid: 2180312168
    hostname: 'freenas.local'
    top_guid: 12958262172326587208
    guid: 5059451112022724165
    vdev_children: 1
    vdev_tree:
        type: 'mirror'
        id: 0
        guid: 12958262172326587208
        metaslab_array: 35
        metaslab_shift: 32
        ashift: 12
        asize: 497955373056
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 4493488366482451897
            path: '/dev/gptid/22b2b9c6-a724-11e4-8650-00e04c6b51db'
            whole_disk: 1
            DTL: 115
            create_txg: 4
            removed: 1
        children[1]:
            type: 'disk'
            id: 1
            guid: 5059451112022724165
            path: '/dev/gptid/233672cb-a724-11e4-8650-00e04c6b51db'
            whole_disk: 1
            DTL: 117
            create_txg: 4
    features_for_read:
        com.delphix:hole_birth
------------------------------------------------------------
- zpool list - no pools available
- zpool import -f

Код: Выделить всё

sudo zpool import -f                                                                                                                                                                                                alexey@ayamschikov-pc
   pool: userdata
     id: 7755428179599985620
  state: DEGRADED
 status: The pool was last accessed by another system.
 action: The pool can be imported despite missing or damaged devices.  The
        fault tolerance of the pool may be compromised if imported.
   see: http://zfsonlinux.org/msg/ZFS-8000-EY
 config:

        userdata                                  DEGRADED
          mirror-0                                DEGRADED
            22b2b9c6-a724-11e4-8650-00e04c6b51db  UNAVAIL
            ata-ST3500418AS_9VMTCW0E              ONLINE
- zpool import -f userdata

Код: Выделить всё

sudo zpool import -f userdata                                                                                                                                                                                       alexey@ayamschikov-pc
cannot import 'userdata': I/O error
        Destroy and re-create the pool from
        a backup source.

1-й диск:
- zdb -l

Код: Выделить всё

 sudo zdb -l /dev/sdc2                                                                                                                                                                                               
--------------------------------------------
LABEL 0
--------------------------------------------
    version: 5000
    name: 'userdata'
    state: 0
    txg: 2199945
    pool_guid: 7755428179599985620
    errata: 0
    hostid: 2831182848
    hostname: 'ayamschikov-pc.vps'
    top_guid: 12958262172326587208
    guid: 4493488366482451897
    vdev_children: 1
    vdev_tree:
        type: 'mirror'
        id: 0
        guid: 12958262172326587208
        metaslab_array: 35
        metaslab_shift: 32
        ashift: 12
        asize: 497955373056
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 4493488366482451897
            path: '/dev/disk/by-id/ata-WDC_WD5000AARS-003BB1_WD-WCAV5K193473-part2'
            whole_disk: 1
            DTL: 115
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 5059451112022724165
            path: '/dev/gptid/233672cb-a724-11e4-8650-00e04c6b51db'
            whole_disk: 1
            not_present: 1
            DTL: 117
            create_txg: 4
    features_for_read:
        com.delphix:hole_birth
--------------------------------------------
LABEL 1
--------------------------------------------
failed to unpack label 1
--------------------------------------------
LABEL 2
--------------------------------------------
    version: 5000
    name: 'userdata'
    state: 0
    txg: 2199945
    pool_guid: 7755428179599985620
    errata: 0
    hostid: 2831182848
    hostname: 'ayamschikov-pc.vps'
    top_guid: 12958262172326587208
    guid: 4493488366482451897
    vdev_children: 1
    vdev_tree:
        type: 'mirror'
        id: 0
        guid: 12958262172326587208
        metaslab_array: 35
        metaslab_shift: 32
        ashift: 12
        asize: 497955373056
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 4493488366482451897
            path: '/dev/disk/by-id/ata-WDC_WD5000AARS-003BB1_WD-WCAV5K193473-part2'
            whole_disk: 1
            DTL: 115
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 5059451112022724165
            path: '/dev/gptid/233672cb-a724-11e4-8650-00e04c6b51db'
            whole_disk: 1
            not_present: 1
            DTL: 117
            create_txg: 4
    features_for_read:
        com.delphix:hole_birth
--------------------------------------------
LABEL 3
--------------------------------------------
    version: 5000
    name: 'userdata'
    state: 0
    txg: 2199945
    pool_guid: 7755428179599985620
    errata: 0
    hostid: 2831182848
    hostname: 'ayamschikov-pc.vps'
    top_guid: 12958262172326587208
    guid: 4493488366482451897
    vdev_children: 1
    vdev_tree:
        type: 'mirror'
        id: 0
        guid: 12958262172326587208
        metaslab_array: 35
        metaslab_shift: 32
        ashift: 12
        asize: 497955373056
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 4493488366482451897
            path: '/dev/disk/by-id/ata-WDC_WD5000AARS-003BB1_WD-WCAV5K193473-part2'
            whole_disk: 1
            DTL: 115
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 5059451112022724165
            path: '/dev/gptid/233672cb-a724-11e4-8650-00e04c6b51db'
            whole_disk: 1
            not_present: 1
            DTL: 117
            create_txg: 4
    features_for_read:
        com.delphix:hole_birth
------------------------------------------------------------
- zpool import -f

Код: Выделить всё

 sudo zdb -l /dev/sdc2                                                                                                                                                                                               alexey@ayamschikov-pc
--------------------------------------------
LABEL 0
--------------------------------------------
    version: 5000
    name: 'userdata'
    state: 0
    txg: 2199945
    pool_guid: 7755428179599985620
    errata: 0
    hostid: 2831182848
    hostname: 'ayamschikov-pc.vps'
    top_guid: 12958262172326587208
    guid: 4493488366482451897
    vdev_children: 1
    vdev_tree:
        type: 'mirror'
        id: 0
        guid: 12958262172326587208
        metaslab_array: 35
        metaslab_shift: 32
        ashift: 12
        asize: 497955373056
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 4493488366482451897
            path: '/dev/disk/by-id/ata-WDC_WD5000AARS-003BB1_WD-WCAV5K193473-part2'
            whole_disk: 1
            DTL: 115
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 5059451112022724165
            path: '/dev/gptid/233672cb-a724-11e4-8650-00e04c6b51db'
            whole_disk: 1
            not_present: 1
            DTL: 117
            create_txg: 4
    features_for_read:
        com.delphix:hole_birth
--------------------------------------------
LABEL 1
--------------------------------------------
failed to unpack label 1
--------------------------------------------
LABEL 2
--------------------------------------------
    version: 5000
    name: 'userdata'
    state: 0
    txg: 2199945
    pool_guid: 7755428179599985620
    errata: 0
    hostid: 2831182848
    hostname: 'ayamschikov-pc.vps'
    top_guid: 12958262172326587208
    guid: 4493488366482451897
    vdev_children: 1
    vdev_tree:
        type: 'mirror'
        id: 0
        guid: 12958262172326587208
        metaslab_array: 35
        metaslab_shift: 32
        ashift: 12
        asize: 497955373056
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 4493488366482451897
            path: '/dev/disk/by-id/ata-WDC_WD5000AARS-003BB1_WD-WCAV5K193473-part2'
            whole_disk: 1
            DTL: 115
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 5059451112022724165
            path: '/dev/gptid/233672cb-a724-11e4-8650-00e04c6b51db'
            whole_disk: 1
            not_present: 1
            DTL: 117
            create_txg: 4
    features_for_read:
        com.delphix:hole_birth
--------------------------------------------
LABEL 3
--------------------------------------------
    version: 5000
    name: 'userdata'
    state: 0
    txg: 2199945
    pool_guid: 7755428179599985620
    errata: 0
    hostid: 2831182848
    hostname: 'ayamschikov-pc.vps'
    top_guid: 12958262172326587208
    guid: 4493488366482451897
    vdev_children: 1
    vdev_tree:
        type: 'mirror'
        id: 0
        guid: 12958262172326587208
        metaslab_array: 35
        metaslab_shift: 32
        ashift: 12
        asize: 497955373056
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 4493488366482451897
            path: '/dev/disk/by-id/ata-WDC_WD5000AARS-003BB1_WD-WCAV5K193473-part2'
            whole_disk: 1
            DTL: 115
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 5059451112022724165
            path: '/dev/gptid/233672cb-a724-11e4-8650-00e04c6b51db'
            whole_disk: 1
            not_present: 1
            DTL: 117
            create_txg: 4
    features_for_read:
        com.delphix:hole_birth
------------------------------------------------------------
- zpool import -f

Код: Выделить всё

~ » sudo zpool import -f                                                                                                                                                                                                alexey@ayamschikov-pc
   pool: userdata
     id: 7755428179599985620
  state: DEGRADED
 status: One or more devices contains corrupted data.
 action: The pool can be imported despite missing or damaged devices.  The
	fault tolerance of the pool may be compromised if imported.
   see: http://zfsonlinux.org/msg/ZFS-8000-4J
 config:

	userdata                                       DEGRADED
	  mirror-0                                     DEGRADED
	    ata-WDC_WD5000AARS-003BB1_WD-WCAV5K193473  ONLINE
	    5059451112022724165                        UNAVAIL
- zpool import -f userdata
после этой команды виснет. ночь так простоял, особой активности диска не наблюдаю.
Подскажите как вытащить данные с диска.
Последний раз редактировалось f_andrey 2015-07-07 15:15:40, всего редактировалось 1 раз.
Причина: Автору. пожалуйста, выбирайте соответствующий раздел форума.

Хостинговая компания Host-Food.ru
Хостинг HostFood.ru
 

Услуги хостинговой компании Host-Food.ru

Хостинг HostFood.ru

Тарифы на хостинг в России, от 12 рублей: https://www.host-food.ru/tariffs/hosting/
Тарифы на виртуальные сервера (VPS/VDS/KVM) в РФ, от 189 руб.: https://www.host-food.ru/tariffs/virtualny-server-vps/
Выделенные сервера, Россия, Москва, от 2000 рублей (HP Proliant G5, Intel Xeon E5430 (2.66GHz, Quad-Core, 12Mb), 8Gb RAM, 2x300Gb SAS HDD, P400i, 512Mb, BBU):
https://www.host-food.ru/tariffs/vydelennyi-server-ds/
Недорогие домены в популярных зонах: https://www.host-food.ru/domains/

Аватара пользователя
f_andrey
майор
Сообщения: 2651
Зарегистрирован: 2007-12-26 1:22:58
Откуда: СПб
Контактная информация:

восстановление данных с развалилвшгегося ZFS pool

Непрочитанное сообщение f_andrey » 2015-07-07 15:23:21

Теперь уже может и никак (ежели кратко)
Можно конечно попробовать снять посекторную копию sysutils/dd_rescue (или ddrescue) я кажется ddrescue когда то вынимал данные по поведению как на вашем втором диске. Но копию надо снимать обычно при первых признаках и работать уже с ней, так как каждое включение повреждённого диска понижает шансы на его восстановление.
Ну и совсем для фанатов, поищите по форуму, тут были описания как влезть в потроха ZFS но и там лучше делать всё с копиями диска, а не на живую.
Если ваша тема перенесена, то смотри http://forum.lissyara.su/viewtopic.php?f=1&t=32308

Mobilesfinks
мл. сержант
Сообщения: 128
Зарегистрирован: 2008-04-14 14:49:48
Контактная информация:

восстановление данных с развалилвшгегося ZFS pool

Непрочитанное сообщение Mobilesfinks » 2015-07-07 15:57:50

f_andrey писал(а):Теперь уже может и никак (ежели кратко)
Можно конечно попробовать снять посекторную копию sysutils/dd_rescue (или ddrescue)
Я прошёл викторией и замапил бэдблоки.
Потом снял копию.
Вот сижу и пока не втыкаю, что с этой копией на 500 гигов делать.

Аватара пользователя
f_andrey
майор
Сообщения: 2651
Зарегистрирован: 2007-12-26 1:22:58
Откуда: СПб
Контактная информация:

восстановление данных с развалилвшгегося ZFS pool

Непрочитанное сообщение f_andrey » 2015-07-07 16:08:52

Это очень плохой сценарий, с диском НИЧЕГО делать нельзя, надо тупо снять посекторную копию, с пропуском не читаемых секторов, а потом уже над этой копией измываться как хочешь, в моём случае просто хватило её смонтировать как диск.
Если ваша тема перенесена, то смотри http://forum.lissyara.su/viewtopic.php?f=1&t=32308

Mobilesfinks
мл. сержант
Сообщения: 128
Зарегистрирован: 2008-04-14 14:49:48
Контактная информация:

восстановление данных с развалилвшгегося ZFS pool

Непрочитанное сообщение Mobilesfinks » 2015-07-09 10:52:01

В общем, с одного диска снял копию, подключил её и получил I/O error при попытке импорта.
На втором диске битая метка label 1
Вот думаю, если с первого диска метку скопировать и на второй записать - поможет?
Если я верно понял, то эти метки все идентичные?

Mobilesfinks
мл. сержант
Сообщения: 128
Зарегистрирован: 2008-04-14 14:49:48
Контактная информация:

восстановление данных с развалилвшгегося ZFS pool

Непрочитанное сообщение Mobilesfinks » 2015-07-09 17:18:15

Отключил один из дисков, удалось смонтировать пул в readonly режиме. Только вот файлов там нет - как их найти?

Аватара пользователя
f_andrey
майор
Сообщения: 2651
Зарегистрирован: 2007-12-26 1:22:58
Откуда: СПб
Контактная информация:

восстановление данных с развалилвшгегося ZFS pool

Непрочитанное сообщение f_andrey » 2015-07-09 19:36:40

Зачем вы трогаете умирающие диски?
Что там и как подключилось, не поверите, но нам ещё более не видно, может смонтировать чего надо?
Если ваша тема перенесена, то смотри http://forum.lissyara.su/viewtopic.php?f=1&t=32308

Mobilesfinks
мл. сержант
Сообщения: 128
Зарегистрирован: 2008-04-14 14:49:48
Контактная информация:

восстановление данных с развалилвшгегося ZFS pool

Непрочитанное сообщение Mobilesfinks » 2015-07-10 13:09:38

да диски живее всех живых. Прогон викторией дал 3 бэда на одном и 2 на другом. И это софтовые бэды.
С одного копию снял, копия не монтируется. Со второго копия вместо 500гигов снялась всего 140гигов и всё.
Соответственно эта копия тоже не монтируется.
Диск смог подмонтировать в режиме readonly, но там ПУСТО. папка public есть, а в ней ничего нет ))

Короче файловая система ZFS это шлак какой то. Ни данные вытащить, ни восстановить. Я поражаюсь, что её ещё считают дико надёжной.
3 бэдлока убили весь пул - это круто!

flash709
рядовой
Сообщения: 15
Зарегистрирован: 2013-07-09 11:58:50

восстановление данных с развалилвшгегося ZFS pool

Непрочитанное сообщение flash709 » 2015-07-10 13:54:04

ZFS работает отлично. ИМХО. Если ты не делал снепшоты и не перекидывал на бэкапный пул, то тут ты сам себе злобный буратино и ругать отлично работающую систему не стоит.
Сам по себе пул отвалиться не мог, ты видать сделал export с посыпанным диском. Гонять викторией это была плохая затея.
ПО факту несовсем понял что ты хочешь, у тебя пул монтируется где один диск не определяется ? пул примонтировался и файлы в точке монтирования появились ?
Если изначально просто отвалился диск, то нужно было его извлечь из пула, воткнуть другой и дальше разбираться что случилось с этим

Отправлено спустя 8 минут 22 секунды:
Перечитал всю тему ещё раз, видать читал сквозь строчки :)
zfs list что кажет, определяет объём пула ?

Mobilesfinks
мл. сержант
Сообщения: 128
Зарегистрирован: 2008-04-14 14:49:48
Контактная информация:

восстановление данных с развалилвшгегося ZFS pool

Непрочитанное сообщение Mobilesfinks » 2015-07-10 14:10:07

flash709 писал(а):zfs list что кажет, определяет объём пула ?

Код: Выделить всё

# zfs list
NAME                                                       USED  AVAIL  REFER  MOUNTPOINT
userdata                                                   107G   346G   160K  /mnt
userdata/.system                                          2.26M   346G   176K  /mnt/.system
userdata/.system/cores                                     772K   346G   772K  /mnt/.system/cores
userdata/.system/rrd-23137c50dd5a4565810c841bcfa26828      144K   346G   144K  /mnt/.system/rrd-23137c50dd5a4565810c841bcfa26828
userdata/.system/samba4                                    412K   346G   412K  /mnt/.system/samba4
userdata/.system/syslog-23137c50dd5a4565810c841bcfa26828   812K   346G   812K  /mnt/.system/syslog-23137c50dd5a4565810c841bcfa26828
userdata/Public                                            107G   346G   107G  /mnt/Public
Да объём определяет. Но:

Код: Выделить всё

[root@freenas] ~# ls -al /mnt/Public/
total 0
Пусто. Нет файлов.
Если ты не делал снепшоты и не перекидывал на бэкапный пул, то тут ты сам себе злобный буратино
Вот стоит офисный NAS. 2 диска по 500гигов. Куда там Снапшоты делать? Завтра под завязку вообще забьют диск и всё. По сути раз зеркало, то должно хотя бы с одного из зеркал подтянуть данные. И блин же не нашёл в инете утилит которые вытаскивают файлы с ZFS, везде какие то проблемы. Но для ext4,ext3 можно спокойно вытащить. Утилит море.
Гонять викторией это была плохая затея.
Можно объяснить почему? Виктория тупо читает посекторно и в случае если бэд, то пишет в него или помечает как сбойный. К файловой системе это не относится, метка и так битая, поэтому я не понимаю почему это должно повлиять как то отрицательно.
, у тебя пул монтируется где один диск не определяется ?
Монтируется только один диск и то, только в readonly режиме. Если оба, то I/O error. Ну или если только второй попробовать.
Если монтировать в RW то ось падает в корку.

flash709
рядовой
Сообщения: 15
Зарегистрирован: 2013-07-09 11:58:50

восстановление данных с развалилвшгегося ZFS pool

Непрочитанное сообщение flash709 » 2015-07-10 15:28:13

Да объём определяет. Но:
[root@freenas] ~# ls -al /mnt/Public/
total 0

Пусто. Нет файлов.
Было такое, переназначь точку монтирования в другое место.
Вот стоит офисный NAS. 2 диска по 500гигов. Куда там Снапшоты делать?
Идеальный вариант который я выработал для себя.
1. На NAS 2 винта в зеркале ( у меня по 3тб) + винт на бэкапы (4тб) + 2 в зеракле под систему
2. Каждую ночь инкриментный снепшот передается на бэкап пул и автоматом монтируется в точку \backup
3. Помимо этого есть ещё бэкап сервер, всё также каждую ночь передаю инкрементный снепшот на бэкап сервер, там ещё раз с внутреннего диска на съёмный (который каждый день убирается в сейф)
Только в этом случае я вообще не заморачиваюсь с потерей данных, бэкапы есть за 4 месяца на бэкапном сервере.
Итого у меня 8 серверов на ZFS вообще проблем не знаю, были когда разбирался и настраивал, теперь мониторю только по смарту и меняю харды когда смарт верещит в почту.

В общем как говорили выше, сделай полную копию диска на другой диск через dd. И мучай резервный диск пока все данные не потерял окончательно. После этого переназначь точку монтирования.

Mobilesfinks
мл. сержант
Сообщения: 128
Зарегистрирован: 2008-04-14 14:49:48
Контактная информация:

восстановление данных с развалилвшгегося ZFS pool

Непрочитанное сообщение Mobilesfinks » 2015-07-10 19:53:17

С потерей данных фактически смирился. Основные данные в "резервной копии" на другом ПК есть, правда там какие то отчётные остались, на умершем, но я уже необрадовал товарища, так что могу и этот диск мучать.
с образом ничего не получается. Работаю с ним под Linux, при попытке импортировать прослойка для работы с солярисом крешится и процессы в зомби превращаются.
Смонтировать удалось только на FreeNAS где диск и стоял.
После этого переназначь точку монтирования.
Переназначил, но без толку.

Код: Выделить всё

# ls -l /mnt/test/mnt/Public
# zpool status -v
  pool: userdata
 state: DEGRADED
status: One or more devices has experienced an error resulting in data
	corruption.  Applications may be affected.
action: Restore the file in question if possible.  Otherwise restore the
	entire pool from backup.
   see: http://illumos.org/msg/ZFS-8000-8A
  scan: resilvered 6.38M in 0h0m with 0 errors on Mon Jun  8 23:36:54 2015
config:

	NAME                     STATE     READ WRITE CKSUM
	userdata                 DEGRADED     0     0     2
	  mirror-0               DEGRADED     0     0     8
	    ada0p2               ONLINE       0     0     8
	    5059451112022724165  UNAVAIL      0     0     0  was /dev/gptid/233672cb-a724-11e4-8650-00e04c6b51db

errors: Permanent errors have been detected in the following files:

        /mnt/test/mnt/Public/
Итого у меня 8 серверов на ZFS
У меня сейчас 18 серверов c mdraid raid1, ext4,lvm,reiserfs. Всё это гипервизоры. уже раз 6 за прошедший год менял выпадающие диски с бэдами. При этом все данные на месте. Данные никуда не пропали. Отваливается только умерший диск. Да и даже если что, то критичные данные можно достать. С ZFS как бы всё посложней. Снапшоты это хорошо, но их нужно куда то ложить. Это доп диски. Доп расходы. В SOHO сегменте это обычно сложно выбить. Я вот повёлся на то, что ZFS супер надёжная, вот и получил пулю. А опыт показывает, что не совсем она надёжная, даже совсем не надёжная. И о том же говорит множество вопросов в гугле. Ну ладно, это я уже о наболевшем.

Как то ещё возможно вытащить файлы в данной ситуации?