Страница 1 из 1
Изменение размера пула ZFS
Добавлено: 2013-04-03 13:13:17
vitasik_
Добрый день.
Имеется nas4free и 8 дисков (7 по 1ТБ, и 1 500ГБ)
Из этих дисков был создан raidz, размер получился 3,62ТБ (я так понимаю по 500 ГБ на каждом винте) после этого на пул были залиты данные в районе 1.5 ТБ (освободился винт 2ТБ.)
Далее меняем винт 500 на 2 ТБ. синхронизируемся делаем экспорт/импорт и наблюдаем что нас пул никак не увеличился в размерах.
Код: Выделить всё
# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
storage 3.62T 1.82T 1.80T 50% 1.00x ONLINE -
Как быть? как заставить zfs увидеть остальное место?
Re: Изменение размера пула ZFS
Добавлено: 2013-04-03 13:46:49
Mikl
т.е. ты считаешь, что он должен стать в два раза толще? типа теперь диски по террабайту? )
Re: Изменение размера пула ZFS
Добавлено: 2013-04-03 14:25:50
Neus
попробуй воспользоваться этим:
The following properties can be set at creation time and import time, and
later changed with the zpool set command:
autoexpand=on | off
Controls automatic pool expansion when the underlying LUN is grown.
If set to "on", the pool will be resized according to the size of the
expanded device. If the device is part of a mirror or raidz then all
devices within that mirror/raidz group must be expanded before the
new space is made available to the pool. The default behavior is
"off".
Re: Изменение размера пула ZFS
Добавлено: 2013-04-03 15:30:17
vitasik_
не помогло
Код: Выделить всё
# zpool set autoexpand=on storage
# zpool get all storage | grep autoexpand
storage autoexpand on local
# zpool export storage
# zpool import storage
# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
storage 3.62T 1.82T 1.80T 50% 1.00x ONLINE -

Re: Изменение размера пула ZFS
Добавлено: 2013-04-03 16:09:38
f_andrey
Re: Изменение размера пула ZFS
Добавлено: 2013-04-03 16:50:16
Neus
на чем пул сделан?
Re: Изменение размера пула ZFS
Добавлено: 2013-04-03 17:17:46
vitasik_
Нифига себе как интересно...
Код: Выделить всё
# zpool export storage
# gpart show
=> 63 7570689 da0 MBR (3.6G) ------------ Фрешка
63 5108607 1 freebsd [active] (2.4G)
5108670 2457945 2 freebsd (1.2G)
7566615 4137 - free - (2.0M)
=> 0 5108607 da0s1 BSD (2.4G)
0 65 - free - (32k)
65 5108480 1 freebsd-ufs (2.4G)
5108545 62 - free - (31k)
=> 0 2457945 da0s2 BSD (1.2G)
0 66 - free - (33k)
66 2457856 1 freebsd-ufs (1.2G)
2457922 23 - free - (11k)
=> 63 3907029105 ada0 MBR (1.8T)
63 3907029105 - free - (1.8T)
=> 63 1953525105 ada1 MBR (931G)
63 1985 - free - (992k)
2048 716800 1 ntfs [active] (350M)
718848 1952802816 2 ntfs (931G)
1953521664 3504 - free - (1.7M)
# zpool import storage
# gpart show
=> 63 7570689 da0 MBR (3.6G)
63 5108607 1 freebsd [active] (2.4G)
5108670 2457945 2 freebsd (1.2G)
7566615 4137 - free - (2.0M)
=> 0 5108607 da0s1 BSD (2.4G)
0 65 - free - (32k)
65 5108480 1 freebsd-ufs (2.4G)
5108545 62 - free - (31k)
=> 0 2457945 da0s2 BSD (1.2G)
0 66 - free - (33k)
66 2457856 1 freebsd-ufs (1.2G)
2457922 23 - free - (11k)
т.е. я так понимаю что то не правильно.
Neus писал(а):на чем пул сделан?
Пул сделан из строки типа
Код: Выделить всё
zpool create storage raidz ada0 ada1 ada2 ada3 ada4 ada5 ada6 ada7
Re: Изменение размера пула ZFS
Добавлено: 2013-04-03 17:38:12
f_andrey
Re: Изменение размера пула ZFS
Добавлено: 2013-04-03 18:02:08
vitasik_
все, всем спасибо, решено, только вот правильно ли
Код: Выделить всё
# zpool export storage
# gpart show
------------ Фрешка
=> 63 3907029105 ada0 MBR (1.8T)
63 3907029105 - free - (1.8T)
=> 63 1953525105 ada1 MBR (931G)
63 1985 - free - (992k)
2048 716800 1 ntfs [active] (350M)
718848 1952802816 2 ntfs (931G)
1953521664 3504 - free - (1.7M)
# zpool import storage
не понятные разделы, надо бы убить их
Код: Выделить всё
# zpool offline storage ada1
# zpool status
pool: storage
state: DEGRADED
status: One or more devices has been taken offline by the administrator.
Sufficient replicas exist for the pool to continue functioning in a
degraded state.
action: Online the device using 'zpool online' or replace the device with
'zpool replace'.
scan: resilvered 13.5K in 0h0m with 0 errors on Wed Apr 3 18:33:03 2013
config:
NAME STATE READ WRITE CKSUM
storage DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 0
ada0 ONLINE 0 0 0
6025137261421065385 OFFLINE 0 0 0 was /dev/ada1
ada2 ONLINE 0 0 0
ada3 ONLINE 0 0 0
ada4 ONLINE 0 0 0
ada5 ONLINE 0 0 0
ada6 ONLINE 0 0 0
ada7 ONLINE 0 0 0
# zpool export storage
# gpart delete -i 1 ada1
ada1s1 deleted
# gpart delete -i 2 ada1
ada1s2 deleted
# gpart show
------------ Фрешка
=> 63 1953525105 ada1 MBR (931G)
63 1953525105 - free - (931G)
=> 63 3907029105 ada0 MBR (1.8T)
63 3907029105 - free - (1.8T)
# zpool import storage
и вот тут самый облом - самое главное не забыть обратно включить ada1 )))
Код: Выделить всё
# zpool status
pool: storage
state: DEGRADED
status: One or more devices has been taken offline by the administrator.
Sufficient replicas exist for the pool to continue functioning in a
degraded state.
action: Online the device using 'zpool online' or replace the device with
'zpool replace'.
scan: resilvered 13.5K in 0h0m with 0 errors on Wed Apr 3 18:33:03 2013
config:
NAME STATE READ WRITE CKSUM
storage DEGRADED 0 0 0
raidz1-0 DEGRADED 0 0 0
ada0 ONLINE 0 0 0
6025137261421065385 OFFLINE 0 0 0 was /dev/ada1
ada2 ONLINE 0 0 0
ada3 ONLINE 0 0 0
ada4 ONLINE 0 0 0
ada5 ONLINE 0 0 0
ada6 ONLINE 0 0 0
ada7 ONLINE 0 0 0
# zpool online storage ada1
# zpool status
pool: storage
state: ONLINE
scan: resilvered 13.5K in 0h0m with 0 errors on Wed Apr 3 18:33:03 2013
config:
NAME STATE READ WRITE CKSUM
storage ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
ada0 ONLINE 0 0 0
ada1 ONLINE 0 0 0
ada2 ONLINE 0 0 0
ada3 ONLINE 0 0 0
ada4 ONLINE 0 0 0
ada5 ONLINE 0 0 0
ada6 ONLINE 0 0 0
ada7 ONLINE 0 0 0
errors: No known data errors
# zpool list
NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT
storage 7.25T 1.82T 5.43T 25% 1.00x ONLINE -
f_andrey, спасибо за мысль )
Mikl писал(а):т.е. ты считаешь, что он должен стать в два раза толще? типа теперь диски по террабайту? )
Ну да ты знаешь, пожирнее стал )