Изменение размера пула ZFS

Простые/общие вопросы по UNIX системам. Спросите здесь, если вы новичок

Модераторы: vadim64, terminus

Правила форума
Убедительная просьба юзать теги [cоde] при оформлении листингов.
Сообщения не оформленные должным образом имеют все шансы быть незамеченными.
vitasik_
проходил мимо

Изменение размера пула ZFS

Непрочитанное сообщение vitasik_ » 2013-04-03 13:13:17

Добрый день.
Имеется nas4free и 8 дисков (7 по 1ТБ, и 1 500ГБ)
Из этих дисков был создан raidz, размер получился 3,62ТБ (я так понимаю по 500 ГБ на каждом винте) после этого на пул были залиты данные в районе 1.5 ТБ (освободился винт 2ТБ.)
Далее меняем винт 500 на 2 ТБ. синхронизируемся делаем экспорт/импорт и наблюдаем что нас пул никак не увеличился в размерах.

Код: Выделить всё

# zpool list
NAME      SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
storage  3.62T  1.82T  1.80T    50%  1.00x  ONLINE  -
Как быть? как заставить zfs увидеть остальное место?

Хостинговая компания Host-Food.ru
Хостинг HostFood.ru
 

Услуги хостинговой компании Host-Food.ru

Хостинг HostFood.ru

Тарифы на хостинг в России, от 12 рублей: https://www.host-food.ru/tariffs/hosting/
Тарифы на виртуальные сервера (VPS/VDS/KVM) в РФ, от 189 руб.: https://www.host-food.ru/tariffs/virtualny-server-vps/
Выделенные сервера, Россия, Москва, от 2000 рублей (HP Proliant G5, Intel Xeon E5430 (2.66GHz, Quad-Core, 12Mb), 8Gb RAM, 2x300Gb SAS HDD, P400i, 512Mb, BBU):
https://www.host-food.ru/tariffs/vydelennyi-server-ds/
Недорогие домены в популярных зонах: https://www.host-food.ru/domains/

Mikl
мл. сержант
Сообщения: 131
Зарегистрирован: 2010-08-06 6:52:24
Откуда: замкадыш

Re: Изменение размера пула ZFS

Непрочитанное сообщение Mikl » 2013-04-03 13:46:49

т.е. ты считаешь, что он должен стать в два раза толще? типа теперь диски по террабайту? )

Аватара пользователя
Neus
капитан
Сообщения: 1798
Зарегистрирован: 2008-09-08 21:59:56

Re: Изменение размера пула ZFS

Непрочитанное сообщение Neus » 2013-04-03 14:25:50

попробуй воспользоваться этим:
The following properties can be set at creation time and import time, and
later changed with the zpool set command:

autoexpand=on | off
Controls automatic pool expansion when the underlying LUN is grown.
If set to "on", the pool will be resized according to the size of the
expanded device. If the device is part of a mirror or raidz then all
devices within that mirror/raidz group must be expanded before the
new space is made available to the pool. The default behavior is
"off".

vitasik_
проходил мимо

Re: Изменение размера пула ZFS

Непрочитанное сообщение vitasik_ » 2013-04-03 15:30:17

не помогло

Код: Выделить всё

# zpool set autoexpand=on storage
# zpool get all storage | grep autoexpand
storage  autoexpand     on          local
# zpool export storage
# zpool import storage
# zpool list
NAME      SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
storage  3.62T  1.82T  1.80T    50%  1.00x  ONLINE  -

:st:

Аватара пользователя
f_andrey
майор
Сообщения: 2651
Зарегистрирован: 2007-12-26 1:22:58
Откуда: СПб
Контактная информация:

Re: Изменение размера пула ZFS

Непрочитанное сообщение f_andrey » 2013-04-03 16:09:38

Код: Выделить всё

gpart show
?
Если ваша тема перенесена, то смотри http://forum.lissyara.su/viewtopic.php?f=1&t=32308

Аватара пользователя
Neus
капитан
Сообщения: 1798
Зарегистрирован: 2008-09-08 21:59:56

Re: Изменение размера пула ZFS

Непрочитанное сообщение Neus » 2013-04-03 16:50:16

на чем пул сделан?

vitasik_
проходил мимо

Re: Изменение размера пула ZFS

Непрочитанное сообщение vitasik_ » 2013-04-03 17:17:46

Нифига себе как интересно...

Код: Выделить всё

# zpool export storage
# gpart show
=>     63  7570689  da0  MBR  (3.6G) ------------ Фрешка
       63  5108607    1  freebsd  [active]  (2.4G)
  5108670  2457945    2  freebsd  (1.2G)
  7566615     4137       - free -  (2.0M)

=>      0  5108607  da0s1  BSD  (2.4G)
        0       65         - free -  (32k)
       65  5108480      1  freebsd-ufs  (2.4G)
  5108545       62         - free -  (31k)

=>      0  2457945  da0s2  BSD  (1.2G)
        0       66         - free -  (33k)
       66  2457856      1  freebsd-ufs  (1.2G)
  2457922       23         - free -  (11k)

=>        63  3907029105  ada0  MBR  (1.8T)
          63  3907029105        - free -  (1.8T)

=>        63  1953525105  ada1  MBR  (931G)
          63        1985        - free -  (992k)
        2048      716800     1  ntfs  [active]  (350M)
      718848  1952802816     2  ntfs  (931G)
  1953521664        3504        - free -  (1.7M)

# zpool import storage
# gpart show
=>     63  7570689  da0  MBR  (3.6G)
       63  5108607    1  freebsd  [active]  (2.4G)
  5108670  2457945    2  freebsd  (1.2G)
  7566615     4137       - free -  (2.0M)

=>      0  5108607  da0s1  BSD  (2.4G)
        0       65         - free -  (32k)
       65  5108480      1  freebsd-ufs  (2.4G)
  5108545       62         - free -  (31k)

=>      0  2457945  da0s2  BSD  (1.2G)
        0       66         - free -  (33k)
       66  2457856      1  freebsd-ufs  (1.2G)
  2457922       23         - free -  (11k)
т.е. я так понимаю что то не правильно.
Neus писал(а):на чем пул сделан?
Пул сделан из строки типа

Код: Выделить всё

 zpool create storage raidz ada0 ada1 ada2 ada3 ada4 ada5 ada6 ada7 

Аватара пользователя
f_andrey
майор
Сообщения: 2651
Зарегистрирован: 2007-12-26 1:22:58
Откуда: СПб
Контактная информация:

Re: Изменение размера пула ZFS

Непрочитанное сообщение f_andrey » 2013-04-03 17:38:12

Код: Выделить всё

# zpool status
Если ваша тема перенесена, то смотри http://forum.lissyara.su/viewtopic.php?f=1&t=32308

vitasik_
проходил мимо

Re: Изменение размера пула ZFS

Непрочитанное сообщение vitasik_ » 2013-04-03 18:02:08

все, всем спасибо, решено, только вот правильно ли

Код: Выделить всё

# zpool export storage
# gpart show
 ------------ Фрешка

=>        63  3907029105  ada0  MBR  (1.8T)
          63  3907029105        - free -  (1.8T)

=>        63  1953525105  ada1  MBR  (931G)
          63        1985        - free -  (992k)
        2048      716800     1  ntfs  [active]  (350M)
      718848  1952802816     2  ntfs  (931G)
  1953521664        3504        - free -  (1.7M)
# zpool import storage
не понятные разделы, надо бы убить их

Код: Выделить всё


# zpool offline storage ada1
# zpool status
  pool: storage
 state: DEGRADED
status: One or more devices has been taken offline by the administrator.
        Sufficient replicas exist for the pool to continue functioning in a
        degraded state.
action: Online the device using 'zpool online' or replace the device with
        'zpool replace'.
  scan: resilvered 13.5K in 0h0m with 0 errors on Wed Apr  3 18:33:03 2013
config:

        NAME                     STATE     READ WRITE CKSUM
        storage                  DEGRADED     0     0     0
          raidz1-0               DEGRADED     0     0     0
            ada0                 ONLINE       0     0     0
            6025137261421065385  OFFLINE      0     0     0  was /dev/ada1
            ada2                 ONLINE       0     0     0
            ada3                 ONLINE       0     0     0
            ada4                 ONLINE       0     0     0
            ada5                 ONLINE       0     0     0
            ada6                 ONLINE       0     0     0
            ada7                 ONLINE       0     0     0

# zpool export storage

# gpart delete -i 1 ada1
ada1s1 deleted
# gpart delete -i 2 ada1
ada1s2 deleted
# gpart show
 ------------ Фрешка

=>        63  1953525105  ada1  MBR  (931G)
          63  1953525105        - free -  (931G)

=>        63  3907029105  ada0  MBR  (1.8T)
          63  3907029105        - free -  (1.8T)
# zpool import storage

и вот тут самый облом - самое главное не забыть обратно включить ada1 )))

Код: Выделить всё

# zpool status
  pool: storage
 state: DEGRADED
status: One or more devices has been taken offline by the administrator.
        Sufficient replicas exist for the pool to continue functioning in a
        degraded state.
action: Online the device using 'zpool online' or replace the device with
        'zpool replace'.
  scan: resilvered 13.5K in 0h0m with 0 errors on Wed Apr  3 18:33:03 2013
config:

        NAME                     STATE     READ WRITE CKSUM
        storage                  DEGRADED     0     0     0
          raidz1-0               DEGRADED     0     0     0
            ada0                 ONLINE       0     0     0
            6025137261421065385  OFFLINE      0     0     0  was /dev/ada1
            ada2                 ONLINE       0     0     0
            ada3                 ONLINE       0     0     0
            ada4                 ONLINE       0     0     0
            ada5                 ONLINE       0     0     0
            ada6                 ONLINE       0     0     0
            ada7                 ONLINE       0     0     0

# zpool online storage  ada1
# zpool status
  pool: storage
 state: ONLINE
  scan: resilvered 13.5K in 0h0m with 0 errors on Wed Apr  3 18:33:03 2013
config:

        NAME        STATE     READ WRITE CKSUM
        storage     ONLINE       0     0     0
          raidz1-0  ONLINE       0     0     0
            ada0    ONLINE       0     0     0
            ada1    ONLINE       0     0     0
            ada2    ONLINE       0     0     0
            ada3    ONLINE       0     0     0
            ada4    ONLINE       0     0     0
            ada5    ONLINE       0     0     0
            ada6    ONLINE       0     0     0
            ada7    ONLINE       0     0     0

errors: No known data errors
# zpool list
NAME      SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
storage  7.25T  1.82T  5.43T    25%  1.00x  ONLINE  -

f_andrey, спасибо за мысль )

Mikl писал(а):т.е. ты считаешь, что он должен стать в два раза толще? типа теперь диски по террабайту? )
Ну да ты знаешь, пожирнее стал )