Если больше 4G ставится на ZFS, если меньше то UFS, хотя можно выбрать чего надо.dekloper писал(а):в смысле? инсталлер сам уже умеет?шёл_мипо писал(а):по умолчанию ставиться на ZFS.
И обе половинки зеркала ZFS, метка осталась предыдущая.
Модератор: terminus
Если больше 4G ставится на ZFS, если меньше то UFS, хотя можно выбрать чего надо.dekloper писал(а):в смысле? инсталлер сам уже умеет?шёл_мипо писал(а):по умолчанию ставиться на ZFS.
заинтересовала опцияkharkov_max писал(а):И я хочу скриптом померяться, кстати с GPART.
Код: Выделить всё
zpool create -f -o altroot=
должно быть отрицательное значение (хоть 19), этого достаточно для дебугаsnorlov писал(а):А почемуа не 16Код: Выделить всё
sysctl kern.geom.debugflags=17
давно с сидюков ничо не ставлю, /usr/src хватало)шёл_мимо писал(а):Если больше 4G ставится на ZFS, если меньше то UFS, хотя можно выбрать чего надо.
С чего взял, что с "блина" ставлю?dekloper писал(а):давно с сидюков ничо не ставлю, /usr/src хватало)шёл_мимо писал(а):Если больше 4G ставится на ZFS, если меньше то UFS, хотя можно выбрать чего надо.
да не нужно ему (зфсу) виртуальное железоElectronik писал(а):есть ли смысл ставить zfs в виртуалке на ESXi? или оставлять всё в UFS?
ZFS Add TRIM support.
The code builds a map of regions that were freed. On every write the
code consults the map and eventually removes ranges that were freed
before, but are now overwritten.
Freed blocks are not TRIMed immediately. There is a tunable that defines
how many txg we should wait with TRIMming freed blocks (64 by default).
There is a low priority thread that TRIMs ranges when the time comes.
During TRIM we keep in-flight ranges on a list to detect colliding
writes - we have to delay writes that collide with in-flight TRIMs in
case something will be reordered and write will reached the disk before
the TRIM. We don't have to do the same for in-flight writes, as
colliding writes just remove ranges to TRIM.
Sponsored by: multiplay.co.uk
This work includes some important fixes and some improvements obtained
from the zfsonlinux project, including TRIMming entire vdevs on pool
create/add/attach and on pool import for spare and cache vdevs.
Obtained from: zfsonlinux
Submitted by: Etienne Dechamps <etienne.dechamps@ovh.net>
Код: Выделить всё
# sysctl -a | grep trim
vfs.zfs.trim_disable: 0
vfs.zfs.trim_txg_limit: 64
kstat.zfs.misc.zio_trim.zio_trim_bytes: 218515968
kstat.zfs.misc.zio_trim.zio_trim_success: 20779
kstat.zfs.misc.zio_trim.zio_trim_unsupported: 5380
kstat.zfs.misc.zio_trim.zio_trim_failed: 0
все зависит от задачartem20041991 писал(а):Стоит ли ставить ZFS на серьёзный сервер где проблемы с файловой системой недопустимы?
Если Вы научитесь восстанавливать поврежденную ZFS, и будете в этом уверены - то стоит.artem20041991 писал(а):Стоит ли ставить ZFS на серьёзный сервер где проблемы с файловой системой недопустимы?
Очень не факт, уж очень там сложная и капризная структура по сравнению с UFS.Alex Keda писал(а):так что может с ZFS даже проще будет?
ZFS гораздо жувучее UFS. Её не так-то просто убить. Хотя, если задаться этой целью, то можно легко превратить в невосстановимую кучу мусора. А вот убийство UFS непредсказуемо по результату.f_andrey писал(а):Очень не факт, уж очень там сложная и капризная структура по сравнению с UFS.Alex Keda писал(а):так что может с ZFS даже проще будет?
у вас руки капризные, это не традиционная файловая системаf_andrey писал(а):Очень не факт, уж очень там сложная и капризная структура по сравнению с UFS.Alex Keda писал(а):так что может с ZFS даже проще будет?
Смысл в том, чтобы система грузилась и работала шустрее. Планируется еще этот комп использовать в качестве маршрутизатора для домашней сетки.Mikl писал(а):может есть смысл ссд под кэш отдать? смысл то его под корень пускать?
В принципе не ссуть, как будет использоваться система, я хочу реализовать схему описанную выше. Подскажите как сделать так чтобы на SSD был root, swap и кэш, а на HDD были /usr, /var, /tmp, /homelazhu писал(а):Вы собираетесь регулярно перезагружать машинку? Чтение/запись с /на HDD "шустрее" никак не станет от того, что система на SSD, как и прием/отправка пакетов. А вот 40Гб кэша под часто используемые данные будут весьма кстати.
И правда зачем скрипт, шелл и прочие мракобесие, новый инсталлер уже может всё с ZFS (10-ка почти релиз уже)GhOsT_MZ писал(а):2. Насчет процесса установки. А зачем скрипт? .... Если будет использоваться GPT разметка, то тупо гуглим gpart и радуемся жизни, кстати, о ней даже есть страничка в вики на этом сайте.
А можно по подробнее, с примерами, так сказать ?GhOsT_MZ писал(а): По сути делаем примерно так: грузимся с диска, идем в шелл, размечаем диски, создаем файловые системы, монтируем их с нужной иерархией и распаковываем туда нужные компоненты, если не ошибаюсь, там всего навсего 5 tbz архивов.
Не правда, на 9.2 статья "работает"))f_andrey писал(а):И правда зачем скрипт, шелл и прочие мракобесие, новый инсталлер уже может всё с ZFS (10-ка почти релиз уже)GhOsT_MZ писал(а):2. Насчет процесса установки. А зачем скрипт? .... Если будет использоваться GPT разметка, то тупо гуглим gpart и радуемся жизни, кстати, о ней даже есть страничка в вики на этом сайте.
боюсь местная статья о gpart всё же устарела, хотя вроде не смертельно должно быть и он не только для GPT а для всего теперича.
Насчет raidz2 не скажу, а вот на raidz у меня пул с 2010 года на 4 винтах, стояла 8.2, а вчера пеехал на 8.4. По ощущениям на 8.4 даже как-то шустрее сталоsage писал(а):фря успешно грузиться с raidz2gloom писал(а):в руководстве от сан сказано что системное устройство не может быть на raidz
одно устройство зеркальный пул итд...
там конечно написано за соляру но думаю они не зря так написали