Куда лучше, чем у многих.fox писал(а):Спасибо, а ак у ZFS с журналом?
На случай нештатного, не заплонированого выключения, проподение электро энергии и тому подобное???


P.S. В этом плане ZFS очень сильно проработана.
Модератор: terminus
Куда лучше, чем у многих.fox писал(а):Спасибо, а ак у ZFS с журналом?
На случай нештатного, не заплонированого выключения, проподение электро энергии и тому подобное???
Насколько помню: ZFS распределяет блоки равномерно по поверхности, что снижает износ. А доступ к часто используемым данным оптимизируется другими механизмами: кэшем и пр. (точно не помю, а с просонья искать леньfox писал(а):Это меня радует, а есть доказательства тому в доке? Я пока не встречал...
И ещё не мало важный вопрос, а как быть со скоростью оброщения винта, пул гибко распределяет пространство винта, в классической файловой системе я могу такие директории как /var/db вынести поближе к наруже диска, а тут есть какое то решение, ведь это не мало важный момент!
Код: Выделить всё
loader.conf
vboxdrv_load="YES"
vm.kmem_size="330M"
vm.kmem_size_max="330M"
vfs.zfs.arc_max="40M"
vfs.zfs.vdev.cache.size="5M"
vfs.zfs.zil_disable="1"
Код: Выделить всё
zp# zpool list
NAME SIZE USED AVAIL CAP HEALTH ALTROOT
ZFS1 931G 902G 29.0G 96% ONLINE -
ZFS2 931G 5.56G 925G 0% ONLINE -
Спасибо мне очень интересно было прочесть данную информацию!Fomalhaut писал(а):Насколько помню: ZFS распределяет блоки равномерно по поверхности, что снижает износ. А доступ к часто используемым данным оптимизируется другими механизмами: кэшем и пр. (точно не помю, а с просонья искать леньfox писал(а):Это меня радует, а есть доказательства тому в доке? Я пока не встречал...
И ещё не мало важный вопрос, а как быть со скоростью оброщения винта, пул гибко распределяет пространство винта, в классической файловой системе я могу такие директории как /var/db вынести поближе к наруже диска, а тут есть какое то решение, ведь это не мало важный момент!).
P.S. По предуюыщему вопросу: "ZFS — новый взгляд на файловые системы". Правда несколько устарела, но основа - не изменилась по любому. В принципе и по текущему вопросу есть кое-что.
Код: Выделить всё
gpart show ipsd0 -l
Код: Выделить всё
gpart show -l ipsd0
в оригинальном мане пока не нашёл описания Вы случайно не сталкивались с этим что это такое?fox писал(а):Вот ещё вопрос в настройках я встретил опцию sharesmb on|off
А причём здесь кластер? Это просто шара, как я понимаю, только реализованная самой ФС.fox писал(а):Это то что, о чём я думаю, кластер на самбе? Относится...
Спасибо! Исправлено.fox писал(а):Пардон ещё раз, вот сдесь опечатка не существенная но для красоты доки не помешает её поправить:
Вантуз7 (возможно и сВиста) умеет работать с GPT, а про XP - нет, не умеет. Линукс вроде бы тоже умеет, но не знаю точно. Тут ещё вопрос: GRUB поддерживает работу с GPT или нет?fox писал(а):Есть ещё один интересный вопрос а реально используя GPT, поставить две оси, линух или винду, и какой менеджер загрузки использовать или как это организовать?
Пока искал что-то по данному вопрос - нашёл небольшую "Шпаргалка по ZFS". Может пригодитсяfox писал(а):Это то что, о чём я думаю, кластер на самбе? Относится...
Спасибо за сылку, интересно...Fomalhaut писал(а):Пока искал что-то по данному вопрос - нашёл небольшую "Шпаргалка по ZFS". Может пригодитсяfox писал(а):Это то что, о чём я думаю, кластер на самбе? Относится...
Да - я тоже проверил: при назначении этого свойства - сообщение, что данный протокол не поддерживается:fox писал(а):Только я не увидел практического применения этой опции всёравно без самбы не работает!
Код: Выделить всё
$ zfs set sharesmb=name=arstor arstor
Unsupported share protocol: 1.
$ zfs get sharesmb arstor
NAME PROPERTY VALUE SOURCE
arstor sharesmb name=arstor local
Что-то подсказывает, что из-за того, что пул забит на 96%. И, кстати, сколько оперативки? Судя по 'vm.kmem_size="330M"' - гигабайт или даже меньше. Сказываются оба параметра, но первый - сильнее: меньше места для системы для распределения блоков. Может что-то другое, но подозреваю, что эти - в первую очередь.ZAPODLO писал(а):Подскажите, чем может быть вызвана низкая (около 15-20 мбайт\с) скорость копирования с пула на пул?Код: Выделить всё
zp# zpool list NAME SIZE USED AVAIL CAP HEALTH ALTROOT ZFS1 931G 902G 29.0G 96% ONLINE - ZFS2 931G 5.56G 925G 0% ONLINE -
Причем с виндовой машины через самбу скорость копирование 40-50 Мбайт\с
Сравнивать напрямую - нельзя. ZFS, фактически, состоит из 3 слоёв (логических) и NTFS можно сравнивать только с одним из них, да и то условно.ZAPODLO писал(а):Оперативы 1 Gb. Пул забит, но почему тогда в аналогичной ситуации тот же ntfs копирует под 60-70 метров?
Винты даже не на отдельном контроллере висят, а на контроллере матери. Хз, что с этим делать
Можно точно так же воспользоваться гугле-переводчиком, как и я. Как тренировка - всё таки самые точные маны - англоязычные, к сожалению.fox писал(а):А человеческим языком?
Понятно, долго я смеялся:Fomalhaut писал(а):Можно точно так же воспользоваться гугле-переводчиком, как и я. Как тренировка - всё таки самые точные маны - англоязычные, к сожалению.fox писал(а):А человеческим языком?
но суть понял...Держите космическое менее чем 80%-ое использование бассейна, чтобы поддержать работу бассейна. В настоящее время работа бассейна может ухудшиться, когда бассейн является очень всем, и файловые системы часто обновляются, такой как на занятом почтовом сервере. Все бассейны могли бы вызвать исполнительный штраф, но никакие другие проблемы. Если основная рабочая нагрузка - неизменные файлы (не напишите однажды, никогда удаляйте), то Вы можете держать бассейн в диапазоне использования на 95-98 %. Имейте в виду, что даже с главным образом статическим содержанием в диапазоне на 95-98 %, напишите, читайте, и работа перепосеребрения могла бы пострадать.
Это как раз мой случай, 80% контента - HD видео.fox писал(а):Если основная рабочая нагрузка - неизменные файлы (не напишите однажды, никогда удаляйте), то Вы можете держать бассейн в диапазоне использования на 95-98 %.
Всё тот же вездусущий man:fox писал(а):Вот ещё вопрос...
Пул понятие гибкое судя из доков, тогда поправте меня если я не прав!
Есть у нас пул к примеру ограниченый пространством одного харда. Мне стало не хватать места я могу в этот пул влить ещё один винт но не в режиме рейда а просто как общее пространство? В оригинальном мане не нашёл детального описания а только скольские фразы...
Такое реально?
Код: Выделить всё
zpool add [-fn] pool vdev ...
Adds the specified virtual devices to the given pool. The vdev
specification is described in the "Virtual Devices" section. The
behavior of the -f option, and the device checks performed are
described in the "zpool create" subcommand.
-f Forces use of vdevs, even if they appear in use or specify a
conflicting replication level. Not all devices can be over-
ridden in this manner.
-n Displays the configuration that would be used without actu-
ally adding the vdevs. The actual pool creation can still
fail due to insufficient privileges or device sharing.
Do not add a disk that is currently configured as a quorum device
to a zpool. After a disk is in the pool, that disk can then be con-
figured as a quorum device.
Я больше 512 Мб не задавал, т.к. в машине всего 1.25 Гб памяти.ZAPODLO писал(а):Добавил 2 гектара озу. Итого - 3.
попробовал поправить loader.conf, но при значениях
vm.kmem_size="330M"
vm.kmem_size_max="330M"
больших 512M - падает в панику, связанную с kmem_suballoc. Как можно увеличить это значение?
Код: Выделить всё
options KVA_PAGES=512
Ну в англоязычном мане говорится для архитектуры i386 больше 512 не рекомендуется!Fomalhaut писал(а):Я больше 512 Мб не задавал, т.к. в машине всего 1.25 Гб памяти.ZAPODLO писал(а):Добавил 2 гектара озу. Итого - 3.
попробовал поправить loader.conf, но при значениях
vm.kmem_size="330M"
vm.kmem_size_max="330M"
больших 512M - падает в панику, связанную с kmem_suballoc. Как можно увеличить это значение?
Но по kmem_suballoc есть, оказывается, волшебный параметр для ядра:
Если нужно kmem_size более 512Мб, то нужно перекомпилировать ядро с параметром
KVA_PAGES=512 (по умолчанию 256): это даст возможность выставить kmem_size до 1G:P.S. Заодно в статью добавлю...Код: Выделить всё
options KVA_PAGES=512
Fomalhaut писал(а):Но по kmem_suballoc есть, оказывается, волшебный параметр для ядра:
Если нужно kmem_size более 512Мб, то нужно перекомпилировать ядро с параметром
KVA_PAGES=512 (по умолчанию 256): это даст возможность выставить kmem_size до 1G:Код: Выделить всё
options KVA_PAGES=512 P.S. Заодно в статью добавлю...[/quote] Оке, перекомпилю. Тоже подумал об этом, но как-то ушла мысль :)