Vinum FreeBSD

Проблемы установки, настройки и работы Правильной Операционной Системы

Модератор: terminus

Правила форума
Убедительная просьба юзать теги [cоde] при оформлении листингов.
Сообщения не оформленные должным образом имеют все шансы быть незамеченными.
zurapa
рядовой
Сообщения: 23
Зарегистрирован: 2018-11-21 21:20:49
Откуда: Волгоград

Vinum FreeBSD

Непрочитанное сообщение zurapa » 2020-01-07 8:47:25

Очень удобная система управления томами в linux - LVM.

Вот попробовал я Vinum. Жесть какая мутная система в сравнении с LVM! Описание скудновато по возможным схемам использования его.
Создал я все эти volume'ы, plex'ы... Меня интересует тот случай, когда я размещаю volume на несколько блоков и на разных дисках, записываю в него информацию, а потом мне необходимо один из блоков, под этим volume'ом заменить на другой. Как это сделать без разрушения volume и без потери данных. Я пробовал выдернуть plex и вставить новый, но что-то фигня получается. Vinum не может, как LVM на живую высвобождать pv и переносить данные lv на другой pv без остановки всего процесса работы с разделом?

Есть ли ещё какие-то аналоги LVM в FreeBSD помимо ZFS? Её не предлагать.

Хостинговая компания Host-Food.ru
Хостинг HostFood.ru
 

Услуги хостинговой компании Host-Food.ru

Хостинг HostFood.ru

Тарифы на хостинг в России, от 12 рублей: https://www.host-food.ru/tariffs/hosting/
Тарифы на виртуальные сервера (VPS/VDS/KVM) в РФ, от 189 руб.: https://www.host-food.ru/tariffs/virtualny-server-vps/
Выделенные сервера, Россия, Москва, от 2000 рублей (HP Proliant G5, Intel Xeon E5430 (2.66GHz, Quad-Core, 12Mb), 8Gb RAM, 2x300Gb SAS HDD, P400i, 512Mb, BBU):
https://www.host-food.ru/tariffs/vydelennyi-server-ds/
Недорогие домены в популярных зонах: https://www.host-food.ru/domains/

Аватара пользователя
Alex Keda
стреляли...
Сообщения: 35454
Зарегистрирован: 2004-10-18 14:25:19
Откуда: Made in USSR
Контактная информация:

Vinum FreeBSD

Непрочитанное сообщение Alex Keda » 2020-01-09 23:07:59

чем вам zfs не угодила?
Убей их всех! Бог потом рассортирует...

zurapa
рядовой
Сообщения: 23
Зарегистрирован: 2018-11-21 21:20:49
Откуда: Волгоград

Vinum FreeBSD

Непрочитанное сообщение zurapa » 2020-01-10 4:26:12

Она прекрасна, но требует ресурсов. Компьютер слабенький. Ставить её только, чтобы удобно двигать разделы и перераспределять пространство изредка не рационально. LVM для этого куда больше подходит.

Аватара пользователя
Alex Keda
стреляли...
Сообщения: 35454
Зарегистрирован: 2004-10-18 14:25:19
Откуда: Made in USSR
Контактная информация:

Vinum FreeBSD

Непрочитанное сообщение Alex Keda » 2020-01-10 8:59:15

каких именно ресурсов?

у меня 30T сторадж работает на 4 гигах памяти
причём памяти можно и меньше - но банально у меня нет планок меньшей ёмкости =)
дедупликация, разумеется отключена, сжатие включено
несмотря на то что это бэкап и там данные большей частью сжатые - 3T экономии места

второй - 6T сторадж, 8 гигов рамы, занято логически 3T реально - 1.5T - файлопомойка с дедупликацией и сжатием
(на 4T многопоточная запись тупить начинает)

причём всё это - без заморочек с конфигурированием - меня в принципе устраивает работа "из коробки"
Убей их всех! Бог потом рассортирует...

zurapa
рядовой
Сообщения: 23
Зарегистрирован: 2018-11-21 21:20:49
Откуда: Волгоград

Vinum FreeBSD

Непрочитанное сообщение zurapa » 2020-01-10 9:30:06

Intel Core 2Duo, 4GB RAM DDR2, HDD 750 GB общим числом из трёх стареньких дисков. У меня там ещё и виртуалки крутятся. При суровых движениях данных ZFS хорошо так памяти начинает жрать, виртуалкам почти ничего не остаётся. Причём даже после перемещения данных ZFS продолжает жрать эту памят и невысвобождает. Понятное дело, она что-то там коптит, полезное делает. Но мне от этого не легче.

Я же говорю, железо очень старое, ресурсы ограничены, а сервачёк несёт нагрузку и как файлопомойка, и как сервер виртуализации VirtualBox, CalDAV сервер, не помню чего ещё туда напихал... Регулярно запускаю 1С виртуальный сервер, с PostgreSQL на отдельном виртуальном сервере Debian, т.к. для 1C нужен свой извращённый PostgreSQL. Bhyve на нём не работает, поэтому не спешите судить за VirtualBox.

Я знаю все плюсы ZFS, мне нравится эта штука, но в эту шарманку она плохо вписывается. Если бы просто файлопомойка была с вебсервером, тогда куда ещё ни шло, но с виртуализацией...

Нужен спец по Vinum, который хорошо знает, что она может. У меня догадки есть конечно, но я могу чего-то не понимать. А документация по этому Vinum скудненькая в части возможных сценариев использования. Либо все сценарии, что описаны и есть всё, что она может. Тогда печаль тоска.

Ещё была мысль на NetBSD LVM задействовать. Но! Задействовать его-то можно, но он без каких-то модулей в ядре, поэтому не позволяет на живую двигать разделы, только статично размечать сновья. Времени не особо было разбираться в кухне как, и что в ядро нужно добавить, для полноценной работы LVM в NetBSD. Я так вообще не понял, зачем в инсталляторе его предлагать, если автоматом не вставлять в ядро нужные модули. Это типа, я LVM поставлю, а двигать разделы может и не захочу, поэтому ядро не пропатчено, а если захочу, то пропатчу. Хотя смысл LVM ставить, если он в таком случае работает, комбинация рэйда и конкатенатора, или страйпа?..

Вообще мне не понятно, как в крупных компаниях, используют BSD системы, обеспечивая непрерывность работы, при их скудной функциональности файловых систем, до изобретения ZFS? Это ж боль какая-то!.. Или я с Linux слез с кривой парадигмой в голове, поэтому не до конца понимаю "UnixWay". Это ж переводится как: "Вы должны страдать!" - Да?

Аватара пользователя
Alex Keda
стреляли...
Сообщения: 35454
Зарегистрирован: 2004-10-18 14:25:19
Откуда: Made in USSR
Контактная информация:

Vinum FreeBSD

Непрочитанное сообщение Alex Keda » 2020-01-10 9:45:53

у любой работы есть "прерывность".
как минимум можно работу с одного сервера на другой перевести

и, кстати, ни на одном из моих линуксов нет LVM - а их, к сожалению, у меня нынче больше чем FreeBSD
ораклы-шмораклы и прочая проприетращина.
Убей их всех! Бог потом рассортирует...

zurapa
рядовой
Сообщения: 23
Зарегистрирован: 2018-11-21 21:20:49
Откуда: Волгоград

Vinum FreeBSD

Непрочитанное сообщение zurapa » 2020-01-10 9:56:15

Не знаю, не знаю... Я на все linux'ы его пихаю, чтобы был. И это существенно упрощает работу с дисками. Особенно, если это где-то в облаке, никакого чёткого плана к подымаемому сервису нет. И потом возникает такое, типа, а у нас место закончилось, давай расширим, и ещё бы резервные копии как-то делать, да так, чтобы работа не вставала, потому, что работают с ним почти круглосуточно, и второй сервер мы не планируем, нужно всё на одном реализовать... Что-то вот такое вот беспорядочное, постепенно меняющееся. И LVM прям выручает. А если реальным железом, то диск можно перенести останавливая работу, только на замену диска. Ну, или два раза, что бы поставить новый. Потом запустить. Перелить данные на новый освободив старый. Отсоединить старый. Продолжить работу. Если на горячую можно менять диски, то вообще остановки совсем не нужно, бывает.
А как это же реализуется с наименьшими простоями в BSD системах без ZFS?

Аватара пользователя
Alex Keda
стреляли...
Сообщения: 35454
Зарегистрирован: 2004-10-18 14:25:19
Откуда: Made in USSR
Контактная информация:

Vinum FreeBSD

Непрочитанное сообщение Alex Keda » 2020-01-10 10:02:10

извините, но если у вас нет денег на второй сервер - то у вас не 24/7 сервис
а значит вы его вполне можете погасить и сделать плановые работы

если у вас от этого сервера зависит бизнес/доходы - то его стоит продублировать
Убей их всех! Бог потом рассортирует...

zurapa
рядовой
Сообщения: 23
Зарегистрирован: 2018-11-21 21:20:49
Откуда: Волгоград

Vinum FreeBSD

Непрочитанное сообщение zurapa » 2020-01-10 10:14:55

Конечно вы правы. Но бизнесмены порой бывают большими жмотами. А ожидания у них завышенные. И, как бы, стремишься максимально удовлетворить их ожидания теми средствами, что есть. С LVM это не сложно.

Так что с Vinum? Его вообще не используют сейчас с появлением ZFS?

guest
проходил мимо

Vinum FreeBSD

Непрочитанное сообщение guest » 2020-01-10 14:05:36

zurapa » 2020-01-10 9:56:15
Не знаю, не знаю... Я на все linux'ы его пихаю, чтобы был. И это существенно упрощает работу с дисками. Особенно, если это где-то в облаке, никакого чёткого плана к подымаемому сервису нет. И потом возникает такое, типа, а у нас место закончилось, давай расширим, и ещё бы резервные копии как-то делать, да так, чтобы работа не вставала, потому, что работают с ним почти круглосуточно, и второй сервер мы не планируем, нужно всё на одном реализовать... Что-то вот такое вот беспорядочное, постепенно меняющееся. И LVM прям выручает. А если реальным железом, то диск можно перенести останавливая работу, только на замену диска. Ну, или два раза, что бы поставить новый. Потом запустить. Перелить данные на новый освободив старый. Отсоединить старый. Продолжить работу. Если на горячую можно менять диски, то вообще остановки совсем не нужно, бывает.
А как это же реализуется с наименьшими простоями в BSD системах без ZFS?
без ZFS это реализуется на базе фреймворка GEOM, который выручает аналогично LVM'у.
gvinum или gvirstor в качестве альтернативы:

Код: Выделить всё

# man gvinum
# man gvirstor
хоть на выбор, хоть вместе, geom позволяет наслаивать друг на друга, не всегда это удобно и полезно.
man вполне исчерпывающий, попробуйте под виртуалкой поиграться и решение придет.

Все что касается дисковой подсистемы для UFS2, как и сама UFS2, давно не развивается, но
поддерживается в боевом и рабочем состоянии.

Важно: - не используйте UFS2 с журналированием == SUJ! Не используйте gjournal - очень медленно
работает, не используйте встроенное журналирование в UFS2 = softupdates journal (опция -j для newfs/tunefs) - без УПСа
опасно и не все ошибки в SUJ выловлены и исправлены. Два варианта журналирования:
- gjournal - механизм журналирования на уровне geom (тормоз)
- suj - softupdates journaling на уровне FS (imho - кривой, не дай бог вырубят электричество...)
Чистый UFS2 - работает надежно, UFS2 + SU (softupdates) - надежно и быстрей чем "чистый" UFS2.

snorlov
подполковник
Сообщения: 3927
Зарегистрирован: 2008-09-04 11:51:25
Откуда: Санкт-Петербург

Vinum FreeBSD

Непрочитанное сообщение snorlov » 2020-01-10 15:11:09

zurapa, ну сейчас память то стоит "копейки", правда все зависит от материнки, но я думаю добить ее до 8 гб можно, у меня примерно на таком же компе, правда там quad стоял, 2-е виртуалки в vbox'е, и все это крутилось на zfs... Кстати на сайте кто-то рихтовал zfs для работы на 2-х гигах...

ыть
проходил мимо

Vinum FreeBSD

Непрочитанное сообщение ыть » 2020-01-10 19:53:25

snorlov писал(а):
2020-01-10 15:11:09
память то стоит "копейки"
дело не в копейках, а в "спортивной форме".. хотябы.. надо максимум выжимать из того, что есть!
можно и геом покопать, как тов.Гвест толкует..
zurapa писал(а):
2020-01-10 9:30:06
Ещё была мысль на NetBSD LVM задействовать.
харёший мисл, слюшяй)
там, кстати, и зфс есть (в девелоп-статусе правда), и XEN (родной и православный, вбокс - в помойку адназначна)
zurapa писал(а):
2020-01-10 9:30:06
Это типа, я LVM поставлю, а двигать разделы может и не захочу, поэтому ядро не пропатчено, а если захочу, то пропатчу. Хотя смысл LVM ставить, если он в таком случае работает, комбинация рэйда и конкатенатора, или страйпа?
ну а чего не логичного то? захотишь двигать, наканпиляй в ядро чего нужно..
там, кстати, много чего нужного из коробки достать можно.. mpls, например ))
NetBSD - весч! :good:

Аватара пользователя
Alex Keda
стреляли...
Сообщения: 35454
Зарегистрирован: 2004-10-18 14:25:19
Откуда: Made in USSR
Контактная информация:

Vinum FreeBSD

Непрочитанное сообщение Alex Keda » 2020-01-10 22:43:28

замечу ещё, что на больших разделах (сталкивался на 64T и 27T, далее у меня перерыв до 1T, так что точно не скажу), после ресета сыпется этот самый UFS2
началось в 12 помоему версии.

выражается в том что fsck падает - inode out of range чтоли
вылечить не удалось, тока бэкап и пересоздание

на 27T три раза так происходило за два месяца, после чего я впервые был вынужден заюзать zfs в продакшене
ufs до этого момента меня устраивал...
Убей их всех! Бог потом рассортирует...

zurapa
рядовой
Сообщения: 23
Зарегистрирован: 2018-11-21 21:20:49
Откуда: Волгоград

Vinum FreeBSD

Непрочитанное сообщение zurapa » 2020-01-22 9:17:21

guest писал(а):
2020-01-10 14:05:36
без ZFS это реализуется на базе фреймворка GEOM, который выручает аналогично LVM'у.
gvinum или gvirstor в качестве альтернативы:

Код: Выделить всё

# man gvinum
# man gvirstor
хоть на выбор, хоть вместе, geom позволяет наслаивать друг на друга, не всегда это удобно и полезно.
man вполне исчерпывающий, попробуйте под виртуалкой поиграться и решение придет.
Про gvinum я читал man и handbook не особо там проясняются шаблоны использования. Про gvirstor не знал. Благодарю. Попробовал в dиртуалке поиграться. Доигрался до того, что теперь при попытке gvirstor что-то сделать, хоть dump, хоть label, хоть что, он отправляет систему в перезагрузку. Либо вываливает в single-user режим и корень делает только для чтения. Причём, я бы не сказал, что я что-то невероятное делал. Всего лишь попытался один из дисков участвующих в этом безобразии clear сделать. При этом это у меня тестовые диски были, ничего системного я не запихивал туда. Короче, либо это в 12 версии всё так печально, либо у меня руки кривые, либо gvirstor так себе система по надёжности. Если gvinum можно разломать, потом собрать, и данные на plex'ах, если не перетёрты, то файловая система собирается и показывает то, что есть, то в gvirstor одним неловким движением можно похерачить не только файлы но и систему. При этом неловкость своего движения я так и не осознал. Странно, почему, говорят, что geom реализует функционал LVM. Основная идея LVM в том, что можно менять PV один на другой переезжать LV на живую на другие PV. В geom это всё статично. Переезжать, нужно, как я понял руками, что-то делая с этими plex, и prov в gvirstor. И как это делать на живой работающей системе и смонтированных volume, и не описывается и я ума не приложу.

При чём в самом man по gvirstor написано:
For alternative ways to implement virtual or resizable file systems see zfs(1M), gconcat(8) and growfs(8).
Я правильно понимаю, что функционал в передвижении данных по носителям и высвобождение этих носителей, при используемом volume не возможно средствами gvirstor, gvinum, gconcat, growfs? Ими можно только наращивать пространства используя разрозненные участки носителей под крышей одного целого volume, но чтобы высвобождать... Или я чего-то недопонимаю в этой схеме.

В той же zfs можно в pool'е один vdev заменить на другой vdev. При этом мне не нужно создавать рейд. В geom это только при помощи graid можно сделать. Но если мне он не на постоянку нужен, а только для перемещения с раздела на раздел диска, то мне всё равно придётся прерывать работу, что загнать два plex или prov в этот самый рейд, а сверху gvinum'ом или gvirstor'ом работать с этим рэйдовым устройством. Что-то какая-то говёная гибкость получается.

Или я чего не догоняю?

Вообще мне кто-нибудь может обрисовать схему, как средствами geom без отключения volume (работая с ним) пересадить его с одного жёсткого диска на другой, чтобы потом можно было отключить старый диск и остаться работать на новом и всё это без прерывания работы с volume? Я что-то не придумаю сценария для этого. Я не прошу прям покомандно ражёвывать, но хотябы теоретически словами.

zurapa
рядовой
Сообщения: 23
Зарегистрирован: 2018-11-21 21:20:49
Откуда: Волгоград

Vinum FreeBSD

Непрочитанное сообщение zurapa » 2020-01-24 8:57:22

Благодарю всех участников обсуждения. Я разобрался.

Аватара пользователя
Alvares
прапорщик
Сообщения: 485
Зарегистрирован: 2008-07-10 12:48:08
Откуда: Воронеж
Контактная информация:

Vinum FreeBSD

Непрочитанное сообщение Alvares » 2020-01-24 9:04:38

Разобрался - поделись. Может, еще кому полезно будет
Бог создал людей сильными и слабыми. Сэмюэл Кольт сделал их равными...

zurapa
рядовой
Сообщения: 23
Зарегистрирован: 2018-11-21 21:20:49
Откуда: Волгоград

Vinum FreeBSD

Непрочитанное сообщение zurapa » 2020-01-25 0:32:27

Для тех, кто с lvm пришёл на vinum

В LVM есть такие понятия как:
LV - логический том. Городится на vg.
VG - группа томов. Городится на pv.
PV - физический том. Является проекцией.

В vinum используются такие понятия как:
volume - том.
plex - сплетение.
subdisk - поддиск. представляет часть реального раздела жёсткого диска или весь диск.
drive - раздел реального диска, в котором размещаются subdisk'и.

LV и volume похожи и представляют собой конечный том размеченный под файловую систему, которую мы потом будем монтировать и нагружать файлами.

PV и drive похожи и представляют собой физический том на реальном диске, за той лишь разницей, что в linux PV может быть на всё блочное устройство, т.е. диск.

В vinum subdisk - сущности для выделения блока из drive и запихивания его в plex. Их может быть в plex несколько.
А в LVM используется такая сущность как extent (если не ошибаюсь) блоки по 4МБ, на которые делится PV. По сути они аналогичны subdisk в vinum. Но т.к. в LVM в обычных ситуациях оператор не заморачивается с extent'ами, LVM сам их распределяет, какой extent на PV, какому LV предоставить в пользование.

А вот посерединке как раз и заплетается это всё по разном.

В LVM VG включает в себя несколько PV, и все exten'ы объединяет в единое пространство, из которого потом оператор создаёт LV (логические тома). VG содержит с одной стороны пачку PV'шек, с другой стороны пачку LV'шек, которые для себя насоздавал оператор.

В Vinum же plex включают в себя множество subdisk, что в LVM у нас extent'ы. А вот по отношению к volume plex ведёт себя не так, как VG и в этом большая трудность для понимания. Plex не может относиться к нескольким volume, он всегда цепляется только к одному volume. Но у volume может быть несколько plex'ов. И относиться к plex'ам, как к VG категорически не следует. Plex имеет разные типы организации subdisk'ов: concat, stripe, raid5 - от выбора которых зависит его дальнейшие возможности расширения и использования. Так чтобы зеркалировать данные хранимые на реальных дисках, необходимо к volume подцепить два plex'а, на которые он будет писать параллельно. В то время, как в LVM VG по прежнему останется один и там всё адресуется к PV, т.е. в случае зеркала мы из LV пишем на два разных PV одновременно.

И теперь к моему случаю. Я не понимал, как мне на рабочей системе не останавливая volume переместить его с одного реального раздела на другой.

В LVM это делается командой pvmove <pv> и LVM вытесняет с него все данные освобождая все extent'ы, по завершению этой команды освободившийся диск можно утилизировать, например присоединить к другому VG. При этом оператор не видит, что там творится. Но если заглянуть под капот, то фактически LVM зеркалирует extent'ы с этого pv на другие pv, а когда все 100 % этого pv зеркалировалось, то с него данные удаляются. И вот если это понимать, то становится понятно, что нужно хотеть от vinum.

Исходное. Допустим мы имеем volume data, к которому прицеплен plex с организацией concat...

Вот тут я выматерюсь! Сидишь, смотришь на этот concat и думаешь, что как-то через него должно всё решаться, или плексу нужно что-то сказать, или subdisk подвигать с помощью команды move. Так вот ХРЕН! Это ни разу не интуитивно.

... продолжим. К нашему plex прицеплен subdisk, который берёт весь реальный раздел реального диска. Этот реальный диск с реальным разделом мы решили освободить.

Для этого присоединяем новый диск, делаем на нём реальный раздел с типом freebsd-vinum, и создаём новый plex с организацией concat, который присоединяем к нашему volume data, и к этому новому plex присоединяем новый subdisk, который берёт целый реальный раздел нового диска. Таким образом у нас получилось к volume data подсоединено два plex'а:
- один старый в статусе up
- другой новый в статусе down

Командуем нашему volume'у data:

Код: Выделить всё

#start data
Они синхронизирует plex'ы. Надеюсь здесь не нужно объяснять, что такое зеркало, и почему plex'ы должны быть одинаковые по объёму?..

После того, как синхронизация прошла отсоединяем наш старый plex:

Код: Выделить всё

gvinum> detach -f data.p0
и удаляем его со всеми subdisk'ами:

Код: Выделить всё

gvinum> rm -r data.p0
Выдераем старый диск, и выбрасываем.

Прошу прощения, что много воды и мало команд по существу. Но команды по созданию томов vinum вы в документации легко прочтёте. А вот понимать, как с этим зверем обращаться, эти документации не пишут. Что очень сильно печалит.

Вот не помню на счёт LVM, лень перечитывать, может ли он на живом работающем логическом томе сделать расслоение (stripe). Но vinum со своими plex'ами позволяет с организации concat, пересесть на stripe и даже на raid5. Вообще когда разобрался vinum куда логичней и проще и понятней мне показался.

Правда LVM не даёт себе в ногу выстрелить и там похерить данные неосторожным движением очень сложно. А вот в vinum на тестовой машине, я ломал систему так, что машина перезагружалось. Причём один раз это было потому что я plex отключил от volume и потом в этот plex добавил subdisk - всё - перезагруз! Правда потом собрал конфиг по памяти запустил, сделал на volume fsck и том живой, данные на месте. В общем, после этих экспериментов, как-то сыкатно на него сажать важные данные. Рассыпется, и что с ним делать? Собирать по крохам?

Аватара пользователя
Alex Keda
стреляли...
Сообщения: 35454
Зарегистрирован: 2004-10-18 14:25:19
Откуда: Made in USSR
Контактная информация:

Vinum FreeBSD

Непрочитанное сообщение Alex Keda » 2020-01-25 16:11:40

Спасибо ;)
Почти статья
Убей их всех! Бог потом рассортирует...

zurapa
рядовой
Сообщения: 23
Зарегистрирован: 2018-11-21 21:20:49
Откуда: Волгоград

Vinum FreeBSD

Непрочитанное сообщение zurapa » 2020-01-29 20:41:01

Жесть! Этот gvinum судя по всему перепиливали с vinum в спешке под geom, чуть-чуть не доделали, а потом... появился ZFS, и про него забыли.
При преремещении volum с одного диска на другой машина в virtualbox упала с жалобами на закончившееся количество inode. Также и с volume при попытке в него писать в то время, когда переносятся данные между дисками, орёт, что нет inode, но правда основная система при этом не падает. Т.е. безотказной работы с движением дисков не выйдет.

Также имел такую хитрую ситуацию, когда создавал новый plex к volum, который был на внешнем жёстком диске, который иногда побездействию засыпает беспробудно, пока его не переподключишь. В тот момент когда он уснул, я создавал plex без явлного указания имени, в результате получил plex с именем "^[.p0", а отображался он как 0. Переименовать я его не мог обращаясь к нему, как к 0. В разных вариацих, пока не сростил, что это эскейп символ, потом его каким-то образом в терминале вызвал, скопировал, вставил в название имени, и только тогда смог его переименовать и что-то с ним сделать. Чувствую себя пацанов в 90-х года играющим в денди и перебором узнающего секреты корявой китайской игрухи. Может там разработчики зашили секретную комбинацию клавиш, которая ускоряет диски в тысячу раз и процессор в 12. ;)

Полезу в NetBSD, там vinum без geom, посмотрим, что он там умеет.

Аватара пользователя
Alex Keda
стреляли...
Сообщения: 35454
Зарегистрирован: 2004-10-18 14:25:19
Откуда: Made in USSR
Контактная информация:

Vinum FreeBSD

Непрочитанное сообщение Alex Keda » 2020-01-30 23:12:38

сдаётся мне, эскейп сам не появился...
протсо вы это символ не увидели =)
Убей их всех! Бог потом рассортирует...

zurapa
рядовой
Сообщения: 23
Зарегистрирован: 2018-11-21 21:20:49
Откуда: Волгоград

Vinum FreeBSD

Непрочитанное сообщение zurapa » 2020-01-31 6:03:27

Да нет же. Я хорошо помню, что написал. И там блока name вообще не было. Я же говорю. Я его присоединял к volume реальный диск которого уснул и не отвечал. У меня в файловом менеджере дерево каталогов верхнего уровня этого раздело было, а внутри каталогов всё пусто было и файлы, что отображались тоже не читались. А когда name не указан, то gvinum его должен обозвать либо gvinumvolumeN, либо по имени volume, к которому присоединяется или указан последним в конфигурационном файле, в моём случае это должен был быть data4.p1, т.к. data4.p0 уже был создан, но был недоступен и нечитаем. Так написано в документации. Мне же выдало "^[". Что весьма неожиданно.

zurapa
рядовой
Сообщения: 23
Зарегистрирован: 2018-11-21 21:20:49
Откуда: Волгоград

Vinum FreeBSD

Непрочитанное сообщение zurapa » 2020-02-02 8:05:47

zurapa писал(а):
2020-01-29 20:41:01
Полезу в NetBSD, там vinum без geom, посмотрим, что он там умеет.
А что мне ни кто не сказал, что я дурень и vinum в NetBSD нет? Только кастрированный lvm. Ну, и как тут с этим жить?!

ChihPih
ст. прапорщик
Сообщения: 568
Зарегистрирован: 2009-09-04 12:23:30
Откуда: Где-то в России...
Контактная информация:

Vinum FreeBSD

Непрочитанное сообщение ChihPih » 2020-02-24 8:17:45

А мне вот интересно - на англоязычной части интернета активно обсуждалась проблема использования ZFS совместно с оперативной памятью без ECC Якобы, в теории существует вероятность утраты данных на ZFS в результате возникновения в памяти самопроизвольных изменений отдельных битов (Исследование, проведённое на большом количестве серверов Google, показало, что количество ошибок может быть в пределах от 25 000 до 70 000 ошибок за миллиард рабочих часов (англ. device hours) на мегабит (то есть 2,5-7,0 × 10−11 ошибок / бит·час).
Так вот, большинство операций ZFS осуществляется в памяти и с контрольными суммами данных, в результте подмены битов ошибки могут иметь накопительный характер, что приведет к потере данных. Об этом есть целые статьи и крупная тема на форуме FreeNAS.
Но только вот все, что там говориться - это голая теория и вероятности. По факту я не увидел ниодного материала с конкретными фактами.

Исходя из рекомендацией здесь, использовать ZFS, мне интересно - кто нибудь терял данные на ZFS, где установлена память без ECC?
www.info-x.org - информационный ресурс о ОС FreeBSD.

guest
проходил мимо

Vinum FreeBSD

Непрочитанное сообщение guest » 2020-02-24 13:50:53

Исходя из рекомендацией здесь, использовать ZFS, мне интересно - кто нибудь терял данные на ZFS, где установлена память без ECC?
страшней другое, когда память ECC и она начинает сбоить, данные ЧУТЬ не были
потеряны.

ps. Только отношения к LVM и Vinum, это не имеет.

ChihPih
ст. прапорщик
Сообщения: 568
Зарегистрирован: 2009-09-04 12:23:30
Откуда: Где-то в России...
Контактная информация:

Vinum FreeBSD

Непрочитанное сообщение ChihPih » 2020-02-24 14:27:36

guest писал(а):
2020-02-24 13:50:53
ps. Только отношения к LVM и Vinum, это не имеет.
Не имеет, однако в постах есть рекомендации юзать ZFS, поэтому вспомнил про такую проблемку
www.info-x.org - информационный ресурс о ОС FreeBSD.