This is the old XigmaNAS forum in read only mode,
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
ZFS на разделах GPT
Moderators: alexey123, MikeMac
- start
- experienced User

- Posts: 75
- Joined: 04 Jul 2015 17:24
- Status: Offline
ZFS на разделах GPT
Соратники, есть у меня два диска объемом 1'907'730MB.
Есть желание сделать два пула из четырех разделов. А точнее на каждом диске создать по два раздела: первые разделы по 1'000'000MB ; вторые по 907'730MB. После присвоить метки всем четырем и создать два пула из разделов_на_метках - один "старйп" на 2'000'000MB из первых разделов ; а из вторых создать зеркало на 907'730MB.
Вот такой "дешевый" способ сделать на двух дисках условнонадежное хранилище для архива, и большой_2TB диск для торрентов
В этой статье http://2gusia.livejournal.com/130035.html описано как создать пул из GPT_дисков целиком.
Прошу, помогите с вопросом какими программами во nas4free воспользоваться для разметки и присвоения меток GRT, и ещё бы что бы 4К блоки были.
P.S> Понимаю что реальные разметы будут другими.
P.S.S> При выходе из строя одного диска - ставлю другой, размачиваю с аналогичным размером и заменяю устройство в зеркале. При этом потеря данных на "страйпе" ни как ни пугает. Производительность, вообще не волнует.
P.S.S.S>
Есть желание сделать два пула из четырех разделов. А точнее на каждом диске создать по два раздела: первые разделы по 1'000'000MB ; вторые по 907'730MB. После присвоить метки всем четырем и создать два пула из разделов_на_метках - один "старйп" на 2'000'000MB из первых разделов ; а из вторых создать зеркало на 907'730MB.
Вот такой "дешевый" способ сделать на двух дисках условнонадежное хранилище для архива, и большой_2TB диск для торрентов
В этой статье http://2gusia.livejournal.com/130035.html описано как создать пул из GPT_дисков целиком.
Прошу, помогите с вопросом какими программами во nas4free воспользоваться для разметки и присвоения меток GRT, и ещё бы что бы 4К блоки были.
P.S> Понимаю что реальные разметы будут другими.
P.S.S> При выходе из строя одного диска - ставлю другой, размачиваю с аналогичным размером и заменяю устройство в зеркале. При этом потеря данных на "страйпе" ни как ни пугает. Производительность, вообще не волнует.
P.S.S.S>
SigmaNAS-01: HP Proliant microserver g8 1610T, ZFS on 4x2T
SigmaNAS-02: Supermicro X7SPE-HF-D525, ZFS on 3x1T & 3x500G
SigmaNAS-02: Supermicro X7SPE-HF-D525, ZFS on 3x1T & 3x500G
- MikeMac
- Forum Moderator

- Posts: 429
- Joined: 07 Oct 2012 23:12
- Location: Moscow, Russia
- Contact:
- Status: Offline
Re: ZFS на разделах GPT
всё аналогично посту в моём блоге. только в п 3 создаём разделы не во весь диск, а указанного размераstart wrote:какими программами
https://www.freebsd.org/cgi/man.cgi?que ... 9&sektion=
то есть в gpart add нужны параметры [-b start] [-s size]
в конце мана есть примеры. Размер самостоятельно посчитайте, можно на диске (пока пустой) поэкспериментировать и посмотреть результат через gpart show - справитесь, думаю
- start
- experienced User

- Posts: 75
- Joined: 04 Jul 2015 17:24
- Status: Offline
Re: ZFS на разделах GPT
Рапортую:
Сделал в тестовой виртуальной_nas4free дополнительных три диска (da3 ; da4 ; da5)
на каждом диске разметил по два раздела (далее * - номер диска da) командами
gpart add -t freebsd-zfs -l DA*_part1 -a 4K -s 10G /dev/da*
gpart add -t freebsd-zfs -l DA*_part1 -a 4K -s 9900M /dev/da*
в итоге gpart show /dev/da* выдает:
После сделал "чередующийся" пул pirog из двух разделов _part2 командной
zpool create pirog /dev/gpt/DA3_part2 /dev/gpt/DA4_part2
после сделал на нем файловую систему и поднял SAMBA шару - скопировал на нё 13ГБ файлов
потом заменил раздел диска 4, на раздел диска 5 в пуле, командой
zpool replace pirog /dev/gpt/DA4_part2 /dev/gpt/DA5_part2
дождался когда пройдет синхронизация раздела в пуле (100% замена раздела ).
после выключил виртуальный nas4free -> отключил пятый диск -> включил нас4фрии -> посмотрел что есть неисправный пул -> выключил нас4фрии -> подключил обратно пятый диск -> включил нас4фрии -> надеюсь что пул восстановиться увидев ранее_отсутствующий раздел -> но пул не восстановился
zpool status -x возвращает следующее:
команда zpool scrub pirog возвращает
вопрос: а так ли я создал пул и разделы на GPT ?
и если так, то чего пул не восстановился сам - да и вообще - можно его теперь вернуть в строй ?
Сделал в тестовой виртуальной_nas4free дополнительных три диска (da3 ; da4 ; da5)
на каждом диске разметил по два раздела (далее * - номер диска da) командами
gpart add -t freebsd-zfs -l DA*_part1 -a 4K -s 10G /dev/da*
gpart add -t freebsd-zfs -l DA*_part1 -a 4K -s 9900M /dev/da*
в итоге gpart show /dev/da* выдает:
Code: Select all
=> 34 41942973 da* GPT (20G)
34 6 - free - (3.0k)
40 20971520 1 DA*_part1 (10G)
20971560 20275200 2 DA*_part2 (9.7G)
41246760 696247 - free - (340M)
zpool create pirog /dev/gpt/DA3_part2 /dev/gpt/DA4_part2
после сделал на нем файловую систему и поднял SAMBA шару - скопировал на нё 13ГБ файлов
потом заменил раздел диска 4, на раздел диска 5 в пуле, командой
zpool replace pirog /dev/gpt/DA4_part2 /dev/gpt/DA5_part2
дождался когда пройдет синхронизация раздела в пуле (100% замена раздела ).
после выключил виртуальный nas4free -> отключил пятый диск -> включил нас4фрии -> посмотрел что есть неисправный пул -> выключил нас4фрии -> подключил обратно пятый диск -> включил нас4фрии -> надеюсь что пул восстановиться увидев ранее_отсутствующий раздел -> но пул не восстановился
Code: Select all
pool: pirog
state: UNAVAIL
status: One or more devices could not be opened. There are insufficient
replicas for the pool to continue functioning.
action: Attach the missing device and online it using 'zpool online'.
see: http://illumos.org/msg/ZFS-8000-3C
scan: none requested
config:
NAME STATE READ WRITE CKSUM
pirog UNAVAIL 0 0 0
gpt/DA3_part2 ONLINE 0 0 0
3387169038118051645 UNAVAIL 0 0 0 was /dev/gpt/DA4_part2
Code: Select all
cannot scrub 'pirog': pool is currently unavailableи если так, то чего пул не восстановился сам - да и вообще - можно его теперь вернуть в строй ?
SigmaNAS-01: HP Proliant microserver g8 1610T, ZFS on 4x2T
SigmaNAS-02: Supermicro X7SPE-HF-D525, ZFS on 3x1T & 3x500G
SigmaNAS-02: Supermicro X7SPE-HF-D525, ZFS on 3x1T & 3x500G
- MikeMac
- Forum Moderator

- Posts: 429
- Joined: 07 Oct 2012 23:12
- Location: Moscow, Russia
- Contact:
- Status: Offline
Re: ZFS на разделах GPT
Во-первых, приводить стоит команды как есть. Копипастом из того места, где исполняются.start wrote:Рапортую
Если в них вносить ошибки (а они точно будут - люди не идеальны), то разобраться - без возможности. Напр. команда
gpart add -t freebsd-zfs -l DA*_part1 -a 4K -s 9900M /dev/da*
уж точно не создаст раздел DA*_part2
во вторых, если не понятно что-то - желательно не рассказывать, что вы думаете про систему, а что система думает про себя.
типа camcontrol devlist, zpool status, zpool history.
Ну и самое главное.
zpool create pirog /dev/gpt/DA3_part2 /dev/gpt/DA4_part2
вы создаёте страйп, пул без всякой надёжности. А затем пытаетесь с ним делать операции как с пулом с избыточностью.
Проблема в том, что вряд ли кто-то интересовался таким, извините за термин, извратом. Так что тут вы - первопроходец. Наверное, разработчики zfs интересовались - но и то не поручусь.
- start
- experienced User

- Posts: 75
- Joined: 04 Jul 2015 17:24
- Status: Offline
Re: ZFS на разделах GPT
Согласен - здесь я указал * как замену цифрам, что бы не писать на 1,2,3,4 разделы выводы команд отличающиеся лишь циферками.MikeMac wrote:Если в них вносить ошибки (а они точно будут - люди не идеальны), то разобраться - без возможности. Напр. команда
gpart add -t freebsd-zfs -l DA*_part1 -a 4K -s 9900M /dev/da*
уж точно не создаст раздел DA*_part2
Не буду мурыжить дальше эту тему т.к. тут у меня пока не хватает академических знаний (буду изучать по ходу)
Ниже опишу другую ситуацию.
================================= Ниже новая тема =================================
Имею 4 диска по 2ТБ , но речь будет только о двух из них.
На этих двух дисках GPT разметка, и по два раздела
ls /dev/gpt/
Code: Select all
p1-241ARMMTS
p1-241B44GTS
p2-241ARMMTS
p2-241B44GTS
Из этих Четырех разделов создал два пула:
(аналог RAID0) разряженный pool: altern-gpt1200g
и зеркальный pool: mirr-gpt1200g
Вывод zfs list
Code: Select all
NAME USED AVAIL REFER MOUNTPOINT
altern-gpt1200g 753G 526G 19K /mnt/altern-gpt1200g
altern-gpt1200g/mediateca 753G 526G 753G /mnt/altern-gpt1200g/mediateca
mirr-gpt1200g 372G 783G 19K /mnt/mirr-gpt1200g
mirr-gpt1200g/archive 371G 783G 371G /mnt/mirr-gpt1200g/archive
mirr-gpt1200g/fs4sys 471K 1024M 471K /mnt/mirr-gpt1200g/fs4sysРазделы GPT были выравнены кластеру кратному 4К
разделы на диске 3
Code: Select all
nas4free: ~# zpool labelclear /dev/da3
nas4free: ~# gpart create -s GPT /dev/da3
da3 created
nas4free: ~# gpart add -t free-bsd -l p1-241B44GTS -a 4K -b 50 -s 1200G /dev/da3
gpart: Invalid argument
nas4free: ~# gpart add -t freebsd-zfs -l p1-241B44GTS -a 4K -b 50 -s 1200G /dev/da3
da3p1 added
nas4free: ~# gpart show /dev/da3
=> 34 3907029101 da3 GPT (1.8T)
34 22 - free - (11K)
56 2516582400 1 freebsd-zfs (1.2T)
2516582456 1390446679 - free - (663G)
nas4free: ~# gpart add -t freebsd-zfs -l p2-241B44GTS -a 4K -s 662G /dev/da3
da3p2 added
nas4free: ~# gpart show /dev/da3
=> 34 3907029101 da3 GPT (1.8T)
34 22 - free - (11K)
56 2516582400 1 freebsd-zfs (1.2T)
2516582456 1388314624 2 freebsd-zfs (662G)
3904897080 2132055 - free - (1.0G)Code: Select all
nas4free: ~# zpool labelclear /dev/da2
nas4free: ~# gpart create -s GPT /dev/da2
da2 created
nas4free: ~# gpart show /dev/da2
=> 34 3907029101 da2 GPT (1.8T)
34 3907029101 - free - (1.8T)
nas4free: ~# gpart add -t freebsd-zfs -l p1-241ARMMTS -a 4K -b 56 -s 1200G /dev/da2
da2p1 added
nas4free: ~# gpart show /dev/da2
=> 34 3907029101 da2 GPT (1.8T)
34 22 - free - (11K)
56 2516582400 1 freebsd-zfs (1.2T)
2516582456 1390446679 - free - (663G)
nas4free: ~# gpart add -t freebsd-zfs -l p2-241ARMMTS -a 4K -s 662G /dev/da2
da2p2 added
nas4free: ~# gpart show /dev/da2
=> 34 3907029101 da2 GPT (1.8T)
34 22 - free - (11K)
56 2516582400 1 freebsd-zfs (1.2T)
2516582456 1388314624 2 freebsd-zfs (662G)
3904897080 2132055 - free - (1.0G)Все было ОК и zdb показывал ashift 12
(!) Встала задача смены компьютера и соответственно инсталляция NAS4FREE тоже новая. (при этом на старой и новой системах версия nas4free одинаковая 10.2.0.2 - Prester revision 1906 )
На старой системе экспортировал все пулы (zpool export) > выключил компьютер > перенес диски в другой-новый компьютер с nas4free >
Включил новый компьютер. При старте nas4free пулы автоматом были импортированы НО!...
но пулы на gpt имеют следующий статус "One or more devices are configured to use a non-native block size"
nas4free: ~# zpool status
Code: Select all
pool: altern-gpt1200g
state: ONLINE
status: One or more devices are configured to use a non-native block size.
Expect reduced performance.
action: Replace affected devices with devices that support the
configured block size, or migrate data to a properly configured
pool.
scan: none requested
config:
NAME STATE READ WRITE CKSUM
altern-gpt1200g ONLINE 0 0 0
gpt/p2-241ARMMTS ONLINE 0 0 0 block size: 512B configured, 4096B native
gpt/p2-241B44GTS ONLINE 0 0 0 block size: 512B configured, 4096B native
errors: No known data errors
pool: mirr-gpt1200g
state: ONLINE
status: One or more devices are configured to use a non-native block size.
Expect reduced performance.
action: Replace affected devices with devices that support the
configured block size, or migrate data to a properly configured
pool.
scan: none requested
config:
NAME STATE READ WRITE CKSUM
mirr-gpt1200g ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
gpt/p1-241ARMMTS ONLINE 0 0 0 block size: 512B configured, 4096B native
gpt/p1-241B44GTS ONLINE 0 0 0 block size: 512B configured, 4096B native
Если у кого то есть совет, или действенное руководство - прошу, опишите его ибо ночь темна и полна ужаса у меня пока нет решения
Last edited by start on 16 Nov 2015 15:56, edited 8 times in total.
SigmaNAS-01: HP Proliant microserver g8 1610T, ZFS on 4x2T
SigmaNAS-02: Supermicro X7SPE-HF-D525, ZFS on 3x1T & 3x500G
SigmaNAS-02: Supermicro X7SPE-HF-D525, ZFS on 3x1T & 3x500G
- MikeMac
- Forum Moderator

- Posts: 429
- Joined: 07 Oct 2012 23:12
- Location: Moscow, Russia
- Contact:
- Status: Offline
Re: ZFS на разделах GPT
Не оч верю в чудеса.start wrote: Пулы делал по инструкции с 4К кластером и после удалил "нупы"
zdb показывал ashift 12
Code: Select all
zdb | grep ashift
А заодно -
Code: Select all
uname -a
zpool history - start
- experienced User

- Posts: 75
- Joined: 04 Jul 2015 17:24
- Status: Offline
Re: ZFS на разделах GPT
zdb | grep ashift
т.к. в системе 4 диска (на двух есть зеркальный пул wd2t-mirr), предыдущий вывод не очень информативный, поэтому полный:
zdb
uname -a
zpool history
Code: Select all
ashift: 9
ashift: 9
ashift: 9
ashift: 12
zdb
Code: Select all
altern-gpt1200g:
version: 5000
name: 'altern-gpt1200g'
state: 0
txg: 622775
pool_guid: 17776563145731519749
hostid: 910059550
hostname: 'nas4free.local'
vdev_children: 2
vdev_tree:
type: 'root'
id: 0
guid: 17776563145731519749
children[0]:
type: 'disk'
id: 0
guid: 3489878547209911077
path: '/dev/gpt/p2-241ARMMTS'
phys_path: '/dev/gpt/p2-241ARMMTS'
whole_disk: 1
metaslab_array: 37
metaslab_shift: 32
ashift: 9
asize: 710812368896
is_log: 0
create_txg: 4
children[1]:
type: 'disk'
id: 1
guid: 14772276702531142477
path: '/dev/gpt/p2-241B44GTS'
phys_path: '/dev/gpt/p2-241B44GTS'
whole_disk: 1
metaslab_array: 34
metaslab_shift: 32
ashift: 9
asize: 710812368896
is_log: 0
create_txg: 4
features_for_read:
com.delphix:hole_birth
com.delphix:embedded_data
mirr-gpt1200g:
version: 5000
name: 'mirr-gpt1200g'
state: 0
txg: 607684
pool_guid: 15270087529047170876
hostname: ''
vdev_children: 1
vdev_tree:
type: 'root'
id: 0
guid: 15270087529047170876
children[0]:
type: 'mirror'
id: 0
guid: 611262538117176820
metaslab_array: 34
metaslab_shift: 33
ashift: 9
asize: 1288485470208
is_log: 0
create_txg: 4
children[0]:
type: 'disk'
id: 0
guid: 12250053146930875508
path: '/dev/gpt/p1-241ARMMTS'
phys_path: '/dev/gpt/p1-241ARMMTS'
whole_disk: 1
create_txg: 4
children[1]:
type: 'disk'
id: 1
guid: 8252644147772816328
path: '/dev/gpt/p1-241B44GTS'
phys_path: '/dev/gpt/p1-241B44GTS'
whole_disk: 1
create_txg: 4
features_for_read:
com.delphix:hole_birth
com.delphix:embedded_data
wd2t-mirr:
version: 5000
name: 'wd2t-mirr'
state: 0
txg: 472181
pool_guid: 2744409211717078721
hostname: ''
vdev_children: 1
vdev_tree:
type: 'root'
id: 0
guid: 2744409211717078721
children[0]:
type: 'mirror'
id: 0
guid: 14139383143497001706
metaslab_array: 34
metaslab_shift: 34
ashift: 12
asize: 2000394125312
is_log: 0
create_txg: 4
children[0]:
type: 'disk'
id: 0
guid: 16341555174013437377
path: '/dev/ada3'
phys_path: '/dev/ada3'
whole_disk: 1
create_txg: 4
children[1]:
type: 'disk'
id: 1
guid: 11591316611048637454
path: '/dev/ada2'
phys_path: '/dev/ada2'
whole_disk: 1
create_txg: 4
features_for_read:
com.delphix:hole_birth
com.delphix:embedded_data
Code: Select all
FreeBSD nas4free.local 10.2-RELEASE-p5 FreeBSD 10.2-RELEASE-p5 #0 r289200M: Tue Oct 13 00:54:46 CEST 2015 root@dev.nas4free.org:/usr/obj/nas4free/usr/src/sys/NAS4FREE-amd64 amd64
Code: Select all
History for 'altern-gpt1200g':
2015-09-29.23:38:51 zpool create -m /mnt/altern-gpt1200g altern-gpt1200g /dev/gpt/p2-241ARMMTS /dev/gpt/p2-241B44GTS
2015-09-29.23:41:28 zfs create -o utf8only=on altern-gpt1200g/mediateca
2015-10-01.20:37:27 zpool import -d /dev -f -a
2015-11-08.12:31:52 zpool export altern-gpt1200g
2015-11-08.12:42:45 zpool export altern-gpt1200g
2015-11-08.13:52:37 zpool import -d /dev -f -a
2015-11-08.14:21:46 zpool export altern-gpt1200g
2015-11-08.14:22:04 zpool import altern-gpt1200g
History for 'mirr-gpt1200g':
2015-09-29.23:37:04 zpool create -m /mnt/mirr-gpt1200g mirr-gpt1200g mirror /dev/gpt/p1-241ARMMTS /dev/gpt/p1-241B44GTS
2015-09-30.22:34:45 zfs create -o utf8only=on mirr-gpt1200g/archive
2015-10-01.11:44:11 zfs create mirr-gpt1200g/fs4sys
2015-10-01.11:45:18 zfs set reservation=1Gb mirr-gpt1200g/fs4sys
2015-10-01.11:46:47 zfs set quota=1Gb mirr-gpt1200g/fs4sys
2015-10-25.22:04:34 zpool import -d /dev -f -a
2015-10-27.18:42:56 zpool import -d /dev -f -a
2015-10-31.22:57:52 zpool import -d /dev -f -a
2015-11-07.19:04:16 zpool import -d /dev -f -a
2015-11-08.12:42:10 zpool export mirr-gpt1200g
SigmaNAS-01: HP Proliant microserver g8 1610T, ZFS on 4x2T
SigmaNAS-02: Supermicro X7SPE-HF-D525, ZFS on 3x1T & 3x500G
SigmaNAS-02: Supermicro X7SPE-HF-D525, ZFS on 3x1T & 3x500G
- MikeMac
- Forum Moderator

- Posts: 429
- Joined: 07 Oct 2012 23:12
- Location: Moscow, Russia
- Contact:
- Status: Offline
Re: ZFS на разделах GPT
Как я понимаю, вас волнуют пулы
altern-gpt1200g и mirr-gpt1200g
zdb на обоих дисках страйпа показывает ashift 9
zpool history показывает, что создавали вы его без всяких nop
по зеркалу - один vdev, как и положено. И он с ashift 9
из истории - тоже никаких следов nop устройств
поэтому утверждение
Что делать. В принципе, если это что-то временное - то можно жить и так. Ну чуть медленнее будет - зато места немного больше. Только не забивайте такой пул более чем на 95% - будет многократное снижение скорости.
Если это часть чего-то надолго - то
1) Зеркало придётся точно развалить, изменить ashift на vdev зеркале или raidz нельзя. Данные куда-то бекапить. При создании зеркала достаточно одному из дисков указать nop с правильным сектором. Но можно и обоим.
2) Страйп можно попытаться обмануть.
- создать раздел точно того же размера
- дать на него nop с 4K сектором
- сделать на этот nop реплейс с одного из разделов страйпа.
- на освободившемся разделе делать nop с 4K сектором
- повторять, пока не останутся только только устройства с ashift 12
- экспортировать, убить нопы, импортировать
PS Я не очень понимаю - вроде 10 версия FreeBSD достаточно умная, чтобы сразу делать пулы с ashift 12. Вы точно не на девятке это всё делали в ночь с 29 на 30 октября?
altern-gpt1200g и mirr-gpt1200g
zdb на обоих дисках страйпа показывает ashift 9
zpool history показывает, что создавали вы его без всяких nop
по зеркалу - один vdev, как и положено. И он с ashift 9
из истории - тоже никаких следов nop устройств
поэтому утверждение
считаю ошибочнымПулы делал по инструкции с 4К кластером и после удалил "нупы"
Что делать. В принципе, если это что-то временное - то можно жить и так. Ну чуть медленнее будет - зато места немного больше. Только не забивайте такой пул более чем на 95% - будет многократное снижение скорости.
Если это часть чего-то надолго - то
1) Зеркало придётся точно развалить, изменить ashift на vdev зеркале или raidz нельзя. Данные куда-то бекапить. При создании зеркала достаточно одному из дисков указать nop с правильным сектором. Но можно и обоим.
2) Страйп можно попытаться обмануть.
- создать раздел точно того же размера
- дать на него nop с 4K сектором
- сделать на этот nop реплейс с одного из разделов страйпа.
- на освободившемся разделе делать nop с 4K сектором
- повторять, пока не останутся только только устройства с ashift 12
- экспортировать, убить нопы, импортировать
PS Я не очень понимаю - вроде 10 версия FreeBSD достаточно умная, чтобы сразу делать пулы с ashift 12. Вы точно не на девятке это всё делали в ночь с 29 на 30 октября?
- start
- experienced User

- Posts: 75
- Joined: 04 Jul 2015 17:24
- Status: Offline
Re: ZFS на разделах GPT
Уважаемый MikeMac - ты прав!MikeMac wrote:zpool history показывает, что создавали вы его без всяких nop
Действительно, я создавал пулы по новой инструкции - без создания нуп. И после этого ashift на пулах был равен =12
_На текущий момент я просто скопировал все с пулов altern-gpt1200g и mirr-gpt1200g на резервный диск и пересоздал эти пулы (с обязательным labelclear).
Действительно! вот что интересного заметил с пулом wd2t-mirrMikeMac wrote:PS Я не очень понимаю - вроде 10 версия FreeBSD достаточно умная, чтобы сразу делать пулы с ashift 12. ...
Изначально его я создавал из веб-морды 9ой версии, и потом у него я удалил нупы ( запутал всех в своём первоначальном коменте, за что извиняюсь)
при этом до экспорта zdb на этом пуле wd2t-mirr показывал 9
А после импорта, на пуле wd2t-mirr ashift стал = 12! , что по факту очень здорово!
Code: Select all
wd2t-mirr:
version: 5000
name: 'wd2t-mirr'
state: 0
txg: 472181
pool_guid: 2744409211717078721
hostname: ''
vdev_children: 1
vdev_tree:
type: 'root'
id: 0
guid: 2744409211717078721
children[0]:
type: 'mirror'
id: 0
guid: 14139383143497001706
metaslab_array: 34
metaslab_shift: 34
ashift: 12
asize: 2000394125312
is_log: 0
create_txg: 4
children[0]:
type: 'disk'
id: 0
guid: 16341555174013437377
path: '/dev/ada3'
phys_path: '/dev/ada3'
whole_disk: 1
create_txg: 4
children[1]:
type: 'disk'
id: 1
guid: 11591316611048637454
path: '/dev/ada2'
phys_path: '/dev/ada2'
whole_disk: 1
create_txg: 4
features_for_read:
com.delphix:hole_birth
com.delphix:embedded_data
SigmaNAS-01: HP Proliant microserver g8 1610T, ZFS on 4x2T
SigmaNAS-02: Supermicro X7SPE-HF-D525, ZFS on 3x1T & 3x500G
SigmaNAS-02: Supermicro X7SPE-HF-D525, ZFS on 3x1T & 3x500G
- MikeMac
- Forum Moderator

- Posts: 429
- Joined: 07 Oct 2012 23:12
- Location: Moscow, Russia
- Contact:
- Status: Offline
Re: ZFS на разделах GPT
IMHO эти слова - 100% гарантия того, что пул создавался на nop устройствах. Что, в свою очередь, на 99.9% что nop были 4K и, соответсвенно, ashift и был и есть 12. Насколько я знаю, у vdev изменить ashift невозможно.start wrote:Изначально его я создавал из веб-морды 9ой версии, и потом у него я удалил нупы
-
sergey1878
- NewUser

- Posts: 14
- Joined: 18 Oct 2015 09:32
- Status: Offline
Re: ZFS на разделах GPT
Блин, читал и не мог оторваться. Не понял ничего...... Лихо закрутили: и автор и уважаемый гуру. Почище Конан Дойля.
Можно простым языком: а зачем весь этот геморой?
Можно простым языком: а зачем весь этот геморой?
- MikeMac
- Forum Moderator

- Posts: 429
- Joined: 07 Oct 2012 23:12
- Location: Moscow, Russia
- Contact:
- Status: Offline
Re: ZFS на разделах GPT
Ну, в первом посте камрад start так излагает свой путь и рыбку съесть и на ней же прокатитьсяsergey1878 wrote:а зачем весь этот геморой?
То есть две половинки под зеркало, две - под старайп. Извратом попахивает, конечно, но ни УК на законами физики не запрещеноВот такой "дешевый" способ сделать на двух дисках условнонадежное хранилище для архива, и большой_2TB диск для торрентов