Messieurs,
de retour après plusieurs semaines d'inactivité ici (construction de la maison et déménagement), je reviens vers vous avec une demande simple pour certains :
QUI peut m'expliquer ZFS (creation du ZFS sur mon NAS avec les BEST PRACTICES, les pools, les datasets, les snapshots.....) ?
Car je ne comprends pas grand chose et je vais monter un 2eme NAS pour faire du zrep entre les 2 car je viens de perdre lors du déménagement mon montage RAID précédent...... et évidemment 8 To de data perdues 5ou a peine moins..... je n'ai pas envie de refaire)
Merci de votre aide
This is the old XigmaNAS forum in read only mode,
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
ZFS HELP
Moderators: velivole18, ernie, mtiburs
- ernie
- Forum Moderator

- Posts: 1458
- Joined: 26 Aug 2012 19:09
- Location: France - Val d'Oise
- Status: Offline
Re: ZFS HELP
Ou la, je laisse les experts expliqués la théorie du zfs.
Ma pratique:
- utiliser de la mémoire ECC, sinon risqué (possible mais risqué).
- avoir 1Go par To de stockage il me semble
- il faut bien y penser : veux tu du raid 1 (raidz1) ? du 2 ou du 3 ? J étais parti sur du 1 et je tenais à mes données et je suis passé au 2 (ce qui fait que jusque 2 Disques en panne cela fonctionne) . Le nas de back up via Zrep est en 1. Cela joue aussi sur la quantité de stockage disponible.
Comment ?
- formater tes disques via le menu formater et choisir le disque puis 'zfs format pool' pour le type de systèmes. Un message apparaîtra vers le bas te disant que c est terminé.
- ensuite tu dois aller dans le menu zfs pour créer successivement:
Un vdev, puis des datasets. Tu pourras y créer par la suite des répertoires.
Je reprends une image de mtiburs ou laster13: tu as une chambre (vdev) dans laquelle tu as une commode (datasets) qui contient des tiroirs pour ranger (répertoire).
Attention:
Zrep ne sauvegarde que des datasets donc il faut avoir cette structure.
Et Zrep gere lui même les snapshots. Donc ne pas mettre d auto snapshots.
J ai eu du mal à passer le cap mais le forum m a aidé et maintenant cela tourne sans problème et 24h/24h.
Ma pratique:
- utiliser de la mémoire ECC, sinon risqué (possible mais risqué).
- avoir 1Go par To de stockage il me semble
- il faut bien y penser : veux tu du raid 1 (raidz1) ? du 2 ou du 3 ? J étais parti sur du 1 et je tenais à mes données et je suis passé au 2 (ce qui fait que jusque 2 Disques en panne cela fonctionne) . Le nas de back up via Zrep est en 1. Cela joue aussi sur la quantité de stockage disponible.
Comment ?
- formater tes disques via le menu formater et choisir le disque puis 'zfs format pool' pour le type de systèmes. Un message apparaîtra vers le bas te disant que c est terminé.
- ensuite tu dois aller dans le menu zfs pour créer successivement:
Un vdev, puis des datasets. Tu pourras y créer par la suite des répertoires.
Je reprends une image de mtiburs ou laster13: tu as une chambre (vdev) dans laquelle tu as une commode (datasets) qui contient des tiroirs pour ranger (répertoire).
Attention:
Zrep ne sauvegarde que des datasets donc il faut avoir cette structure.
Et Zrep gere lui même les snapshots. Donc ne pas mettre d auto snapshots.
J ai eu du mal à passer le cap mais le forum m a aidé et maintenant cela tourne sans problème et 24h/24h.
NAS 1&2:
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2
Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2
Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: ZFS HELP
Salut,
???, si oui, je dirais en fait que "la chambre c'est plutôt le pool".
Mais en fait il n'y a pas vraiment de comparaison possible, car comment expliquer le miroir ou autre ... c'était après un apéro sans doute
Avant de donner ma méthode, il faut se poser la question du choxi:
- entrelacé ? (à éviter sauf si on a un bon clône)
- miroir ?
- raidz1 raidz2 ?
Je voudrais essayer un de ces jours la différence de performances sur le miroir et le raidz, car je ne la connais pas, je suis sûr d'au moins une chose, la lecture se comporte comme un entrelacement (ce qui donne de bonnes perf), pour l'écriture, je pense que c'est un peu inférieur à un disque unique.
Normalement, il faut faire comme dit Ernie, soit
Imaginons un pool miroirisé
- lire le nom des dev dans "Disques|Gestion"
- formater les disques
(jusque là tout va bien, c'est après que çà se gâte)
- ouvrir une console et lancer la commande pour créer son pool (zpool create monsuperpool /dev/da0, puis lorsque çà me plait, je peux faire un zpool attach monsuperpool /dev/da0 /dev/da1 pour mettre un second disque en miroir
- pour rendre les choses propres: Disques|ZFS|Configuration|Détecté et je fais une synchro (et là, le webgui est content)
- je crée mes datasets si besoin: monsuperpool/toto par exemple (il n'y a pas de / devant, c'est normal)
- et là, je fais: zfs checksum=on monsuperpool (ou sha256) et zfs sync=always (pourquoi ces deux lignes ? parce qu'en iscsi, j'avais des erreurs sur mes pools et depuis que je fais çà, je n'ai plus d'erreurs du tout, donc, en fait la première dit à ZFS de faire des checksum et la seconde lui dit de toujours tout contrôler, si, ce qui doit être écrit l'est bien réellement, je pense que c'est un bon choix pour la sécurité, mais çà ralentit ZFS, eh oui, on ne peut pas tout avoir, mais bon, au moins, on est sûr que ce qui est écrit est bon.
- pour créer les datasets, je fais toujours tout en ligne de commande, car pour moi le webgui est juste un accessoire.
Mais ma méthode n'est pas la meilleur pour le néophyte, je dis juste comment je gère mes pools actuellement.
sinon, zrep ... pas encore eu le temps d'essayer
Mais une chose à savoir, et çà je le dirai toujours:
Quand on a une machine "neuve", il faut toujours s'amuser un peu avec avant de mettre des données dessus pour se "faire la main".
Par exemple: pour un raidz, on met un peu de données, puis on débranche un disque, on en remet encore, et ensuite, on regarde comment il faut faire pour remettre les choses en ordre (le but étant de désynchroniser les disques)
Une question qui peut avoir son "sens":
- je fais un raidz2 avec des disques identiques et tous acheté en même temps ? que se passe t'il si ils ont le même défaut ... qui se produira ... en même temps (composant qui claque le même jours, voir dans la même heure par exemple)
Sinon, pour le choix du style: miroir, raidz1 ou 2 ou 3! ... pas facile ... je me pose souvent la question
J'ai dis çà moiernie wrote:Je reprends une image de mtiburs ou laster13: tu as une chambre (vdev) dans laquelle tu as une commode (datasets) qui contient des tiroirs pour ranger (répertoire).
Mais en fait il n'y a pas vraiment de comparaison possible, car comment expliquer le miroir ou autre ... c'était après un apéro sans doute
Avant de donner ma méthode, il faut se poser la question du choxi:
- entrelacé ? (à éviter sauf si on a un bon clône)
- miroir ?
- raidz1 raidz2 ?
Je voudrais essayer un de ces jours la différence de performances sur le miroir et le raidz, car je ne la connais pas, je suis sûr d'au moins une chose, la lecture se comporte comme un entrelacement (ce qui donne de bonnes perf), pour l'écriture, je pense que c'est un peu inférieur à un disque unique.
Normalement, il faut faire comme dit Ernie, soit
mais, ... là gros ... moment de honte, je bloque toujours à "gestion" et j'ai souvent un "Toi pas faire çà, çà peut pas !", bah des fois çà passe des fois non, mais comme je connais ZFS depuis ces débuts, j'applique en fait la méthode suivante:Comment ?
- formater tes disques via le menu formater et choisir le disque puis 'zfs format pool' pour le type de systèmes. Un message apparaîtra vers le bas te disant que c est terminé.
- ensuite tu dois aller dans le menu zfs pour créer successivement:
Un vdev, puis des datasets.
Imaginons un pool miroirisé
- lire le nom des dev dans "Disques|Gestion"
- formater les disques
(jusque là tout va bien, c'est après que çà se gâte)
- ouvrir une console et lancer la commande pour créer son pool (zpool create monsuperpool /dev/da0, puis lorsque çà me plait, je peux faire un zpool attach monsuperpool /dev/da0 /dev/da1 pour mettre un second disque en miroir
- pour rendre les choses propres: Disques|ZFS|Configuration|Détecté et je fais une synchro (et là, le webgui est content)
- je crée mes datasets si besoin: monsuperpool/toto par exemple (il n'y a pas de / devant, c'est normal)
- et là, je fais: zfs checksum=on monsuperpool (ou sha256) et zfs sync=always (pourquoi ces deux lignes ? parce qu'en iscsi, j'avais des erreurs sur mes pools et depuis que je fais çà, je n'ai plus d'erreurs du tout, donc, en fait la première dit à ZFS de faire des checksum et la seconde lui dit de toujours tout contrôler, si, ce qui doit être écrit l'est bien réellement, je pense que c'est un bon choix pour la sécurité, mais çà ralentit ZFS, eh oui, on ne peut pas tout avoir, mais bon, au moins, on est sûr que ce qui est écrit est bon.
- pour créer les datasets, je fais toujours tout en ligne de commande, car pour moi le webgui est juste un accessoire.
Mais ma méthode n'est pas la meilleur pour le néophyte, je dis juste comment je gère mes pools actuellement.
sinon, zrep ... pas encore eu le temps d'essayer
Mais une chose à savoir, et çà je le dirai toujours:
Quand on a une machine "neuve", il faut toujours s'amuser un peu avec avant de mettre des données dessus pour se "faire la main".
Par exemple: pour un raidz, on met un peu de données, puis on débranche un disque, on en remet encore, et ensuite, on regarde comment il faut faire pour remettre les choses en ordre (le but étant de désynchroniser les disques)
Une question qui peut avoir son "sens":
- je fais un raidz2 avec des disques identiques et tous acheté en même temps ? que se passe t'il si ils ont le même défaut ... qui se produira ... en même temps (composant qui claque le même jours, voir dans la même heure par exemple)
Sinon, pour le choix du style: miroir, raidz1 ou 2 ou 3! ... pas facile ... je me pose souvent la question
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: ZFS HELP
Miroir vs ZFS
écriture équivalente
lecture 2 fois plus performante (en sas) 1.2 à 1.5 fois en sata(suivant que l'on est ou pas sur le même contrôleur).
écriture équivalente
lecture 2 fois plus performante (en sas) 1.2 à 1.5 fois en sata(suivant que l'on est ou pas sur le même contrôleur).
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: ZFS HELP
En fait je voulais dire miroir ZFS ou ZFS mirorsleid wrote:Miroir vs ZFS
En gros, je ne mettais pas en opposition le "miroir normal" (raid1) avec ZFS
donc, si on veut faire un "vs", c'est "miroir-ZFS" vs raidz1 par exemple
Dans le cadre de ce post, je ne pensais qu'à du 100% ZFS
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: ZFS HELP
Le plus important, c'est le ou les pools, car c'est le (ou les) tronc()s del'arbre, après, faire des datasets ne représente pas grand chose (les branches) et tu as tout le loisir de faire ce genre de chose ultérieurement.ZiEg wrote:les pools, les datasets, les snapshots.....)
En revanche, le choix d'un pool ou de plusieurs pools est très important, car si tu veux déplacer par la suite tes données, ce ne sera pas facile.
Dans mon cas, mon nas domestique est un entrelacement de 3 disques de 2To en ZFS et je suis en train d'attaquer les manip pour faire un pool sur chaque disques (car en fait, après des années de fonctionnement, je me suis aperçu que je pouvais faire 3 parties quasiment égales), et pour faire cela, ce n'est pas une mince affaire car voulant toujours avoir mon clône au cas oû, je suis obligé d'en mettre un peu partout pour que çà passe.
Sache que pour un miroir, ou un raidzX, tu pourras toujours rajouter de la taille, il y a de la doc ici:
http://docs.oracle.com/cd/E19253-01/820 ... index.html
tu peux t'amuser avec des fichiers au lieu de te lancer en vrai, de cette façon:
Je fais un copier coller de mes commandes (en virant certains rep perso) fait à l'intérieur d'un vol en ZFS (je vais donc faire un pool ZFS DANS du ZFS !!! ... le genre de truc à ne pas faire, mais c'est pour l'exemple (la bonne cause) car je n'ai pas de place autre que du ZFS)
Je vais d'ailleurs faire mes manip sur un nas en prod qui ne doit surtout pas avoir "d'ennui"
nas1: disk320# zpool list
NAME SIZE ALLOC FREE FRAG EXPANDSZ CAP DEDUP HEALTH ALTROOT
disk320 298G 195G 103G 35% - 65% 1.00x ONLINE -
nas1 1.82T 1.19T 645G 22% - 65% 1.00x ONLINE -
nas1: ~# cd /mnt/disk320
nas1: disk320#
nas1: disk320# dd if=/dev/zero of=./tank1.dsk bs=1M count=256
256+0 records in
256+0 records out
268435456 bytes transferred in 0.054339 secs (4940020827 bytes/sec)
nas1: disk320# ls -lh
-rw-r--r-- 1 root wheel 256M Oct 22 01:16 tank1.dsk
nas1: disk320# dd if=/dev/zero of=./tank2.dsk bs=1M count=256
256+0 records in
256+0 records out
268435456 bytes transferred in 0.069032 secs (3888554707 bytes/sec)
nas1: disk320# zpool create mirror toto ./tank1.dsk ./tank2.dsk
cannot open './tank1.dsk': no such GEOM provider
must be a full path or shorthand device name
(J'ai laissé l'erreur exprès pour voir qu'il faut toujours créer le pool avec des chemins absolus)
nas1: disk320# zpool create mirror toto /mnt/disk320/tank1.dsk /mnt/disk320/tank2.dsk
nas1: disk320# zpool status toto
pool: toto
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
toto ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
/mnt/disk320/tank1.dsk ONLINE 0 0 0
/mnt/disk320/tank2.dsk ONLINE 0 0 0
errors: No known data errors
nas1: disk320#
Et voilà un p'tit miroir ZFS de 256Mo
On n'en veut plus ?
nas1: disk320# zpool destroy toto
nas1: disk320# zpool status toto
cannot open 'toto': no such pool
un p'tit raidz2 ? (avec les ruines du miroir d'avant)
nas1: disk320# dd if=/dev/zero of=./tank3.dsk bs=1M count=256
256+0 records in
256+0 records out
268435456 bytes transferred in 0.081613 secs (3289123621 bytes/sec)
Pour le tank4, on va faire différemment:
nas1: disk320# cp ./tank3.dsk ./tank4.dsk
nas1: disk320# ls -lh *.dsk
-rw-r--r-- 1 root wheel 256M Oct 22 01:26 tank1.dsk
-rw-r--r-- 1 root wheel 256M Oct 22 01:26 tank2.dsk
-rw-r--r-- 1 root wheel 256M Oct 22 01:28 tank3.dsk
-rw-r--r-- 1 root wheel 256M Oct 22 01:30 tank4.dsk
nas1: disk320# zpool create toto raidz2 /mnt/disk320/tank1.dsk /mnt/disk320/tank2.dsk /mnt/disk320/tank3.dsk /mnt/disk320/tank4.dsk
nas1: disk320# zpool status toto
pool: toto
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
toto ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
/mnt/disk320/tank1.dsk ONLINE 0 0 0
/mnt/disk320/tank2.dsk ONLINE 0 0 0
/mnt/disk320/tank3.dsk ONLINE 0 0 0
/mnt/disk320/tank4.dsk ONLINE 0 0 0
errors: No known data errors
nas1: disk320#
et voilà !
Attention, ne faite pas vos pool en vrai de cette façon (sur de l'UFS ou sur du fat32 !!! ... lol ), c'est juste pour l'exemple comme quoi on peut s'amuser avec une structure plus ou moins complexe sans prendre de risques
Allez un petit exemple de destruction
Je vais copier sauvagement 10Mo de zéro dans mon dev et il va d'ailleurs prendre la taille de 10Mo au lieu de 256Mo
nas1: disk320# dd if=/dev/random of=./tank2.dsk bs=1M count=10
10+0 records in
10+0 records out
10485760 bytes transferred in 0.164325 secs (63811106 bytes/sec)
nas1: disk320# zpool scrub toto
nas1: disk320# zpool status toto
pool: toto
state: DEGRADED
status: One or more devices could not be used because the label is missing or
invalid. Sufficient replicas exist for the pool to continue
functioning in a degraded state.
action: Replace the device using 'zpool replace'.
see: http://illumos.org/msg/ZFS-8000-4J
scan: scrub repaired 0 in 0h0m with 0 errors on Thu Oct 22 01:38:47 2015
config:
NAME STATE READ WRITE CKSUM
toto DEGRADED 0 0 0
raidz2-0 DEGRADED 0 0 0
/mnt/disk320/tank1.dsk ONLINE 0 0 0
15533550486369989241 UNAVAIL 0 0 0 was /mnt/disk320/tank2.dsk
/mnt/disk320/tank3.dsk ONLINE 0 0 0
/mnt/disk320/tank4.dsk ONLINE 0 0 0
errors: No known data errors
On vérifie le "carnage"
nas1: disk320# ls -lh
-rw-r--r-- 1 root wheel 256M Oct 22 01:38 tank1.dsk
-rw-r--r-- 1 root wheel 10M Oct 22 01:38 tank2.dsk
-rw-r--r-- 1 root wheel 256M Oct 22 01:38 tank3.dsk
-rw-r--r-- 1 root wheel 256M Oct 22 01:38 tank4.dsk
Je vais récréer un dev (tank2) avec n'importe quoi
nas1: disk320# dd if=/dev/zero of=./tank2.dsk bs=1M count=256
256+0 records in
256+0 records out
268435456 bytes transferred in 0.057713 secs (4651210442 bytes/sec)
nas1: disk320# zpool replace toto 15533550486369989241 /mnt/disk320/tank2.dsk
nas1: disk320# zpool status toto
pool: toto
state: DEGRADED
scan: resilvered 41.5K in 0h0m with 0 errors on Thu Oct 22 01:41:13 2015
config:
NAME STATE READ WRITE CKSUM
toto DEGRADED 0 0 0
raidz2-0 DEGRADED 0 0 0
/mnt/disk320/tank1.dsk ONLINE 0 0 0
replacing-1 UNAVAIL 0 0 0
15533550486369989241 UNAVAIL 0 0 0 was /mnt/disk320/tank2.dsk/old
/mnt/disk320/tank2.dsk ONLINE 0 0 0
/mnt/disk320/tank3.dsk ONLINE 0 0 0
/mnt/disk320/tank4.dsk ONLINE 0 0 0
errors: No known data errors
nas1: disk320# zpool clear toto
nas1: disk320# zpool status toto
pool: toto
state: ONLINE
scan: resilvered 41.5K in 0h0m with 0 errors on Thu Oct 22 01:41:13 2015
config:
NAME STATE READ WRITE CKSUM
toto ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
/mnt/disk320/tank1.dsk ONLINE 0 0 0
/mnt/disk320/tank2.dsk ONLINE 0 0 0
/mnt/disk320/tank3.dsk ONLINE 0 0 0
/mnt/disk320/tank4.dsk ONLINE 0 0 0
errors: No known data errors
Sinon pour les snapshots:
attention, à savoir:
toto est le pool (il n'y a pas de / devant)
toto/truc truc est un dataset OU un répertoire (la vérif se fera avec zfs list)
/toto est le chemin absolu du pool
/toto/truc est le chemin du dataset OU du répertoire truc
C'est un peu "casse-gueule", je sais, mais c'est pas moi "qu'à fait çà"
Donc, attention au remplissage de la carte CF (embedded) en croyant que son pool est monté !!! çà fait un peu "désordre"
nas1: disk320# echo "un" > /toto/test.txt
nas1: disk320# cat /toto/test.txt
un
nas1: disk320# zfs snapshot toto@unedateavecuneheure
nas1: disk320# echo "deux" > /toto/test.txt
nas1: disk320# cat /toto/test.txt
deux
nas1: disk320# zfs rollback toto@unedateavecuneheure
nas1: disk320# cat /toto/test.txt
un
Voilà les grandes lignes
Je sais c'est de la ligne de commande, mais bon, c'est formateur et on ne fait pas çà en webgui
Pour le reste, la bible: http://docs.oracle.com/cd/E19253-01/820-2315/index.html
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
