This is the old XigmaNAS forum in read only mode,
it will taken offline by the end of march 2021!



I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!

[Resolu] Raid 10 en zfs ?

French community

Moderators: velivole18, ernie, mtiburs

Forum rules
Set-Up GuideFAQsForum Rules
Post Reply
User avatar
ernie
Forum Moderator
Forum Moderator
Posts: 1458
Joined: 26 Aug 2012 19:09
Location: France - Val d'Oise
Status: Offline

[Resolu] Raid 10 en zfs ?

Post by ernie »

Bonjour,

je souhaite faire un raid 1+0 avec 4 DD sous zfs

j'ai donc créer 2 vdev avec 2 DD chacun et chaque vdev est en mirror

ensuite jai créé un pool qui utilise les 2 vdev.

j'obtiens:

Code: Select all

pool: master
 state: ONLINE
  scan: none requested
config:

	NAME         STATE     READ WRITE CKSUM
	master       ONLINE       0     0     0
	  mirror-0   ONLINE       0     0     0
	    da0      ONLINE       0     0     0
	    da1      ONLINE       0     0     0
	  mirror-1   ONLINE       0     0     0
	    da2.nop  ONLINE       0     0     0
	    da3.nop  ONLINE       0     0     0
mais il semble que je n'ai pas du strip de mes 2 vdev mirror et plutot mes 2 vdev en mirror.

ou est ce que le mirror-0 veut dire stripper ?

merci par avance
NAS 1&2:
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2

Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: Raid 10 en zfs ?

Post by mtiburs »

Salut,

Je pencherais plus à une sorte de raid 0-1

Si on s'en tient à ce qui est dit:
Pour créer un pool mis en miroir, utilisez le mot-clé mirror suivi du nombre de périphériques de stockage que doit contenir le miroir.
Pour spécifier plusieurs miroirs, répétez le mot-clé mirror dans la ligne de commande. La commande suivante crée un pool avec deux miroirs bidirectionnels :
# zpool create tank mirror c1d0 c2d0 mirror c3d0 c4d0
Le second mot-clé mirror indique qu'un nouveau périphérique virtuel de niveau supérieur est spécifié. Les données sont dynamiquement entrelacées sur les deux miroirs, ce qui les rend redondantes sur chaque disque.

http://docs.oracle.com/cd/E19253-01/820 ... index.html

En fait, c'est en entrelacement des deux miroirs, donc, il n'y a pas de risque sur la sécurité, puisque si un des dev est en rade, l'autre dev prend le relai.
C'est un peu comme quand on rajoute des disque dans un raidz, on entrelace les niveaux supérieurs (qui comme ils sont en raidz ne risque rien)
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

User avatar
ernie
Forum Moderator
Forum Moderator
Posts: 1458
Joined: 26 Aug 2012 19:09
Location: France - Val d'Oise
Status: Offline

Re: Raid 10 en zfs ?

Post by ernie »

Merci c'est bien cela que je recherche.

J'ai testé en ligne de commande :
zpool create tank mirror da0 da1 mirror da2 da3

et j'obtiens:

Code: Select all

pool: tank
 state: ONLINE
  scan: none requested
config:

	NAME        STATE     READ WRITE CKSUM
	tank        ONLINE       0     0     0
	  mirror-0  ONLINE       0     0     0
	    da0     ONLINE       0     0     0
	    da1     ONLINE       0     0     0
	  mirror-1  ONLINE       0     0     0
	    da2     ONLINE       0     0     0
	    da3     ONLINE       0     0     0

errors: No known data errors
Donc pas tout a fait identique à mon premier essai fait via l'interface qui a amené des dax.nop

c'est bien la meme chose. Les .nop étaient surement une erreur de ma part : j'avais du cocher le choix secteur 4 k
NAS 1&2:
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2

Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: Raid 10 en zfs ?

Post by mtiburs »

ce type de montage est rapide et fiable également


Tu te mets un disque de coté et tu fais un script pour voir l'état du pool
genre
tu testes si il manque un "online" en face un dev et/ou si il y a quelque chose d'écrit au bout après les zéros (ceux-ci peuvent être testé aussi)
et
tu fais un zpool attach tank /dev/OK /dev/remplaçant

Comme çà dès qu'il y a un dev qui déconne, ton miroir de 2 dev passe à 3 et ensuite à toi de voir ce qu'il faut faire (on peut facilement enlever des dev en miroir avec "split")
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

User avatar
ernie
Forum Moderator
Forum Moderator
Posts: 1458
Joined: 26 Aug 2012 19:09
Location: France - Val d'Oise
Status: Offline

Re: Raid 10 en zfs ?

Post by ernie »

Oui tout à fait.
Après il y a moins de place disponible qu un raidz1. Si c'est des disques de 1 to, on n a que 2 to par cette méthode. En raidz1 on aurait 3 to.
NAS 1&2:
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2

Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)

Post Reply

Return to “Français”