This is the old XigmaNAS forum in read only mode,
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
j'ai installe Nas4free, tout semble ok, j'ai ajoute les disques, formates en raid pour pouvoir les monter en JBOD, étant donné que pour ms essais, j'ai mis 3 HD de tailles différente, donc le but est d'avoir un total des 3.
J'ai même suivi la doc : http://wiki.nas4free.org/doku.php?id=do ... management
tout est ok jusqu'au moment ou je dois formater l'ensemble au format raid (Format the software RAID array) mais mes disques ne s'affichent pas dans la selection DISK, seulement ma clef usb qui me sert pour le boot.
Qui pourrait m'aider ?
Merci
Bonjour,
Tout d'abord, aucun raid ne vous donnera une capacité du total des trois, mais seulement un arrangement basé sur la plus petite capacité.
D'autre part on branche des disques en jbod pour pouvoir les monter en raid ensuite.
Pour ce qui est des configurations raid je vous renvoie vers cette page: http://fr.wikipedia.org/wiki/RAID_%28informatique%29
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
Cela s'appelle JBOD (Just A Bunch Of Disks) mais ce n'est pas un raid.
Je n'ai jamais vu d'option jbod dans Nas4Free sauf dans la section Raid logiciel
Il faut ajouter les disques sans les formater pour du raid mais en ufs puisque le Jbod n'est pas un raid.
puis dans la section Raid logiciel choisir Jbod.
ou alors
créer 3 vdev avec 1 seul disque(si toutefois c'est possible) à chaque fois et créer un pool avec les 3 vdev le tout sous ZFS
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
Bonjour
Effectivement le JBOD fait partie des fonctions RAID dans Nas4Free mais n'en est pas une ...
Quoi qu'il en soit, que ce soit en ZFS ou en UFS je tiens à mettre l'accent sur le fait que cette options peut être bien pratique pour résoudre des problèmes de stockage mais qu'il est souhaitable de n'envisager d'y avoir recours que pour des résolutions transitoires et/ou temporaires mais qu'il ne faut rien établir en matière de sauvegarde permanente autour d'une telle solution (c'est pire que de sauvegarder ses données sur un disque unique car on multiplie les risques de pertes par le nombre de disques agrégés à un tel groupe).
Vous avez pensez à la manière de récupérer vos donnée en cas de soucis (testdisk, photorec) ?.
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas ... et pas à jour en plus (çà craint)
Conception d'un "système bizarre" de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
ZFS permets de rajouter des disques des tailles différentes "à la volée".
On peut faire un pool et quand le pool est plein (à éviter toutefois), on rajoute un disque.
Cela fonctionne très bien et ne pas pose pas de problème de fiabilité (au niveau fonctionnement je parle, car il faut bien être conscient que le moindre pb sur un disque mettra le pool complet HS)
Il faut savoir qu'avec des disques de différentes tailles entrelacés dès le départ, ZFS fonctionnera de manière optimale jusqu'à la taille maxi du premier disque, car il entrelace ses données sur chaque disque de façon respective. Les performances seront "câlées" sur le moins rapide car ZFS répartira ses données et avancera dans ses transactions quand la répartition sera faite.
Après, quand le plus petit disque est plein, ZFS mettra ses données ou il pourra, ce qui désordonnera sa façon de faire et là, on aura un fonctionnement non-optimisé.
Perso, par exemple (mauvais), sur ma dizaine de N4F, j'ai 2 N4F:
- 3 disques: 3 x 2To
- 4 disques: (2x 2To) + 1,5To + 500Go
Les deux nas ont déjà été remplit à fond (à éviter).
Les deux fonctionnent correctement et tourne H24.
Dernièrement, celui qui a 4 disques a été réduit en taille (25% d'utilisé), et avec la commande zpool iostat -v, on peut voir que l'entrelacement s'est re-répartit au gré des utilisations sur les 4 disques, donc, ZFS va toujours dans le sens de l'entrelacement, il faut donc raisonner dans ce sens.
Il faudrait partir du principe qu'on ne doit pas dépasser la taille du plus petit disque et que les disques doivent avoir des performances le plus identiques possible.
Dans mon cas, le disque de 500Go est bien trop petit.
Le jour ou je pourrai, je referai ce pool avec 3 disques identiques.
Voici un nas avec des disques de tailles différentes:
nas6 2.10T 3.34T
ada0 625G 1.20T
ada3 387G 76.9G
ada1 527G 865G
ada2 606G 1.22T
On voit que ZFS entrelace "au mieux"
celui-ci a eu ses disques ajoutés au gré du remplissage.
nas7 2.59T 2.84T
da0 886G 970G
da1 886G 970G
da2 886G 970G
et celui là à eu un disque tous les ans (en gros)
nas2 4.84T 612G
ada0 1.61T 204G
ada1 1.61T 204G
ada2 1.61T 204G
On voit sur les deux derniers nas que l'entrelacement est respectif (bien qu'en réalité certains fichiers ont mal été répartit à l'origine).
Ce n'est pas du tout un bon exemple, je sais, mais c'est pour dire qu'on peut faire "un gros disque" de cette façon.
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas ... et pas à jour en plus (çà craint)
Conception d'un "système bizarre" de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.