This is the old XigmaNAS forum in read only mode,
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
Ayant décidé de laisser une dernière chance à NAS4Free, je me suis lancé dans le montage d'un serveur (I7, 16 Go de RAM et 4 disques de 4 To)
Ce que je veux c'est, pour le moment éviter ZFS (trop gourmand et déconseillé avec des RAM non ECC) et me monter 2 volumes RAID1 de 4 To chacun.
Les spécialistes me diront "rien de plus simple !" Bah pour moi qui n'est jamais touché à NAS4Free, j'ai halluciné devant la console de gestion des disques, c'est fouilli déjà et contrairement à FreeNAS qui est assez simple là dessus (que j'ai éliminé car j'ai pas accroché à certains trucs), ça ne fonctionne pas.
J'ai tout essayé même le dit ZFS. Je me trouve devant toujours les mêmes erreurs :
Type de partition ou numéro de partition erroné
/dev/gvinum/volume1s4: Impossible d'obtenirl'identifiant UFS.
dumpfs: /dev/gvinum/volume1s4: could not find special device
J'ai bau me creuser la tête, suivre des tutos, rien n'y fait NAS4Free ne veut pas monter mes 2 volumes. Et là on parle juste de la création, je me demande sur quel os je tomberais quand je voudrais passer sur des disques plus grand ou si un réel problème arrive.
Pourquoi ça ne fonctionne pas ? Et surtout pourquoi une telle complexité là où d'autres sont plus claire ? J'espère que ça évoluera de ce côté là ^^
D'avance merci de m'éclairer pour débloquer cette situation.
Avec l'interface web:
J'ai 4 disques que je veux organiser en 2 pools(ce que vous appelez volume) composés chacun d'un vdev type mirroir de 2 disques.
Je cherche dans le "fouillis" le mot Disques puis la gestion de mes disques
S'i y a du rouge dans l'affichage il faut " effacer la configuration et importer les disques"
Donc vous devriez voir 4 disques avec leur noms respectifs.
Profitez-en pour vérifier s'ils n'ont pas un système de fichier qui traine dessus(colonne de droite)
S'ils ont des traces de système de fichier ils vaut mieux les formater donc format de disque dur(onglet suivant) et choisir "pool de stockage ZFS" pour chaque disque (c'est très rapide).
Vous remarquerez au passage la richesse des options de format
Après cela ou directement si les disques étaient neufs il faut aller dans disques onglet ZFS
Nous allons créer 2 vdev(périphérique virtuel) avec chacun 2 disques
vous sélectionnez vos 2 premiers disques avec l'option miroir et vous donnez ou pas(le système le nomme vdev1,2 etc) un nom à votre périphérique vituel . puis la même chose avec les 2 disques suivants.
Comme vous pouvez le remarquer c'est au niveau des périphériques virtuels que l'on fixe la redondance(miroir,raidZ1,2,3)
Cette étape franchie il faut créer vos 2 pools qui comprennent chacun 1 vdev(mais pourraient en contenir plusieurs)
D'autres possibilités plus souples pour l'avenir vous étaient offertes mais je m'en suis tenu à votre stricte définition dans vos souhaits de configuration.
-f car vos disques ont des traces d'un ancien système de fichiers.
Note 1: ZFS n'est pas gourmand en mémoire mais utilise tout ce qu'on lui donne et fonctionne très bien avec 2giga de ram.
Note 2: Mémoire ECC tous les FS sont sensibles aux erreurs mémoire et à bien d'autres choses mais c'est souligné pour ZFS car c'est sont seul potentiel problème.
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
C'est peut être plus fiable mais comme c'est un protocole qui insiste sur le fait d'utiliser des RAM ECC pour éviter la corruption de données et que ce n'est pas mon cas, je zappe.
De plus si une compression est utilisée, ça galère pas mal sur la copie de gros volumes de données (surtout sur de l'audio/vidéo, ce qui va être principalement mon cas)
Par acquis de conscience, j'ai suivis à la lettre ta procédure malgré l'utilisation du ZFS, j'obtiens toujours la même erreur que dans mon premier post.
Je trouve que la gestion des disques sur NAS4Free est vraiement pas intuitive (et faillible) et on se retrouve vite bloqué. J'ai lu des posts de gens pour qui tout roule et du jour au lendemain, ça ne veut plus rien savoir et un pool se retrouve brisé sans raison ni panne. Pas top pour un serveur de production ...
Je suis pas arrivé à éditer mon message précédent (problème de navigateur surement)
Je me suis renseigné sur le ZFS et utiliser des RAM non-ECC c'est un peu comme vouloir sortir un plat bouillant du four sans protection en espérant ne pas se brûler.
Avec ZFS, toutes les données sont écrites puis relues pour être vérifiées et éventuellement réparées grâce à l’utilisation d’un checksum. Excellent c'est un système qui est sûr de par ses vérifications, c'est du solide !
Bien entendu, la RAM en elle-même ne provoquera pas d’erreur tant qu'il n'y a pas de soucis (RAM défectueuse, changement de tension électrique, sources magnétique importante ou autre). l'ECC permet de vérifier si une éventuelle corruption a eu lieu en RAM, c'est pas le cas de RAM non-ECC.
Le défaut de ZFS, c'est qu'il fait confiance à ce qu’il reçoit de la RAM et en cas de corruption des données en RAM, les données corrompues seront écrites comme des données saines en lieu et place des données qui étaient bonnes et ZFS ne détectera pas ça comme des données corrompues.
Et comme il est admis que beaucoup de gens utilisent des machines recyclées (donc souvent un peu âgées), il est mal venu de conseiller ça avec des RAM non-ECC vieillottes !
"Le défaut de ZFS, c'est qu'il fait confiance à ce qu’il reçoit de la RAM et en cas de corruption des données en RAM, les données corrompues seront écrites comme des données saines en lieu et place des données qui étaient bonnes et ZFS ne détectera pas ça comme des données corrompues."
Sauf qu'il y a 1 chance sur 10^77 pour que l'erreur ne soit pas corrigée.
"Matthew Ahrens, one of the cofounders of ZFS at Sun Microsystems and current ZFS developer at Delphix , Matthew said “There’s nothing special about ZFS that requires/encourages the use of ECC RAM more so than any other filesystem.”
Comme UFS,NTFS,BTRFS (futur système des syno)
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
Pour complémenter ce que dit Sleid, ZFS à l'avantage d'être un système COW (copie sur écriture) et ceci n'existe pas sur les autre FS.
Le pb dans le cas de ZFS (sur un pb de parité mémoire) se situerait uniquement sur l'affectation de l'arbre, ce qui réduit encore le risque d'erreur car l'arbre est très petit par rapport aux données.
Néanmoins, le risque existe, et, même si il est "extrèmement très peu probable", il est reste "possible".
Après c'est votre choix, il n'est pas du tout critiquable.
Pour mon cas personnel, avant d'être en ECC, j'avais des problèmes de RAM (pb récurrent car la méméoire n'était pas bonne) et j'avais des pb d'écritures sur le pool, cela était toujours détecté par ZFS, mais cela n'était pas récupérable, même en éffaçant le ou les fichiers détecté's) en erreur.
Mais une chose toutefois, le matériel que vous avez cité n'est pas "structuré" pour en faire un serveur "digne du nom", il ne sert à rien d'omettre un FS sous prétexte qu'il y a un risque de fiabilité alors que le matériel mis en oeuvre n'est pas fiable (le I7 est un processeur grand-public (costaud certes) mais ce n'est pas professionnel, alors qu'un Xéon lui, sera taillé pour le rôle d'un serveur, il est taillé "pro", et toute la chaîne du serveur devra l'être également de la carte mère, des chipsets ... jusqu'à l'élément final qui est le disque ET surtout si c'est pas du ZFS !!! si c'est ZFS et qu'on met un minimum de structure disque adéquate, on pourra faire les pires montage, çà tiendra bon, la preuve en est, le cache de ZFS peux être un dev pourri.
La RAM ECC et la gestion du système (matos+ soft-bas-niveau) fait toute la différence entre le matériel "grand-public" et un matériel "serveur".
De plus, on peut régler ZFS pour le forcer a faire des tâches encore plus rigoureuses comme sync=always ... au lieu de standard (çà aussi çà n'existe pas dans les autres FS)
Voilà, je pointille peut-être un peu, mais pour moi, une structure "non serveur" avec un FS "antique" sera moins fiable qu'avec un FS "moderne" prévu et pensé pour être fiable.
Je pense même qu'un système "non-serveur" en ZFS sera plus fiable qu'un vrai serveur sans ZFS (c'est mon acvis et çà n'engage que moi)
Mais comme vous dites, c'est une question de choix, ... au moins, vous avez notre avis.
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas ... et pas à jour en plus (çà craint)
Conception d'un "système bizarre" de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Sinon, pour vos disques pour les remettre à zéro:
- j'utilise wipefs -a /dev/truc pour enlever les informations propre aux FS (pour tous les FS)
- je fais un coup de dd ou dcfldd pour mettre des zéro sur le disque (au moins 1Go) dd if=/dev/zero of=/dev/truc bs=1M count=1000
... à faire avec un live-CD par exemple
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas ... et pas à jour en plus (çà craint)
Conception d'un "système bizarre" de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
sleid wrote:Avec l'interface web:
J'ai 4 disques que je veux organiser en 2 pools(ce que vous appelez volume) composés chacun d'un vdev type mirroir de 2 disques.
Je cherche dans le "fouillis" le mot Disques puis la gestion de mes disques
S'i y a du rouge dans l'affichage il faut " effacer la configuration et importer les disques"
Donc vous devriez voir 4 disques avec leur noms respectifs.
Profitez-en pour vérifier s'ils n'ont pas un système de fichier qui traine dessus(colonne de droite)
S'ils ont des traces de système de fichier ils vaut mieux les formater donc format de disque dur(onglet suivant) et choisir "pool de stockage ZFS" pour chaque disque (c'est très rapide).
Vous remarquerez au passage la richesse des options de format
Après cela ou directement si les disques étaient neufs il faut aller dans disques onglet ZFS
Nous allons créer 2 vdev(périphérique virtuel) avec chacun 2 disques
vous sélectionnez vos 2 premiers disques avec l'option miroir et vous donnez ou pas(le système le nomme vdev1,2 etc) un nom à votre périphérique vituel . puis la même chose avec les 2 disques suivants.
Comme vous pouvez le remarquer c'est au niveau des périphériques virtuels que l'on fixe la redondance(miroir,raidZ1,2,3)
Cette étape franchie il faut créer vos 2 pools qui comprennent chacun 1 vdev(mais pourraient en contenir plusieurs)
D'autres possibilités plus souples pour l'avenir vous étaient offertes mais je m'en suis tenu à votre stricte définition dans vos souhaits de configuration.
-f car vos disques ont des traces d'un ancien système de fichiers.
Note 1: ZFS n'est pas gourmand en mémoire mais utilise tout ce qu'on lui donne et fonctionne très bien avec 2giga de ram.
Note 2: Mémoire ECC tous les FS sont sensibles aux erreurs mémoire et à bien d'autres choses mais c'est souligné pour ZFS car c'est sont seul potentiel problème.
Alors j'ai tout repris de 0 en utilisant ZFS (on verra bien) ^^
... qui n'affiche aucun retour, je sèche car depuis l'interface web, je n'ai aucun pool de présent dans la section ZFS mais les 2 pools apparaissent dans les infos système ...
disk1 etc c'est un exemple, est-ce bien les noms affichés dans le gestionnaire de disques ? c'est plutôt ada0 ou autre.
si vous avez correctement remplacé monpool et diskx par les valeurs souhaitées et vraies,
Il suffit d'aller dans ZFS configuration et regarder détecté puis de synchroniser l'interface web avec ce qui est rentré en ligne de commande.
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
" dans la config de ZFS, rien ne s'affiche."
Ni en détecté ni en courant ?
Faites toutes les opérations décrites à partir de l'interface web.
Voyez-vous vos disques dans la gestion des disques ?
Les avez-vous formatés en pool zfs ?
Avez-vous créé vos périphériques virtuels ?
Avez vous créé votre ou vos pools avec vos périphériques virtuels ?
Tout le monde y arrive même avec d'antiques cartes mères, vieux P2 etc, alors je me demande bien pourquoi vous n'y arrivez pas.
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX