This is the old XigmaNAS forum in read only mode,
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
Raid Z upgrade
Moderators: velivole18, ernie, mtiburs
-
Inlitha
- Starter

- Posts: 37
- Joined: 10 Dec 2016 15:20
- Status: Offline
Raid Z upgrade
Bonjour,
J'ai un raid z 1 de trois HDD 1 To.
pour un besoin de place je voudrais augmenter l'espace disque.
Juste pour être sur est-il possible d'augmenter la taille du raid par substitution de disque de 1 To par des disques de capacité supérieur sans perte de données?
Merci
J'ai un raid z 1 de trois HDD 1 To.
pour un besoin de place je voudrais augmenter l'espace disque.
Juste pour être sur est-il possible d'augmenter la taille du raid par substitution de disque de 1 To par des disques de capacité supérieur sans perte de données?
Merci
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: Raid Z upgrade
Bonjour,
Oui, c'est facile.
J'ai fais un exemple ci dessous
C'est juste fais en Linux, mais c'est identique pour Xigmanas, il faut juste remplacer les dev (/dev/loop1 => /dev/da1 ou autre)
Je crée le raidz1 de 3 disques de 100M
root@bx:~/test# zpool create toto raidz1 /dev/loop1 /dev/loop2 /dev/loop3
root@bx:~/test# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
toto 272M 131K 272M - 0% 0% 1.00x ONLINE -
(çà affiche 272M mais dès qu'il se remplit il va tendre vers 200M: 300M - 100M)
Je positionne la possibilité de l'expansion automatique du pool
root@bx:~/test# zpool set autoexpand=on toto
Je regarde le status du pool
root@bx:~/test# zpool status -v
pool: toto
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
toto ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
loop1 ONLINE 0 0 0
loop2 ONLINE 0 0 0
loop3 ONLINE 0 0 0
errors: No known data errors
Je lance le remplacement de chaque disque
root@bx:~/test# zpool replace toto /dev/loop1 /dev/loop4
root@bx:~/test# zpool replace toto /dev/loop2 /dev/loop5
root@bx:~/test# zpool replace toto /dev/loop3 /dev/loop6
Je regarde si la taille du pool a changée
root@bx:~/test# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
toto 880M 648K 879M - 0% 0% 1.00x ONLINE -
Voilà
Oui, c'est facile.
J'ai fais un exemple ci dessous
C'est juste fais en Linux, mais c'est identique pour Xigmanas, il faut juste remplacer les dev (/dev/loop1 => /dev/da1 ou autre)
Je crée le raidz1 de 3 disques de 100M
root@bx:~/test# zpool create toto raidz1 /dev/loop1 /dev/loop2 /dev/loop3
root@bx:~/test# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
toto 272M 131K 272M - 0% 0% 1.00x ONLINE -
(çà affiche 272M mais dès qu'il se remplit il va tendre vers 200M: 300M - 100M)
Je positionne la possibilité de l'expansion automatique du pool
root@bx:~/test# zpool set autoexpand=on toto
Je regarde le status du pool
root@bx:~/test# zpool status -v
pool: toto
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
toto ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
loop1 ONLINE 0 0 0
loop2 ONLINE 0 0 0
loop3 ONLINE 0 0 0
errors: No known data errors
Je lance le remplacement de chaque disque
root@bx:~/test# zpool replace toto /dev/loop1 /dev/loop4
root@bx:~/test# zpool replace toto /dev/loop2 /dev/loop5
root@bx:~/test# zpool replace toto /dev/loop3 /dev/loop6
Je regarde si la taille du pool a changée
root@bx:~/test# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
toto 880M 648K 879M - 0% 0% 1.00x ONLINE -
Voilà
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: Raid Z upgrade
Voici une autre méthode (l'exemple ci-dessus montre des disques changés physiquement AVANT l'autoexpand=on)
Je crée le pool
root@bx:~/test# zpool create toto raidz1 /dev/loop1 /dev/loop2 /dev/loop3
Je liste le pool
root@bx:~/test# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
toto 272M 122K 272M - 0% 0% 1.00x ONLINE -
Je remplace le premier disque
root@bx:~/test# zpool replace toto /dev/loop1 /dev/loop4
Je regarde si cela se passe bien
root@bx:~/test# zpool status -v toto
pool: toto
state: ONLINE
scan: resilvered 141K in 0h0m with 0 errors on Mon Feb 25 02:42:03 2019
config:
NAME STATE READ WRITE CKSUM
toto ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
loop4 ONLINE 0 0 0
loop2 ONLINE 0 0 0
loop3 ONLINE 0 0 0
errors: No known data errors
Je continue le remplacement pour les autres disques
root@bx:~/test# zpool replace toto /dev/loop2 /dev/loop5
root@bx:~/test# zpool replace toto /dev/loop3 /dev/loop6
Je regarde la taille du pool, on peut voir qu'elle n'a pas évolué (c'est normal)
root@bx:~/test# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
toto 272M 381K 272M - 0% 0% 1.00x ONLINE -
Je positionne l'autoexpand à ON
root@bx:~/test# zpool set autoexpand=on toto
Je passe le premier disque en offline, puis le repasse en online avec l'option -e
root@bx:~/test# zpool offline toto /dev/loop4
root@bx:~/test# zpool online -e toto /dev/loop4
root@bx:~/test# zpool offline toto /dev/loop5
root@bx:~/test# zpool online -e toto /dev/loop5
root@bx:~/test# zpool offline toto /dev/loop6
root@bx:~/test# zpool online -e toto /dev/loop6
Je regarde la taille
root@bx:~/test# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
toto 880M 681K 879M - 0% 0% 1.00x ONLINE -
voilà.
Je crée le pool
root@bx:~/test# zpool create toto raidz1 /dev/loop1 /dev/loop2 /dev/loop3
Je liste le pool
root@bx:~/test# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
toto 272M 122K 272M - 0% 0% 1.00x ONLINE -
Je remplace le premier disque
root@bx:~/test# zpool replace toto /dev/loop1 /dev/loop4
Je regarde si cela se passe bien
root@bx:~/test# zpool status -v toto
pool: toto
state: ONLINE
scan: resilvered 141K in 0h0m with 0 errors on Mon Feb 25 02:42:03 2019
config:
NAME STATE READ WRITE CKSUM
toto ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
loop4 ONLINE 0 0 0
loop2 ONLINE 0 0 0
loop3 ONLINE 0 0 0
errors: No known data errors
Je continue le remplacement pour les autres disques
root@bx:~/test# zpool replace toto /dev/loop2 /dev/loop5
root@bx:~/test# zpool replace toto /dev/loop3 /dev/loop6
Je regarde la taille du pool, on peut voir qu'elle n'a pas évolué (c'est normal)
root@bx:~/test# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
toto 272M 381K 272M - 0% 0% 1.00x ONLINE -
Je positionne l'autoexpand à ON
root@bx:~/test# zpool set autoexpand=on toto
Je passe le premier disque en offline, puis le repasse en online avec l'option -e
root@bx:~/test# zpool offline toto /dev/loop4
root@bx:~/test# zpool online -e toto /dev/loop4
root@bx:~/test# zpool offline toto /dev/loop5
root@bx:~/test# zpool online -e toto /dev/loop5
root@bx:~/test# zpool offline toto /dev/loop6
root@bx:~/test# zpool online -e toto /dev/loop6
Je regarde la taille
root@bx:~/test# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
toto 880M 681K 879M - 0% 0% 1.00x ONLINE -
voilà.
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: Raid Z upgrade
Oui, mais c'est dans le cas ou l'on a suffisamment de port disponibles.....c'est un petit peu plus compliqué lorsque l'on change de disque sur un même port.
Après avec ZFSD il suffit de remplacer le disque à chaud ou à froid selon que l'on a une carte mère et un rack qui supportent ou pas le hot swap, et de regarder le resilvering démarrer sans entrer la moindre commande.
(limite: la capacité du disque de remplacement doit être >= au remplacé)
Après avec ZFSD il suffit de remplacer le disque à chaud ou à froid selon que l'on a une carte mère et un rack qui supportent ou pas le hot swap, et de regarder le resilvering démarrer sans entrer la moindre commande.
(limite: la capacité du disque de remplacement doit être >= au remplacé)
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: Raid Z upgrade
@Sleid
Oui, c'est vrai, je n'avais pas penser à cela
... et je n'ai pas encore essayé zfsd
... faut que je mette "à la page"
@Inlitha
il faudrait que l'on sache la version qui est utilisé, car zfsd n'est peut-être pas dedans et de quelle interface il s'agit pour les disques (sata, usb, ... )
Oui, c'est vrai, je n'avais pas penser à cela
... et je n'ai pas encore essayé zfsd
@Inlitha
il faudrait que l'on sache la version qui est utilisé, car zfsd n'est peut-être pas dedans et de quelle interface il s'agit pour les disques (sata, usb, ... )
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: Raid Z upgrade
ZFSD est intégré à freebsd depuis la v11, il n'y a rien à installer sur XigmaNas, c'est du natif.
Système > Avancé > Scripts de commande:
nom : ZFSD
commande : zfsd
description : Surveillance des erreurs ZFS
type : PostInit
ça c'est pour le prochain démarrage
En attendant pour l'immédiat
Outils > Exécuter la commande : et la commande c'est tout simplement zfsd
Pour faire plus simple c'est difficile!!!
Système > Avancé > Scripts de commande:
nom : ZFSD
commande : zfsd
description : Surveillance des erreurs ZFS
type : PostInit
ça c'est pour le prochain démarrage
En attendant pour l'immédiat
Outils > Exécuter la commande : et la commande c'est tout simplement zfsd
Pour faire plus simple c'est difficile!!!
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
-
Inlitha
- Starter

- Posts: 37
- Joined: 10 Dec 2016 15:20
- Status: Offline
Re: Raid Z upgrade
oui merci pour les réponse.
voila mon problème alors
ma version du système 9.2.0.1 - Shigawire (revision 972)
du coups il y a un moyen de mettre le système a niveau sur une version 11 sans perdre les paramétrage du système
pour le reste se sont des disques sata standard
voila mon problème alors
ma version du système 9.2.0.1 - Shigawire (revision 972)
du coups il y a un moyen de mettre le système a niveau sur une version 11 sans perdre les paramétrage du système
pour le reste se sont des disques sata standard
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: Raid Z upgrade
Si c'est une version embedded installé sur une clé usb, il vous faut absolument sauvegarder votre configuration dans un endroit fiable.
Système > Configuration des sauvegardes > Sauvegarde
Après cela vous arrêtez votre nas, vous enlevez la clé ou est installé Nas4Free 9 et vous la mettez de côté.(Ne pas y toucher c'est votre bouée de sauvetage car les v9 et V10 sont officiellement introuvables).
Vous téléchargez la version liveusb de XigmaNAS 11 vous la mettez sur autre clé usb qui va vous servir à lancer une installation nouvelle sur une troisième clé usb.
Une fois cette installation faite il vous restera à restaurer la configuration sauvegardée précédemment
Système > Restaurer la configuration
Soit ça fonctionne soit c'est incompatible dans tous les cas les données sont respectées.
Si ça ne fonctionne pas (pas de pool ou autre chose)il faut reprendre l'installation de la V11 et recréer la configuration après avoir importé le pool avec le paramètre -f (zpool import -f nomdupool).
Système > Configuration des sauvegardes > Sauvegarde
Après cela vous arrêtez votre nas, vous enlevez la clé ou est installé Nas4Free 9 et vous la mettez de côté.(Ne pas y toucher c'est votre bouée de sauvetage car les v9 et V10 sont officiellement introuvables).
Vous téléchargez la version liveusb de XigmaNAS 11 vous la mettez sur autre clé usb qui va vous servir à lancer une installation nouvelle sur une troisième clé usb.
Une fois cette installation faite il vous restera à restaurer la configuration sauvegardée précédemment
Système > Restaurer la configuration
Soit ça fonctionne soit c'est incompatible dans tous les cas les données sont respectées.
Si ça ne fonctionne pas (pas de pool ou autre chose)il faut reprendre l'installation de la V11 et recréer la configuration après avoir importé le pool avec le paramètre -f (zpool import -f nomdupool).
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
-
Inlitha
- Starter

- Posts: 37
- Joined: 10 Dec 2016 15:20
- Status: Offline
Re: Raid Z upgrade
d'accord je voie...
c'est une version installer sur un ssd du coups je peu tenter le coups avec un clef usb en inhibant le ssd.
moi c'est le samba qui me fait peur je vais pas perdre mon système de fichier et les arborescence dedans?
c'est une version installer sur un ssd du coups je peu tenter le coups avec un clef usb en inhibant le ssd.
moi c'est le samba qui me fait peur je vais pas perdre mon système de fichier et les arborescence dedans?
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: Raid Z upgrade
Sur le ssd il y a juste l'installation ou en plus des données ?
L'installation c'est une embedded ou une full ?
Pour ce qui est de samba, ce que vous risquez d'avoir à refaire c'est la configuration des utilisateurs et du partage.
L'installation c'est une embedded ou une full ?
Pour ce qui est de samba, ce que vous risquez d'avoir à refaire c'est la configuration des utilisateurs et du partage.
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
-
Inlitha
- Starter

- Posts: 37
- Joined: 10 Dec 2016 15:20
- Status: Offline
Re: Raid Z upgrade
Le ssd ne comporte que le système.
qui est installé en embedded mais je ne sais plus comment voire cette informations.
qui est installé en embedded mais je ne sais plus comment voire cette informations.
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: Raid Z upgrade
C'est sur la page d’accueil du nas
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
-
Inlitha
- Starter

- Posts: 37
- Joined: 10 Dec 2016 15:20
- Status: Offline
Re: Raid Z upgrade
c'est embedded c'est sur.
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: Raid Z upgrade
Donc vous sauvez votre configuration, vous arrêtez le nas , vous débranchez le ssd, vous lancez une nouvelle installation sur clé USB, puis vous restaurez votre configuration.
Suivant le résultat, je vous renvoie vers mon post précédent.
Suivant le résultat, je vous renvoie vers mon post précédent.
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
-
Inlitha
- Starter

- Posts: 37
- Joined: 10 Dec 2016 15:20
- Status: Offline
Re: Raid Z upgrade
Désole du retard
je n'arrive pas a booté avec ma clef ubs sur l'iso
sa me donne cela
je n'arrive pas a booté avec ma clef ubs sur l'iso
sa me donne cela
You do not have the required permissions to view the files attached to this post.
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: Raid Z upgrade
c'est pas l'iso qu'il faut c'est le liveusb qu'il faut décompresser puis a l'aide de UsbImageTool (par exemple) restaurer l'image sur la clé usb.
L'iso c'est pour les cd ou dvd.
L'iso c'est pour les cd ou dvd.
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
-
Inlitha
- Starter

- Posts: 37
- Joined: 10 Dec 2016 15:20
- Status: Offline
Re: Raid Z upgrade
merci c'est bon le serveur a redémarrer sur le nouveau système.
mais après restauration des données le système n'as pas changé.
par contre le système reconnais les disque en zfs.
mais après restauration des données le système n'as pas changé.
par contre le système reconnais les disque en zfs.
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: Raid Z upgrade
il faut importer le pool
commande: zpool import -f monpool
et puis recréer les partages et le reste c'est en fait assez facile il suffit d'ouvrir l'ancienne configuration avec wordpad ou notepad++ et de lire la configuration.
commande: zpool import -f monpool
et puis recréer les partages et le reste c'est en fait assez facile il suffit d'ouvrir l'ancienne configuration avec wordpad ou notepad++ et de lire la configuration.
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
-
Inlitha
- Starter

- Posts: 37
- Joined: 10 Dec 2016 15:20
- Status: Offline
Re: Raid Z upgrade
Voilà, j'en suis là,mais je ne suis pas sûr que le pool soit remonté correctement.
le partage de fichier samba remonte bien.
du coups l'étape suivant c'est d'installer sur le ssd?
du coups l'étape suivant c'est d'installer sur le ssd?
You do not have the required permissions to view the files attached to this post.
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: Raid Z upgrade
Le pool est bien remonté, maintenant n'oubliez pas de sauvegarder la configuration à chaque changement, c'est vital.
Votre pool date un peu et XigmaNAS a suivi les évolutions de zfs donc à l'aide des outils de zfs (Disques > ZFS > Pools > Outils ) il vous faut faire la mise à niveau de ZFS.
Votre pool date un peu et XigmaNAS a suivi les évolutions de zfs donc à l'aide des outils de zfs (Disques > ZFS > Pools > Outils ) il vous faut faire la mise à niveau de ZFS.
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
-
Inlitha
- Starter

- Posts: 37
- Joined: 10 Dec 2016 15:20
- Status: Offline
Re: Raid Z upgrade
Voilà, j'ai fait une sauvegarde après avoir mise à niveau ZFS, la voici :
L'étape suivant consiste t'elle à réinstaller sur le SSD?
L'étape suivant consiste t'elle à réinstaller sur le SSD?
Code: Select all
<?xml version="1.0" encoding="UTF-8"?>
-<xigmanas>
<version>40</version>
<lastchange>1552206851</lastchange>
-<system>
<hostname>xigmanas</hostname>
<domain>local</domain>
<dnsserver/>
<ipv6dnsserver/>
<username>admin</username>
<password>$6$guXYYSsWKt2W4KN6$jVm2hMRISeZc7zem2JS.Fi/AOFG2EherIZ2tsPIdn85D1fLkMzfA875R/GSmcp3xxq.WVMp872G0xQ0MLWBD70</password>
<timezone>Europe/Paris</timezone>
<datetimeformat>l d F Y H:i:s T</datetimeformat>
<language>fr</language>
-<ntp>
<timeservers>pool.ntp.org</timeservers>
<updateinterval>300</updateinterval>
</ntp>
-<webgui>
<protocol>http</protocol>
<certificate>LS0tLS1CRUdJTiBDRVJUSUZJQ0FURS0tLS0tDQpNSUlEMnpDQ0FzT2dBd0lCQWdJSkFMWm9teUJQZkpIbU1BMEdDU3FHU0liM0RRRUJDd1VBTUlHRE1Rc3dDUVlEDQpWUVFHRXdKT1RERVVNQklHQTFVRUNBd0xUbVYwYUdWeWJHRnVaSE14RWpBUUJnTlZCQWNNQ1VGdGMzUmxjbVJoDQpiVEVSTUE4R0ExVUVDZ3dJV0dsbmJXRk9RVk14RlRBVEJnTlZCQU1NREhocFoyMWhibUZ6TG1OdmJURWdNQjRHDQpDU3FHU0liM0RRRUpBUllSYVc1bWIwQjRhV2R0WVc1aGN5NWpiMjB3SGhjTk1UZ3dOekE1TVRNME16QXpXaGNODQpNamd3TnpBMk1UTTBNekF6V2pDQmd6RUxNQWtHQTFVRUJoTUNUa3d4RkRBU0JnTlZCQWdNQzA1bGRHaGxjbXhoDQpibVJ6TVJJd0VBWURWUVFIREFsQmJYTjBaWEprWVcweEVUQVBCZ05WQkFvTUNGaHBaMjFoVGtGVE1SVXdFd1lEDQpWUVFEREF4NGFXZHRZVzVoY3k1amIyMHhJREFlQmdrcWhraUc5dzBCQ1FFV0VXbHVabTlBZUdsbmJXRnVZWE11DQpZMjl0TUlJQklqQU5CZ2txaGtpRzl3MEJBUUVGQUFPQ0FROEFNSUlCQ2dLQ0FRRUEyQkloV1Q2NjZQemlLeW1CDQpNaGRMNUJRaWd0YkFUMjNYTi9MZmErcExrZW91YitQdmduS0pnd25mcGd6Ty9JZXFuYXhSVmQ4bnRMSlRqaGh5DQovVU5LU0dkQy9OUjZGSWt5QWZlM25IOVM2eGZRaU92MjBsUXBGV2lqUzg4TmVRZEpXUVpsSVlwZmloWVJXemdBDQpvWEp4dWkxcHd0Y1dUODN1WDg5VXBhbjhTRUNGcFJDNURXTTNCWjRRYzk2K05VdDR4N2puaWszMURNTHE5ZGhlDQo3RjdhT0ZEWnNZV2xpM0REbi9va01HVmF5MzMzVHpDMGxSNzJISVo0SkRLcmJjNUFFbWN3dkFuRnVFWC80RTQzDQpwWHFsY2lhQzRDeWNlQ2JQSUlJWHcyNDArQ3lNQm9BYlBqTkZVcTBCTEhzYlVyOWdidnFlcDkxWWdUamxUZUtMDQo0QTR2VVFJREFRQUJvMUF3VGpBZEJnTlZIUTRFRmdRVUlmUThDMFY5cFpkZjVWUkdUWkNvcC92WUlQVXdId1lEDQpWUjBqQkJnd0ZvQVVJZlE4QzBWOXBaZGY1VlJHVFpDb3AvdllJUFV3REFZRFZSMFRCQVV3QXdFQi96QU5CZ2txDQpoa2lHOXcwQkFRc0ZBQU9DQVFFQUpzNlo5dTA3Y3cvRFpyRFRyQVpnYzYxeDhORHRwSUhUdExYVjZvUkY0WFZMDQp6M0xPaXJaU2REUHZLRWNLM2RqRmxzU3VkckxabFpnQUJzTHVpSEhjTTBYL2VKdG0vOExYQjA2K0ZuYmtvbHhzDQpVWHpXNlRSSEg4L3JHMTFjZGhpNUpkR2xuNEYzd2FQYzRtVGJHSW41eUNNNU13UTdUbUtvcFV6WjlMdUxmQndKDQpyRzlJWUozTEVJZFYrbDJ6SHgvYjErdjFnYlE3ZGFuamxxYksyNnJ6aUJxSHBnUkYvcjFJWDZ0c0t1bVgveENjDQpZR0NRcU16T0EvMyt2QWphSDdYdUU2emo2ZGVZWExoNGRzekFLSlRURU95cXBNQWZmc1JISkJoc2p0RkFmN0syDQorSFExakJ6TDBhUHZGaFhNczBMYy9icFo0NWh1Rk1GaHFWS0t5aHorUEE9PQ0KLS0tLS1FTkQgQ0VSVElGSUNBVEUtLS0tLQ==</certificate>
<privatekey>LS0tLS1CRUdJTiBSU0EgUFJJVkFURSBLRVktLS0tLQ0KTUlJRXBRSUJBQUtDQVFFQTJCSWhXVDY2NlB6aUt5bUJNaGRMNUJRaWd0YkFUMjNYTi9MZmErcExrZW91YitQdg0KZ25LSmd3bmZwZ3pPL0llcW5heFJWZDhudExKVGpoaHkvVU5LU0dkQy9OUjZGSWt5QWZlM25IOVM2eGZRaU92Mg0KMGxRcEZXaWpTODhOZVFkSldRWmxJWXBmaWhZUld6Z0FvWEp4dWkxcHd0Y1dUODN1WDg5VXBhbjhTRUNGcFJDNQ0KRFdNM0JaNFFjOTYrTlV0NHg3am5pazMxRE1McTlkaGU3RjdhT0ZEWnNZV2xpM0REbi9va01HVmF5MzMzVHpDMA0KbFI3MkhJWjRKREtyYmM1QUVtY3d2QW5GdUVYLzRFNDNwWHFsY2lhQzRDeWNlQ2JQSUlJWHcyNDArQ3lNQm9BYg0KUGpORlVxMEJMSHNiVXI5Z2J2cWVwOTFZZ1RqbFRlS0w0QTR2VVFJREFRQUJBb0lCQVFEQ2o4alJ1T2ZMaG5NTg0KMUtqT2R5WFNNY05GdDZTaG9WSEx3bm9taldvUThTTnhnM2tYS0pYa2xnNTZVa3hNSHNtbWd4VVdVd1JJOU03Qw0KUkFlL1FFbHlXdkY2QXNZUEdkOGE0SG5JaE9vZ1lXaFk4c2xsYVgwNUZ1ajhDV3lqVDhsZlRaL2hETjJzMU9RNg0KRkhxVTVoMjhQTXBnTlJlVk11VDBCeGk4dUExQTdKZjlsUzkrNmxPbDIvdDRqYnByMWdEZzd6d1ZzZGljRFBnaA0KUFdacm9JMGJZbVY5Si8yRVlwdG1Sdm5lNEpseWtMWU8vdThuMmxsWFV4TEV5eHdjZHlLcU9JeVppVlRsY21FZw0KWlU2ZkhnV2xqdmRFanJTL05XZko0ejRjZGhPOXhjelo3MUZ0ZWNLMGVHWjk4WDhVcXdZUm4wTEJtV1FNVWJ1Mg0KSFIzUU1BYXhBb0dCQVB6bkRadTNZSk13QmtTSVVhczFnWHAwREJCTWVWSlZTbUpFYjduSXNpMHRRbkowQVk2OA0KOHJadXZoSVdmMzl5aW04dW80VXRjRDQyYWNlQ1V1NmdxdDlyS2wvWm9JRjB5K1FDT2VENGVTcW5YK1orQU9lRw0KTWlYMGlEM0V4VGs0NWtWZUdiR3poUEI4RnVGdlVsc1p4bDl0ckM5WUpUTXFhU0doRUdNNlluRDFBb0dCQU5xMw0KbUhBVldsQTdLQTFJZnl6ZmdPdXVxaStTbnpxVk1ZM3JYd1pabjFJQVZKb08wY0l2K3ZkSktWMVBaOGllbHNYNQ0KeGg4Q0dNSzE3WVNTVVg1M09QVnJoeXpEY2xnaCtTUWpBa0h5WmY0bVBZOXgrV29zM3FyRE40SUhqNWVQb3VQaQ0KN0hPUElxUk5IQXNiRXJ3N0dRelJyN240TG45WWcxWThhaXI3NlZ0dEFvR0JBTFRVVUxxaXAvOFdPNlVOQTdneg0KamQwTTFRTmlhdTBmNXd2VWV6NlA3amEzUWVlc1l1QzQ0YUxvRkNmQ3htOU9hd1dNaDRkV01nZUp5S0RLNHBtVg0KY0JoSC9BaUZCMnNKSkRCb0Z4SnhGOUlUMDFKdmpoMzlxaVhSYndrYmhSbWhRYVVmMzZkY0FSWWk1QWxWRzhIZg0KOENPVHU2WXVsSXE5TEdiTFQzaGo2cmR4QW9HQkFLRVFydnRyWGhUVFc0MWNvL3JocE1qcTJYMHJGb05IdHpSeA0KN29wNG1YRUR1VW15UEJvcXgwQXY2bnhDcTRUNzlNQmFUZUlyNHh3UWFaZEZRU3BHbGZWMWVCZ28zaDIwOXduNw0KbGdBR2g4Ri9XN28xRHAxMzZZb0xOT2RXdGhIQXZ3M2U0STNCREp1K0JUYlFleDJPejhXMjdSZWdnbTFaTzI3WQ0KRXI4UXdDcUpBb0dBWlZBdnlmUmhEMjUzTC9xQTJXaDRaNGg0WlJVZTRNZythTC9xQUF3OG5VTnhtdjlEdlVEWA0KZGVxRnBPczlrVHpLMjdUWmZhbkxuN1VRV05remtqOXdDR2FtelA2RWFXT05Na1JFUGtwOFZjbFVra1V3OVN5aQ0KUFMyOVhKQ2dKazIzVnJLOE5hejFtZ25QMm5pd3pHaTBDdUZCcE1EN2h6dWp1S0lmOGlNOVdUaz0NCi0tLS0tRU5EIFJTQSBQUklWQVRFIEtFWS0tLS0t</privatekey>
<port/>
<hostsallow/>
</webgui>
<motd>V2VsY29tZSB0byBYaWdtYU5BUyEK</motd>
<pwmode>hiadaptive</pwmode>
<pwmax/>
<pwmin/>
<tune/>
-<swap>
<type>file</type>
</swap>
-<proxy>
-<http>
<address>proxy</address>
<port>8080</port>
<username/>
<password/>
</http>
-<ftp>
<address>proxy</address>
<port>8080</port>
<username/>
<password/>
</ftp>
</proxy>
-<email>
<server/>
<port>25</port>
<security/>
<tls_certcheck/>
<username/>
<password/>
<from/>
<authmethod>plain</authmethod>
</email>
-<loaderconf>
-<param>
<uuid>d68b8192-ca70-45ad-b312-c61715ac1c27</uuid>
<name>ipmi_load</name>
<value>YES</value>
<comment>IPMItool Server Management Utility</comment>
</param>
-<param>
<uuid>938a66c6-fe89-4e2c-8e07-ad0aac8db511</uuid>
<name>vfs.zfs.arc_max</name>
<value>2G</value>
<comment>ZFS maximum ARC size</comment>
</param>
-<param>
<uuid>2f380ee0-4b3f-440e-9ade-ad346c7f58d1</uuid>
<name>vfs.zfs.arc_min</name>
<value>1G</value>
<comment>ZFS minimum ARC size</comment>
</param>
-<param>
<uuid>e1583f30-44da-4fc3-b726-b650dad74aee</uuid>
<name>vfs.zfs.prefetch_disable</name>
<value>1</value>
<comment>ZFS prefech disable</comment>
</param>
</loaderconf>
-<rcconf>
-<param>
<uuid>f69687d9-acdf-42d9-bd27-04486068874b</uuid>
<name>powerd_flags</name>
<value>-a hiadaptive -b hiadaptive -n hiadaptive</value>
<comment>System power control options</comment>
<enable/>
</param>
-<param>
<uuid>1c2a4807-9969-42bc-8500-ba234e33a3f5</uuid>
<name>varsize</name>
<value>512m</value>
<comment>Default /var size</comment>
<enable/>
</param>
-<param>
<uuid>3ab45cfd-9ea5-4295-98c8-bebc7603332e</uuid>
<name>vartmpsize</name>
<value>256m</value>
<comment>Default /var/tmp size</comment>
<enable/>
</param>
-<param>
<uuid>b67e6ffd-169d-493a-9197-155a9ae84582</uuid>
<name>fuppes_logfile</name>
<value>/var/log/fuppes.log</value>
<comment>Default log file</comment>
<enable/>
</param>
-<param>
<uuid>0b5cbdf6-0a84-4806-b85c-6605d38c7008</uuid>
<name>mtdaapd_logfile</name>
<value>/var/log/mt-daapd.log</value>
<comment>Default log file</comment>
<enable/>
</param>
-<param>
<uuid>40fe3290-51ac-4a70-b03e-a5613b981be4</uuid>
<name>rsync_client_logfile</name>
<value>/var/log/rsync_client.log</value>
<comment>Default log file</comment>
<enable/>
</param>
-<param>
<uuid>f52094cc-2bb8-4bc2-be39-76bce3fe1612</uuid>
<name>rsync_local_logfile</name>
<value>/var/log/rsync_local.log</value>
<comment>Default log file</comment>
<enable/>
</param>
</rcconf>
-<sysctl>
-<param>
<enable/>
<uuid>2f71d182-095e-11de-8303-0011951cd231</uuid>
<name>kern.coredump</name>
<value>0</value>
<comment>Disable core dump</comment>
</param>
-<param>
<uuid>2a44ee73-23b7-4aed-be91-11e8230bc1e1</uuid>
<name>hw.acpi.power_button_state</name>
<value>NONE</value>
<comment>Disable power button</comment>
</param>
-<param>
<uuid>d25eb28e-a719-4f07-af4e-00841fd3bd42</uuid>
<name>net.inet.tcp.delayed_ack</name>
<value>1</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>fdf2ad39-8839-402f-ae71-b6bbe00f35e2</uuid>
<name>net.inet.tcp.rfc1323</name>
<value>1</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>c8ecaad7-0da8-4042-9248-95de2b39695d</uuid>
<name>net.inet.tcp.sendspace</name>
<value>131072</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>69f639d1-6ed4-4189-ad0b-9bb3073bb728</uuid>
<name>net.inet.tcp.recvspace</name>
<value>131072</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>7eb21345-5732-46d0-b720-5161b502b807</uuid>
<name>net.inet.tcp.sendbuf_max</name>
<value>4194304</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>ef39320f-ec3d-403d-a947-946cdf3e7438</uuid>
<name>net.inet.tcp.sendbuf_inc</name>
<value>131072</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>42274d44-af41-4e37-b0fc-186bb2e4729a</uuid>
<name>net.inet.tcp.sendbuf_auto</name>
<value>1</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>dd570d75-ca14-4f9f-9a41-66abfb95b929</uuid>
<name>net.inet.tcp.recvbuf_max</name>
<value>4194304</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>c1ef4e9f-0a3e-4ae0-b903-056392d121e1</uuid>
<name>net.inet.tcp.recvbuf_inc</name>
<value>131070</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>d6b049e9-2aef-4dbf-8bd5-b8fca087a97d</uuid>
<name>net.inet.tcp.recvbuf_auto</name>
<value>1</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>c53babac-1619-4d1c-9fa6-0288480efb48</uuid>
<name>net.inet.udp.recvspace</name>
<value>65536</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>1300d0f3-bc62-4e2e-b307-54bd25ca885d</uuid>
<name>net.inet.udp.maxdgram</name>
<value>57344</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>ee1aae55-5add-4d7d-b656-9df9319f1297</uuid>
<name>net.local.stream.recvspace</name>
<value>65536</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>14068e6e-28b8-49eb-b2b0-385f53f60e74</uuid>
<name>net.local.stream.sendspace</name>
<value>65536</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>487bc391-ba1b-48e7-b513-8d0da6a4f36b</uuid>
<name>kern.ipc.maxsockbuf</name>
<value>16777216</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>cff93696-cf5d-4edf-8aa2-dd19910b7eae</uuid>
<name>kern.ipc.somaxconn</name>
<value>8192</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>2e1e5005-895b-4f20-bd6c-ab5c85bc494b</uuid>
<name>kern.ipc.nmbclusters</name>
<value>131072</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>d9f1625d-5de5-400a-961c-59da3e616388</uuid>
<name>kern.ipc.nmbjumbop</name>
<value>131072</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>d831105a-e105-4735-895e-5af035a631a4</uuid>
<name>kern.ipc.nmbjumbo9</name>
<value>32768</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>160234ee-1e1a-45e0-9bfa-0bb541d6393e</uuid>
<name>kern.ipc.nmbjumbo16</name>
<value>16384</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>5867a59c-5332-4589-a9cb-4510f1405901</uuid>
<name>kern.maxfiles</name>
<value>6289573</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>7ca96b1d-d150-4d5b-921e-c232af73ab14</uuid>
<name>net.inet.icmp.icmplim</name>
<value>300</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>68981261-fa0f-4661-acb7-ffc719b7c4e8</uuid>
<name>net.inet.icmp.icmplim_output</name>
<value>1</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>78f3e99f-613e-40fb-8336-a84302445f6f</uuid>
<name>net.inet.tcp.path_mtu_discovery</name>
<value>0</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>b806f74e-921c-4c65-ba6f-81d3904dad27</uuid>
<name>hw.intr_storm_threshold</name>
<value>9000</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>c527bec2-7829-49d8-9ca8-7c2e62842db1</uuid>
<name>vfs.zfs.l2arc_noprefetch</name>
<value>0</value>
<comment>Allow streaming/sequential reads to be cached</comment>
</param>
-<param>
<uuid>69c24ba3-ba86-4c76-854d-b0c5e027941e</uuid>
<name>vfs.zfs.min_auto_ashift</name>
<value>12</value>
<comment>System tuning</comment>
<enable/>
</param>
</sysctl>
-<syslogconf>
-<param>
<uuid>43b57288-90c1-44ff-91f7-22e5f5b9bbbe</uuid>
<facility>console</facility>
<level>debug</level>
<value>/dev/console</value>
<comment/>
</param>
</syslogconf>
-<hostsacl>
<rule>#ftpd : xxx.xxx.xxx.xxx : deny</rule>
<rule>#sshd : .example.com : deny</rule>
<rule>#in.tftpd : xxx.xxx.xxx.xxx : deny</rule>
<rule>#bsnmpd : xxx.xxx.xxx.xxx : deny</rule>
<rule>ALL : ALL : allow</rule>
</hostsacl>
-<usermanagement>
-<user>
<uuid>60c4bfb1-7c3c-4535-800c-2b17eeae9369</uuid>
<name>transmission</name>
<id>999</id>
<primarygroup>999</primarygroup>
<group>50</group>
<extraoptions>-m -w random -c "Transmission Daemon"</extraoptions>
</user>
-<user>
<uuid>132a0a60-a16d-4244-ba04-09312adda744</uuid>
<name>dlna</name>
<id>933</id>
<primarygroup>933</primarygroup>
<extraoptions>-c "DLNA Daemon" -d /nonexistent -s /usr/sbin/nologin</extraoptions>
</user>
-<user>
<uuid>715997e1-b2eb-493d-86cf-c7d217998a67</uuid>
<name>vboxusers</name>
<id>920</id>
<primarygroup>920</primarygroup>
<extraoptions>-c "Virtualbox user" -d /nonexistent -s /usr/sbin/nologin</extraoptions>
</user>
-<user>
<uuid>8937d051-f1b4-4048-8207-c73e81d5d364</uuid>
<name>syncthing</name>
<id>983</id>
<primarygroup>983</primarygroup>
<extraoptions>-c "Syncthing Daemon" -d /var/tmp/syncthing -s /usr/sbin/nologin</extraoptions>
</user>
-<user>
<uuid>eecbb68c-fade-46b3-b74f-96fdbcd34aaa</uuid>
<name>mysql</name>
<id>88</id>
<primarygroup>88</primarygroup>
<extraoptions>-c "MySQL user" -d /nonexistent -s /usr/sbin/nologin</extraoptions>
</user>
-<group>
<uuid>e8cc78b8-7c3d-46de-a34c-11b1c260a37e</uuid>
<id>999</id>
<name>transmission</name>
</group>
-<group>
<uuid>ab0ee675-e8d1-4052-b7c2-e6b46c918eb8</uuid>
<id>933</id>
<name>dlna</name>
</group>
-<group>
<uuid>235a1033-f7ee-443a-8c55-6bea64d5139e</uuid>
<id>920</id>
<name>vboxusers</name>
</group>
-<group>
<uuid>6f5c8dd0-4c98-4ccf-8a18-64ad5e8e067f</uuid>
<id>983</id>
<name>syncthing</name>
</group>
-<group>
<uuid>e504881b-c8dc-43d7-9ca4-74552f9b405b</uuid>
<id>1000</id>
<name>admin</name>
</group>
-<group>
<uuid>ef381dd2-6aa6-44e9-821c-94228a1ef63c</uuid>
<id>88</id>
<name>mysql</name>
</group>
</usermanagement>
-<firewall>
-<rule>
<uuid>26e8a05f-2567-4739-bed9-64f65d1a81fb</uuid>
<ruleno>10100</ruleno>
<action>deny</action>
<log/>
<protocol>tcp</protocol>
<src/>
<srcport/>
<dst/>
<dstport>21</dstport>
<direction>in</direction>
<if/>
<extraoptions/>
<desc>Deny in FTP</desc>
</rule>
-<rule>
<uuid>5768a98d-c4a8-4a28-a25b-f8cb564cfa6c</uuid>
<ruleno>10200</ruleno>
<action>deny</action>
<log/>
<protocol>tcp</protocol>
<src/>
<srcport/>
<dst/>
<dstport>22</dstport>
<direction>in</direction>
<if/>
<extraoptions>setup keep-state</extraoptions>
<desc>Deny in secure FTP, Telnet, and SCP</desc>
</rule>
-<rule>
<uuid>857f3162-0939-4f9d-9a78-578ec4b96999</uuid>
<ruleno>10300</ruleno>
<action>deny</action>
<log/>
<protocol>tcp</protocol>
<src/>
<srcport/>
<dst/>
<dstport>113</dstport>
<direction>in</direction>
<if/>
<extraoptions/>
<desc>Deny ident</desc>
</rule>
</firewall>
-<sysconsaver>
<blanktime>300</blanktime>
</sysconsaver>
</system>
-<interfaces>
-<lan>
<enable/>
<if>auto</if>
<ipaddr>192.168.1.250</ipaddr>
<subnet>24</subnet>
<ipv6addr>auto</ipv6addr>
<ipv6subnet>64</ipv6subnet>
<media>autoselect</media>
<mediaopt/>
</lan>
</interfaces>
<staticroutes/>
<disks/>
<gvinum/>
<gmirror/>
<gconcat/>
<gstripe/>
<graid5/>
<geli/>
-<iscsitarget>
<nodebase>iqn.2007-09.jp.ne.peach.istgt</nodebase>
<discoveryauthmethod>Auto</discoveryauthmethod>
<discoveryauthgroup>0</discoveryauthgroup>
<timeout>30</timeout>
<nopininterval>20</nopininterval>
<maxr2t>32</maxr2t>
<maxsessions>16</maxsessions>
<maxconnections>4</maxconnections>
<firstburstlength>262144</firstburstlength>
<maxburstlength>1048576</maxburstlength>
<maxrecvdatasegmentlength>262144</maxrecvdatasegmentlength>
<maxoutstandingr2t>16</maxoutstandingr2t>
<defaulttime2wait>2</defaulttime2wait>
<defaulttime2retain>60</defaulttime2retain>
<uctladdress>127.0.0.1</uctladdress>
<uctlport>3261</uctlport>
<uctlnetmask>127.0.0.1/8</uctlnetmask>
<uctlauthmethod>CHAP</uctlauthmethod>
<uctlauthgroup>0</uctlauthgroup>
<mediadirectory>/mnt</mediadirectory>
</iscsitarget>
<iscsiinit/>
-<zfs>
<vdevices/>
<pools/>
<datasets/>
-<settings>
<capacity_warning>80</capacity_warning>
<capacity_critical>90</capacity_critical>
</settings>
</zfs>
<mounts/>
-<samba>
<netbiosname>xigmanas</netbiosname>
<workgroup>WORKGROUP</workgroup>
<serverdesc>XigmaNAS Server</serverdesc>
<security>user</security>
<maxprotocol>SMB3</maxprotocol>
<guestaccount>ftp</guestaccount>
<maptoguest>Bad User</maptoguest>
<localmaster>yes</localmaster>
<timesrv>yes</timesrv>
<doscharset>CP437</doscharset>
<unixcharset>UTF-8</unixcharset>
<loglevel>0</loglevel>
<rcvbuf>128480</rcvbuf>
<sndbuf>128480</sndbuf>
<largereadwrite type="bool">1</largereadwrite>
<aiorsize>1024</aiorsize>
<aiowsize>1024</aiowsize>
<aiowbehind/>
<enable type="bool">1</enable>
<minprotocol/>
<clientmaxprotocol/>
<clientminprotocol/>
<if/>
<pwdsrv/>
<winssrv/>
-<share>
<uuid>700f27fd-c330-40a6-a52d-eba25f4f2c57</uuid>
<name>Documents</name>
<path>/maison/documents</path>
<comment>docuement</comment>
<browseable type="bool">1</browseable>
<guest type="bool">1</guest>
<inheritpermissions type="bool">1</inheritpermissions>
<inheritacls type="bool">1</inheritacls>
<recyclebin type="bool">1</recyclebin>
<hidedotfiles type="bool">1</hidedotfiles>
<shadowcopy type="bool">1</shadowcopy>
<shadowformat>auto-%Y%m%d-%H%M%S</shadowformat>
<zfsacl type="bool">1</zfsacl>
<vfs_fruit_resource>file</vfs_fruit_resource>
<vfs_fruit_time_machine>no</vfs_fruit_time_machine>
<vfs_fruit_metadata>netatalk</vfs_fruit_metadata>
<vfs_fruit_locking>netatalk</vfs_fruit_locking>
<vfs_fruit_encoding>native</vfs_fruit_encoding>
<hostsallow/>
<hostsdeny/>
</share>
-<share>
<uuid>6584f3cb-52d5-48f1-a277-96160ea00260</uuid>
<name>Images</name>
<path>/maison/images</path>
<comment>pour les photos images</comment>
<browseable type="bool">1</browseable>
<guest type="bool">1</guest>
<inheritpermissions type="bool">1</inheritpermissions>
<inheritacls type="bool">1</inheritacls>
<recyclebin type="bool">1</recyclebin>
<hidedotfiles type="bool">1</hidedotfiles>
<shadowcopy type="bool">1</shadowcopy>
<shadowformat>auto-%Y%m%d-%H%M%S</shadowformat>
<zfsacl type="bool">1</zfsacl>
<vfs_fruit_resource>file</vfs_fruit_resource>
<vfs_fruit_time_machine>no</vfs_fruit_time_machine>
<vfs_fruit_metadata>netatalk</vfs_fruit_metadata>
<vfs_fruit_locking>netatalk</vfs_fruit_locking>
<vfs_fruit_encoding>native</vfs_fruit_encoding>
<hostsallow/>
<hostsdeny/>
</share>
-<share>
<uuid>485adf60-7ade-4d01-a3a3-228a3d5951a2</uuid>
<name>Musique</name>
<path>/maison/musiques</path>
<comment>pour musique</comment>
<browseable type="bool">1</browseable>
<guest type="bool">1</guest>
<inheritpermissions type="bool">1</inheritpermissions>
<inheritacls type="bool">1</inheritacls>
<recyclebin type="bool">1</recyclebin>
<hidedotfiles type="bool">1</hidedotfiles>
<shadowcopy type="bool">1</shadowcopy>
<shadowformat>auto-%Y%m%d-%H%M%S</shadowformat>
<zfsacl type="bool">1</zfsacl>
<vfs_fruit_resource>file</vfs_fruit_resource>
<vfs_fruit_time_machine>no</vfs_fruit_time_machine>
<vfs_fruit_metadata>netatalk</vfs_fruit_metadata>
<vfs_fruit_locking>netatalk</vfs_fruit_locking>
<vfs_fruit_encoding>native</vfs_fruit_encoding>
<hostsallow/>
<hostsdeny/>
</share>
-<share>
<uuid>0c6c0ab4-7163-49c7-b827-00ae27aeef08</uuid>
<name>Video</name>
<path>/maison/video</path>
<comment>pour fichier video</comment>
<browseable type="bool">1</browseable>
<guest type="bool">1</guest>
<inheritpermissions type="bool">1</inheritpermissions>
<inheritacls type="bool">1</inheritacls>
<recyclebin type="bool">1</recyclebin>
<hidedotfiles type="bool">1</hidedotfiles>
<shadowcopy type="bool">1</shadowcopy>
<shadowformat>auto-%Y%m%d-%H%M%S</shadowformat>
<zfsacl type="bool">1</zfsacl>
<vfs_fruit_resource>file</vfs_fruit_resource>
<vfs_fruit_time_machine>no</vfs_fruit_time_machine>
<vfs_fruit_metadata>netatalk</vfs_fruit_metadata>
<vfs_fruit_locking>netatalk</vfs_fruit_locking>
<vfs_fruit_encoding>native</vfs_fruit_encoding>
<hostsallow/>
<hostsdeny/>
</share>
-<share>
<uuid>4fa9dad9-5169-4b56-a795-fcac042327c4</uuid>
<name>telechargement</name>
<path>/maison/telechargement</path>
<comment>dl</comment>
<browseable type="bool">1</browseable>
<guest type="bool">1</guest>
<inheritpermissions type="bool">1</inheritpermissions>
<inheritacls type="bool">1</inheritacls>
<recyclebin type="bool">1</recyclebin>
<hidedotfiles type="bool">1</hidedotfiles>
<shadowcopy type="bool">1</shadowcopy>
<shadowformat>auto-%Y%m%d-%H%M%S</shadowformat>
<zfsacl type="bool">1</zfsacl>
<vfs_fruit_resource>file</vfs_fruit_resource>
<vfs_fruit_time_machine>no</vfs_fruit_time_machine>
<vfs_fruit_metadata>netatalk</vfs_fruit_metadata>
<vfs_fruit_locking>netatalk</vfs_fruit_locking>
<vfs_fruit_encoding>native</vfs_fruit_encoding>
<hostsallow/>
<hostsdeny/>
</share>
-<share>
<uuid>f4a6db4b-1e92-4e30-b405-fca76838597e</uuid>
<name>Torrent</name>
<path>/maison/torrent</path>
<comment>pour les .torrent</comment>
<browseable type="bool">1</browseable>
<guest type="bool">1</guest>
<inheritpermissions type="bool">1</inheritpermissions>
<inheritacls type="bool">1</inheritacls>
<recyclebin type="bool">1</recyclebin>
<hidedotfiles type="bool">1</hidedotfiles>
<shadowcopy type="bool">1</shadowcopy>
<shadowformat>auto-%Y%m%d-%H%M%S</shadowformat>
<zfsacl type="bool">1</zfsacl>
<vfs_fruit_resource>file</vfs_fruit_resource>
<vfs_fruit_time_machine>no</vfs_fruit_time_machine>
<vfs_fruit_metadata>netatalk</vfs_fruit_metadata>
<vfs_fruit_locking>netatalk</vfs_fruit_locking>
<vfs_fruit_encoding>native</vfs_fruit_encoding>
<hostsallow/>
<hostsdeny/>
</share>
</samba>
<sambaad/>
-<ftpd>
<numberclients>5</numberclients>
<maxconperip>2</maxconperip>
<maxloginattempts>1</maxloginattempts>
<timeout>600</timeout>
<port>21</port>
<pasv_max_port>0</pasv_max_port>
<pasv_min_port>0</pasv_min_port>
<pasv_address/>
<directorymask>022</directorymask>
<filemask>077</filemask>
<chrooteveryone/>
<privatekey/>
<certificate/>
-<userbandwidth>
<up/>
<down/>
</userbandwidth>
-<anonymousbandwidth>
<up/>
<down/>
</anonymousbandwidth>
<banner/>
<tlsrequired/>
</ftpd>
<afp/>
-<rsyncd>
<port>873</port>
<rsyncd_user>ftp</rsyncd_user>
<motd/>
</rsyncd>
<rsync/>
-<unison>
<workdir/>
<mkdir/>
</unison>
-<upnp>
<port>49152</port>
<profile>default</profile>
</upnp>
-<minidlna>
<port>8200</port>
<notify_int>300</notify_int>
<container>B</container>
<loglevel>info</loglevel>
<inotify/>
</minidlna>
-<daap>
<port>3689</port>
<rescaninterval>3600</rescaninterval>
<scantype>0</scantype>
<dbdir/>
<admin_pw>xigmanas</admin_pw>
</daap>
-<bittorrent>
<peerport>51413</peerport>
<portforwarding type="bool">1</portforwarding>
<port>9091</port>
<downloaddir>/maison/telechargement</downloaddir>
<configdir/>
<authrequired type="bool">1</authrequired>
<username>BAdmin</username>
<password>azerty1234</password>
<pex type="bool">1</pex>
<dht type="bool">1</dht>
<preallocation>1</preallocation>
<encryption>1</encryption>
<watchdir>/maison/torrent</watchdir>
<umask/>
<extraoptions/>
<enable type="bool">1</enable>
<uplimit/>
<downlimit/>
<incompletedir>/maison/torrent</incompletedir>
</bittorrent>
-<sshd>
<port>22</port>
<passwordauthentication/>
<pubkeyauthentication/>
</sshd>
-<nfsd>
<numproc>4</numproc>
</nfsd>
-<snmpd>
<location/>
<contact/>
<read>public</read>
<traphost>localhost</traphost>
<trapport>162</trapport>
<trap/>
-<modules>
<mibii/>
</modules>
</snmpd>
-<diag>
-<ipv6nat>
<ipaddr/>
</ipv6nat>
</diag>
-<syslogd>
<nentries>275</nentries>
</syslogd>
<access/>
<dynamicdns/>
-<statusreport>
<to/>
<subject>Status report from %h</subject>
<all_mins/>
<all_hours/>
<all_days/>
<all_months/>
<all_weekdays/>
<minute/>
<hour/>
<day/>
<month/>
<weekday/>
<report>systeminfo</report>
<report>dmesg</report>
<report>systemlog</report>
<report>ftplog</report>
<report>rsynclog</report>
<report>sshdlog</report>
<report>smartdlog</report>
<report>daemonlog</report>
<report_scriptname/>
</statusreport>
-<shutdown>
<all_mins/>
<all_hours/>
<all_days/>
<all_months/>
<all_weekdays/>
<minute/>
<hour/>
<day/>
<month/>
<weekday/>
</shutdown>
-<reboot>
<all_mins/>
<all_hours/>
<all_days/>
<all_months/>
<all_weekdays/>
<minute/>
<hour/>
<day/>
<month/>
<weekday/>
</reboot>
-<cron>
-<job>
<uuid>26c4bf2b-bfb0-4d03-b2ad-d79da252af8d</uuid>
<desc>Monitor ZFS Health</desc>
<minute>30</minute>
<hour/>
<day/>
<month/>
<weekday/>
<all_mins>0</all_mins>
<all_hours>1</all_hours>
<all_days>1</all_days>
<all_months>1</all_months>
<all_weekdays>1</all_weekdays>
<who>root</who>
<command>/etc/healthcheck.zfs</command>
</job>
</cron>
<rc/>
-<websrv>
<protocol>http</protocol>
<port/>
<documentroot/>
<privatekey/>
<certificate/>
-<authentication>
-<url>
<uuid>9feabff2-dc8a-48d6-987a-dafe961e7680</uuid>
<path>/</path>
<realm>Webserver</realm>
</url>
</authentication>
</websrv>
-<smartd>
<interval>1800</interval>
<powermode>never</powermode>
-<temp>
<diff>0</diff>
<info>0</info>
<crit>0</crit>
</temp>
-<email>
<to/>
</email>
</smartd>
-<ad>
<domaincontrollername/>
<domainname_dns/>
<domainname_netbios/>
<username>Administrator</username>
<password/>
</ad>
-<ldap>
<hostname/>
<base/>
<anonymousbind/>
<binddn/>
<bindpw/>
<rootbinddn/>
<rootbindpw/>
<pam_password/>
<user_suffix/>
<group_suffix/>
<password_suffix/>
<machine_suffix/>
<auxparam>ldap_version 3</auxparam>
<auxparam>timelimit 30</auxparam>
<auxparam>bind_timelimit 30</auxparam>
<auxparam>bind_policy soft</auxparam>
<auxparam>pam_ldap_attribute uid</auxparam>
</ldap>
-<ups>
<upsname>ups1</upsname>
<shutdownmode>onbatt</shutdownmode>
<shutdowntimer>30</shutdowntimer>
-<email>
<to/>
<subject>UPS notification from %h</subject>
</email>
<ups2_upsname>ups2</ups2_upsname>
</ups>
-<tftpd>
<dir/>
<extraoptions/>
<port/>
<username>nobody</username>
<umask/>
<timeout/>
<maxblocksize/>
</tftpd>
-<lcdproc>
<driver>hd44780</driver>
<port>13666</port>
<waittime>10</waittime>
<titlespeed>10</titlespeed>
<param># USB connected HD44780 based LCD</param>
<param>ConnectionType=lcd2usb</param>
<param>Contrast=825</param>
<param>Brightness=4</param>
<param>OffBrightness=0</param>
<param>Keypad=yes</param>
<param>Backlight=yes</param>
<param>Size=20x4</param>
<param>KeyDirect_1=Enter</param>
<param>KeyDirect_2=Down</param>
<param>KeyDirect_3=Escape</param>
-<lcdproc>
<param>[CPU]</param>
<param>Active=True</param>
<param>OnTime=1</param>
<param>OffTime=2</param>
<param>ShowInvisible=false</param>
<param>[Iface]</param>
<param>Active=True</param>
<param>Interface0=re0</param>
<param>Alias0=LAN</param>
<param>#Interface1=em0</param>
<param>#Alias1=WAN</param>
<param>[Iface]</param>
<param>Active=True</param>
<param>Interface0=re0</param>
<param>Alias0=LAN</param>
<param>#Interface1=em0</param>
<param>#Alias1=WAN</param>
<param>#Interface2=em1</param>
<param>#Alias2=MGMT</param>
<param>unit=bit</param>
<param>#transfer=TRUE</param>
<param>[Memory]</param>
<param>Active=True</param>
<param>[Load]</param>
<param>Active=True</param>
<param>LowLoad=0.05</param>
<param>HighLoad=1.3</param>
<param>[TimeDate]</param>
<param>Active=True</param>
<param>TimeFormat="%H:%M:%S"</param>
<param>DateFormat="%x"</param>
<param>[About]</param>
<param>Active=false</param>
<param>[SMP-CPU]</param>
<param>Active=false</param>
<param>[OldTime]</param>
<param>Active=false</param>
<param>TimeFormat="%H:%M:%S"</param>
<param>DateFormat="%x"</param>
<param>[BigClock]</param>
<param>Active=false</param>
<param>[Uptime]</param>
<param>Active=false</param>
<param>[Battery]</param>
<param>Active=false</param>
<param>[CPUGraph]</param>
<param>Active=false</param>
<param>[ProcSize]</param>
<param>Active=false</param>
<param>[Disk]</param>
<param>Active=false</param>
<param>[MiniClock]</param>
<param>Active=false</param>
<param>TimeFormat="%H:%M"</param>
</lcdproc>
</lcdproc>
<rrdgraphs/>
-<vbox>
<homedir/>
</vbox>
<lastconfigbackup>1552206851</lastconfigbackup>
</xigmanas>
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: Raid Z upgrade
C'est comme vous le voulez, clé usb ou ssd c'est blanc bonnet ou bonnet blanc, en embedded tout le système tourne en mémoire vive, c'est pour cela qu'en général c'est lors d'un redémarrage que l'on s'aperçoit que la clé ou le disque est corrompu ou hs.
ça joue sur le chargement au démarrage uniquement, après ça tourne en ram.
Si vous avez utilisé USBimageTool c'est facile de faire une image de la clé et de la restaurer au besoin; c'est nettement plus lourd avec un ssd
Mais la question initiale était:
"J'ai un raid z 1 de trois HDD 1 To.
pour un besoin de place je voudrais augmenter l'espace disque.
Juste pour être sur est-il possible d'augmenter la taille du raid par substitution de disque de 1 To par des disques de capacité supérieur sans perte de données?"
êtes-vous prêt ?
Vous avez les nouveaux disques?
ça joue sur le chargement au démarrage uniquement, après ça tourne en ram.
Si vous avez utilisé USBimageTool c'est facile de faire une image de la clé et de la restaurer au besoin; c'est nettement plus lourd avec un ssd
Mais la question initiale était:
"J'ai un raid z 1 de trois HDD 1 To.
pour un besoin de place je voudrais augmenter l'espace disque.
Juste pour être sur est-il possible d'augmenter la taille du raid par substitution de disque de 1 To par des disques de capacité supérieur sans perte de données?"
êtes-vous prêt ?
Vous avez les nouveaux disques?
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
-
Inlitha
- Starter

- Posts: 37
- Joined: 10 Dec 2016 15:20
- Status: Offline
Re: Raid Z upgrade
Oui, j'ai les disques sous la main.
Mais je ne sais si c'est tout a fait normal que je ne retrouve pas de périphérique virtuel.
voici le status pool et ce malgré la mise a niveaux du pool
Mais je ne sais si c'est tout a fait normal que je ne retrouve pas de périphérique virtuel.
voici le status pool et ce malgré la mise a niveaux du pool
You do not have the required permissions to view the files attached to this post.
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: Raid Z upgrade
raidz1-0 est le périphérique virtuel.
ZFS signale maintenant les disques qui ne sont pas configurés sur leur taille de bloc native.
C'est EXTREMEMENT déconseillé (mais pas impossible) de remplacer des disques configurés avec des blocksize de 512 par des disques natif 4K.
Donc pour continuer il faudrait savoir si vous avez une sauvegarde de vos données.
ZFS signale maintenant les disques qui ne sont pas configurés sur leur taille de bloc native.
C'est EXTREMEMENT déconseillé (mais pas impossible) de remplacer des disques configurés avec des blocksize de 512 par des disques natif 4K.
Donc pour continuer il faudrait savoir si vous avez une sauvegarde de vos données.
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
-
Inlitha
- Starter

- Posts: 37
- Joined: 10 Dec 2016 15:20
- Status: Offline
Re: Raid Z upgrade
Est ce dangereux que la taille des blocs n'est pas native.
Si c'est dangereux, est ce que l'on pourra mixer les tailles de blocs de disques avec les nouveaux disques ou alors comment faire pour limiter au maximum les risques de perte de données.
512 correspondait à la config de l'époque.
Par contre je n'ai pas de sauvegarde.
Si c'est dangereux, est ce que l'on pourra mixer les tailles de blocs de disques avec les nouveaux disques ou alors comment faire pour limiter au maximum les risques de perte de données.
512 correspondait à la config de l'époque.
Par contre je n'ai pas de sauvegarde.
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: Raid Z upgrade
"Est ce dangereux que la taille des blocs n'est pas native."
Non mais cela peut influer sur les performances.
"Si c'est dangereux, est ce que l'on pourra mixer les tailles de blocs de disques avec les nouveaux disques ou alors comment faire pour limiter au maximum les risques de perte de données."
Lors du remplacement de disque ZFS utilisera la même configuration, de toute façon il suffit de regarder le fonctionnement après le premier remplacement de disque.
Si vous avez 3 ports sata de disponibles sur votre configuration l’idéal serait de recréer un nouveau pool et de copier l'ancien sur le nouveau.
Sinon il faut faire l'opération disque par disque.
Aller dans Disques > Gestion > Gestion des disques et faire une copie d'écran avec les n° de série des disques, c'est bien pratique pour les retrouver physiquement et cela évite des erreurs catastrophiques.
Première chose à faire c'est de passer autoexpand à ON autrement il faudra agir sur chaque disque avec online -e
zpool set autoexpand=on Tank1
Ensuite on met "offline" le premier disque
zpool offline Tank1 /dev/ada0
Le résultat doit être quelque chose comme 12221923426360741047 was ada0 ou /dev/ada0
vous notez ce nombre qui est la représentation dans le système zfs de ada0.
Vous arrêtez votre nas, vous changez votre disque puis vous remettez en marche votre nas.
(SURTOUT NE VOUS TROMPEZ PAS DE DISQUE !!)
Maintenant il faut faire le remplacement logique du disque
zpool replace Tank1 12221923426360741047 /dev/ada0
Le pool va se reconstruire, cela peut être long, soyez patient surtout que ça démarre lentement.
Le pool ne prendra sa nouvelle capacité qu'après le "resilvering" du dernier disque.
Bon courage!
Non mais cela peut influer sur les performances.
"Si c'est dangereux, est ce que l'on pourra mixer les tailles de blocs de disques avec les nouveaux disques ou alors comment faire pour limiter au maximum les risques de perte de données."
Lors du remplacement de disque ZFS utilisera la même configuration, de toute façon il suffit de regarder le fonctionnement après le premier remplacement de disque.
Si vous avez 3 ports sata de disponibles sur votre configuration l’idéal serait de recréer un nouveau pool et de copier l'ancien sur le nouveau.
Sinon il faut faire l'opération disque par disque.
Aller dans Disques > Gestion > Gestion des disques et faire une copie d'écran avec les n° de série des disques, c'est bien pratique pour les retrouver physiquement et cela évite des erreurs catastrophiques.
Première chose à faire c'est de passer autoexpand à ON autrement il faudra agir sur chaque disque avec online -e
zpool set autoexpand=on Tank1
Ensuite on met "offline" le premier disque
zpool offline Tank1 /dev/ada0
Le résultat doit être quelque chose comme 12221923426360741047 was ada0 ou /dev/ada0
vous notez ce nombre qui est la représentation dans le système zfs de ada0.
Vous arrêtez votre nas, vous changez votre disque puis vous remettez en marche votre nas.
(SURTOUT NE VOUS TROMPEZ PAS DE DISQUE !!)
Maintenant il faut faire le remplacement logique du disque
zpool replace Tank1 12221923426360741047 /dev/ada0
Le pool va se reconstruire, cela peut être long, soyez patient surtout que ça démarre lentement.
Le pool ne prendra sa nouvelle capacité qu'après le "resilvering" du dernier disque.
Bon courage!
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
-
Inlitha
- Starter

- Posts: 37
- Joined: 10 Dec 2016 15:20
- Status: Offline
Re: Raid Z upgrade
Voilà, je suis arrivé à upgrader à la dernière version stable de Xigmanas,
j'ai changer mes 3 disques, effectivement c'est long, mais ça fonctionne, il a fallut compter 14 heures pour chaque disque.
Et pour cette aide, je vous dis un grand merci
Il reste quelques réglages, et la remise en place du SSD pour le système qui est pour l'instant sur clé. Y a t'il une manip spécial? car je cite : "c'est nettement plus lourd avec un ssd"
Et, j’ai un soucis d’envoi des rapports par mail.
Merci les pros
j'ai changer mes 3 disques, effectivement c'est long, mais ça fonctionne, il a fallut compter 14 heures pour chaque disque.
Et pour cette aide, je vous dis un grand merci
Il reste quelques réglages, et la remise en place du SSD pour le système qui est pour l'instant sur clé. Y a t'il une manip spécial? car je cite : "c'est nettement plus lourd avec un ssd"
Et, j’ai un soucis d’envoi des rapports par mail.
Merci les pros
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: Raid Z upgrade
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
-
Inlitha
- Starter

- Posts: 37
- Joined: 10 Dec 2016 15:20
- Status: Offline
Re: Raid Z upgrade
Mon soucis: voilà le journal, et ne n'arrive pas à l'interpréter.
msmtp: host=aspmx.l.google.com tls=on auth=on user=j.pagneux@gmail.com from=j.pagneux@gmail.com recipients=j.pagneux@gmail.com,jubejean@hotmail.com errormsg='cannot connect to aspmx.l.google.com, port 465: No route to host' exitcode=EX_TEMPFAIL
Ensuite : si j'arrête le serveur, le pool une remonte pas, je suis obliger de le faire manuellement. Y a t'il une manip a effectuer.
msmtp: host=aspmx.l.google.com tls=on auth=on user=j.pagneux@gmail.com from=j.pagneux@gmail.com recipients=j.pagneux@gmail.com,jubejean@hotmail.com errormsg='cannot connect to aspmx.l.google.com, port 465: No route to host' exitcode=EX_TEMPFAIL
Ensuite : si j'arrête le serveur, le pool une remonte pas, je suis obliger de le faire manuellement. Y a t'il une manip a effectuer.
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: Raid Z upgrade
viewtopic.php?f=55&t=13710&p=84939&hilit=gmail#p84939
"je suis obliger de le faire manuellement" c'est à dire ?
"je suis obliger de le faire manuellement" c'est à dire ?
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX