Page 1 of 2
Raid Z upgrade
Posted: 24 Feb 2019 22:52
by Inlitha
Bonjour,
J'ai un raid z 1 de trois HDD 1 To.
pour un besoin de place je voudrais augmenter l'espace disque.
Juste pour être sur est-il possible d'augmenter la taille du raid par substitution de disque de 1 To par des disques de capacité supérieur sans perte de données?
Merci
Re: Raid Z upgrade
Posted: 25 Feb 2019 01:44
by mtiburs
Bonjour,
Oui, c'est facile.
J'ai fais un exemple ci dessous
C'est juste fais en Linux, mais c'est identique pour Xigmanas, il faut juste remplacer les dev (/dev/loop1 => /dev/da1 ou autre)
Je crée le raidz1 de 3 disques de 100M
root@bx:~/test#
zpool create toto raidz1 /dev/loop1 /dev/loop2 /dev/loop3
root@bx:~/test#
zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
toto 272M 131K 272M - 0% 0% 1.00x ONLINE -
(çà affiche 272M mais dès qu'il se remplit il va tendre vers 200M: 300M - 100M)
Je positionne la possibilité de l'expansion automatique du pool
root@bx:~/test#
zpool set autoexpand=on toto
Je regarde le status du pool
root@bx:~/test#
zpool status -v
pool: toto
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
toto ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
loop1 ONLINE 0 0 0
loop2 ONLINE 0 0 0
loop3 ONLINE 0 0 0
errors: No known data errors
Je lance le remplacement de chaque disque
root@bx:~/test#
zpool replace toto /dev/loop1 /dev/loop4
root@bx:~/test#
zpool replace toto /dev/loop2 /dev/loop5
root@bx:~/test#
zpool replace toto /dev/loop3 /dev/loop6
Je regarde si la taille du pool a changée
root@bx:~/test#
zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
toto 880M 648K 879M - 0% 0% 1.00x ONLINE -
Voilà

Re: Raid Z upgrade
Posted: 25 Feb 2019 03:08
by mtiburs
Voici une autre méthode (l'exemple ci-dessus montre des disques changés physiquement AVANT l'autoexpand=on)
Je crée le pool
root@bx:~/test# zpool create toto raidz1 /dev/loop1 /dev/loop2 /dev/loop3
Je liste le pool
root@bx:~/test# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
toto 272M 122K 272M - 0% 0% 1.00x ONLINE -
Je remplace le premier disque
root@bx:~/test# zpool replace toto /dev/loop1 /dev/loop4
Je regarde si cela se passe bien
root@bx:~/test# zpool status -v toto
pool: toto
state: ONLINE
scan: resilvered 141K in 0h0m with 0 errors on Mon Feb 25 02:42:03 2019
config:
NAME STATE READ WRITE CKSUM
toto ONLINE 0 0 0
raidz1-0 ONLINE 0 0 0
loop4 ONLINE 0 0 0
loop2 ONLINE 0 0 0
loop3 ONLINE 0 0 0
errors: No known data errors
Je continue le remplacement pour les autres disques
root@bx:~/test# zpool replace toto /dev/loop2 /dev/loop5
root@bx:~/test# zpool replace toto /dev/loop3 /dev/loop6
Je regarde la taille du pool, on peut voir qu'elle n'a pas évolué (c'est normal)
root@bx:~/test# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
toto 272M 381K 272M - 0% 0% 1.00x ONLINE -
Je positionne l'autoexpand à ON
root@bx:~/test# zpool set autoexpand=on toto
Je passe le premier disque en offline, puis le repasse en online avec l'option -e
root@bx:~/test# zpool offline toto /dev/loop4
root@bx:~/test# zpool online -e toto /dev/loop4
root@bx:~/test# zpool offline toto /dev/loop5
root@bx:~/test# zpool online -e toto /dev/loop5
root@bx:~/test# zpool offline toto /dev/loop6
root@bx:~/test# zpool online -e toto /dev/loop6
Je regarde la taille
root@bx:~/test# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
toto 880M 681K 879M - 0% 0% 1.00x ONLINE -
voilà.
Re: Raid Z upgrade
Posted: 25 Feb 2019 06:14
by sleid
Oui, mais c'est dans le cas ou l'on a suffisamment de port disponibles.....c'est un petit peu plus compliqué lorsque l'on change de disque sur un même port.
Après avec ZFSD il suffit de remplacer le disque à chaud ou à froid selon que l'on a une carte mère et un rack qui supportent ou pas le hot swap, et de regarder le resilvering démarrer sans entrer la moindre commande.
(limite: la capacité du disque de remplacement doit être >= au remplacé)
Re: Raid Z upgrade
Posted: 25 Feb 2019 12:21
by mtiburs
@Sleid
Oui, c'est vrai, je n'avais pas penser à cela
... et je n'ai pas encore essayé zfsd

... faut que je mette "à la page"
@Inlitha
il faudrait que l'on sache la version qui est utilisé, car zfsd n'est peut-être pas dedans et de quelle interface il s'agit pour les disques (sata, usb, ... )
Re: Raid Z upgrade
Posted: 25 Feb 2019 16:46
by sleid
ZFSD est intégré à freebsd depuis la v11, il n'y a rien à installer sur XigmaNas, c'est du natif.
Système > Avancé > Scripts de commande:
nom : ZFSD
commande : zfsd
description : Surveillance des erreurs ZFS
type : PostInit
ça c'est pour le prochain démarrage
En attendant pour l'immédiat
Outils > Exécuter la commande : et la commande c'est tout simplement zfsd
Pour faire plus simple c'est difficile!!!
Re: Raid Z upgrade
Posted: 25 Feb 2019 19:08
by Inlitha
oui merci pour les réponse.
voila mon problème alors
ma version du système 9.2.0.1 - Shigawire (revision 972)
du coups il y a un moyen de mettre le système a niveau sur une version 11 sans perdre les paramétrage du système
pour le reste se sont des disques sata standard
Re: Raid Z upgrade
Posted: 25 Feb 2019 20:08
by sleid
Si c'est une version embedded installé sur une clé usb, il vous faut absolument sauvegarder votre configuration dans un endroit fiable.
Système > Configuration des sauvegardes > Sauvegarde
Après cela vous arrêtez votre nas, vous enlevez la clé ou est installé Nas4Free 9 et vous la mettez de côté.(Ne pas y toucher c'est votre bouée de sauvetage car les v9 et V10 sont officiellement introuvables).
Vous téléchargez la version liveusb de XigmaNAS 11 vous la mettez sur autre clé usb qui va vous servir à lancer une installation nouvelle sur une troisième clé usb.
Une fois cette installation faite il vous restera à restaurer la configuration sauvegardée précédemment
Système > Restaurer la configuration
Soit ça fonctionne soit c'est incompatible dans tous les cas les données sont respectées.
Si ça ne fonctionne pas (pas de pool ou autre chose)il faut reprendre l'installation de la V11 et recréer la configuration après avoir importé le pool avec le paramètre -f (zpool import -f nomdupool).
Re: Raid Z upgrade
Posted: 25 Feb 2019 22:16
by Inlitha
d'accord je voie...
c'est une version installer sur un ssd du coups je peu tenter le coups avec un clef usb en inhibant le ssd.
moi c'est le samba qui me fait peur je vais pas perdre mon système de fichier et les arborescence dedans?
Re: Raid Z upgrade
Posted: 26 Feb 2019 06:04
by sleid
Sur le ssd il y a juste l'installation ou en plus des données ?
L'installation c'est une embedded ou une full ?
Pour ce qui est de samba, ce que vous risquez d'avoir à refaire c'est la configuration des utilisateurs et du partage.
Re: Raid Z upgrade
Posted: 26 Feb 2019 22:29
by Inlitha
Le ssd ne comporte que le système.
qui est installé en embedded mais je ne sais plus comment voire cette informations.
Re: Raid Z upgrade
Posted: 27 Feb 2019 04:41
by sleid
C'est sur la page d’accueil du nas
Re: Raid Z upgrade
Posted: 27 Feb 2019 20:38
by Inlitha
c'est embedded c'est sur.
Re: Raid Z upgrade
Posted: 28 Feb 2019 06:49
by sleid
Donc vous sauvez votre configuration, vous arrêtez le nas , vous débranchez le ssd, vous lancez une nouvelle installation sur clé USB, puis vous restaurez votre configuration.
Suivant le résultat, je vous renvoie vers mon post précédent.
Re: Raid Z upgrade
Posted: 06 Mar 2019 20:42
by Inlitha
Désole du retard
je n'arrive pas a booté avec ma clef ubs sur l'iso
sa me donne cela
BOOT.JPG
Re: Raid Z upgrade
Posted: 06 Mar 2019 22:14
by sleid
c'est pas l'iso qu'il faut c'est le liveusb qu'il faut décompresser puis a l'aide de UsbImageTool (par exemple) restaurer l'image sur la clé usb.
L'iso c'est pour les cd ou dvd.
Re: Raid Z upgrade
Posted: 08 Mar 2019 20:57
by Inlitha
merci c'est bon le serveur a redémarrer sur le nouveau système.
mais après restauration des données le système n'as pas changé.
par contre le système reconnais les disque en zfs.
Re: Raid Z upgrade
Posted: 08 Mar 2019 22:20
by sleid
il faut importer le pool
commande: zpool import -f monpool
et puis recréer les partages et le reste c'est en fait assez facile il suffit d'ouvrir l'ancienne configuration avec wordpad ou notepad++ et de lire la configuration.
Re: Raid Z upgrade
Posted: 09 Mar 2019 18:20
by Inlitha
Voilà, j'en suis là,mais je ne suis pas sûr que le pool soit remonté correctement.
Capture.PNG
le partage de fichier samba remonte bien.
du coups l'étape suivant c'est d'installer sur le ssd?
Re: Raid Z upgrade
Posted: 10 Mar 2019 06:45
by sleid
Le pool est bien remonté, maintenant n'oubliez pas de sauvegarder la configuration à chaque changement, c'est vital.
Votre pool date un peu et XigmaNAS a suivi les évolutions de zfs donc à l'aide des outils de zfs (Disques > ZFS > Pools > Outils ) il vous faut faire la mise à niveau de ZFS.
Re: Raid Z upgrade
Posted: 11 Mar 2019 15:47
by Inlitha
Voilà, j'ai fait une sauvegarde après avoir mise à niveau ZFS, la voici :
L'étape suivant consiste t'elle à réinstaller sur le SSD?
Code: Select all
<?xml version="1.0" encoding="UTF-8"?>
-<xigmanas>
<version>40</version>
<lastchange>1552206851</lastchange>
-<system>
<hostname>xigmanas</hostname>
<domain>local</domain>
<dnsserver/>
<ipv6dnsserver/>
<username>admin</username>
<password>$6$guXYYSsWKt2W4KN6$jVm2hMRISeZc7zem2JS.Fi/AOFG2EherIZ2tsPIdn85D1fLkMzfA875R/GSmcp3xxq.WVMp872G0xQ0MLWBD70</password>
<timezone>Europe/Paris</timezone>
<datetimeformat>l d F Y H:i:s T</datetimeformat>
<language>fr</language>
-<ntp>
<timeservers>pool.ntp.org</timeservers>
<updateinterval>300</updateinterval>
</ntp>
-<webgui>
<protocol>http</protocol>
<certificate>LS0tLS1CRUdJTiBDRVJUSUZJQ0FURS0tLS0tDQpNSUlEMnpDQ0FzT2dBd0lCQWdJSkFMWm9teUJQZkpIbU1BMEdDU3FHU0liM0RRRUJDd1VBTUlHRE1Rc3dDUVlEDQpWUVFHRXdKT1RERVVNQklHQTFVRUNBd0xUbVYwYUdWeWJHRnVaSE14RWpBUUJnTlZCQWNNQ1VGdGMzUmxjbVJoDQpiVEVSTUE4R0ExVUVDZ3dJV0dsbmJXRk9RVk14RlRBVEJnTlZCQU1NREhocFoyMWhibUZ6TG1OdmJURWdNQjRHDQpDU3FHU0liM0RRRUpBUllSYVc1bWIwQjRhV2R0WVc1aGN5NWpiMjB3SGhjTk1UZ3dOekE1TVRNME16QXpXaGNODQpNamd3TnpBMk1UTTBNekF6V2pDQmd6RUxNQWtHQTFVRUJoTUNUa3d4RkRBU0JnTlZCQWdNQzA1bGRHaGxjbXhoDQpibVJ6TVJJd0VBWURWUVFIREFsQmJYTjBaWEprWVcweEVUQVBCZ05WQkFvTUNGaHBaMjFoVGtGVE1SVXdFd1lEDQpWUVFEREF4NGFXZHRZVzVoY3k1amIyMHhJREFlQmdrcWhraUc5dzBCQ1FFV0VXbHVabTlBZUdsbmJXRnVZWE11DQpZMjl0TUlJQklqQU5CZ2txaGtpRzl3MEJBUUVGQUFPQ0FROEFNSUlCQ2dLQ0FRRUEyQkloV1Q2NjZQemlLeW1CDQpNaGRMNUJRaWd0YkFUMjNYTi9MZmErcExrZW91YitQdmduS0pnd25mcGd6Ty9JZXFuYXhSVmQ4bnRMSlRqaGh5DQovVU5LU0dkQy9OUjZGSWt5QWZlM25IOVM2eGZRaU92MjBsUXBGV2lqUzg4TmVRZEpXUVpsSVlwZmloWVJXemdBDQpvWEp4dWkxcHd0Y1dUODN1WDg5VXBhbjhTRUNGcFJDNURXTTNCWjRRYzk2K05VdDR4N2puaWszMURNTHE5ZGhlDQo3RjdhT0ZEWnNZV2xpM0REbi9va01HVmF5MzMzVHpDMGxSNzJISVo0SkRLcmJjNUFFbWN3dkFuRnVFWC80RTQzDQpwWHFsY2lhQzRDeWNlQ2JQSUlJWHcyNDArQ3lNQm9BYlBqTkZVcTBCTEhzYlVyOWdidnFlcDkxWWdUamxUZUtMDQo0QTR2VVFJREFRQUJvMUF3VGpBZEJnTlZIUTRFRmdRVUlmUThDMFY5cFpkZjVWUkdUWkNvcC92WUlQVXdId1lEDQpWUjBqQkJnd0ZvQVVJZlE4QzBWOXBaZGY1VlJHVFpDb3AvdllJUFV3REFZRFZSMFRCQVV3QXdFQi96QU5CZ2txDQpoa2lHOXcwQkFRc0ZBQU9DQVFFQUpzNlo5dTA3Y3cvRFpyRFRyQVpnYzYxeDhORHRwSUhUdExYVjZvUkY0WFZMDQp6M0xPaXJaU2REUHZLRWNLM2RqRmxzU3VkckxabFpnQUJzTHVpSEhjTTBYL2VKdG0vOExYQjA2K0ZuYmtvbHhzDQpVWHpXNlRSSEg4L3JHMTFjZGhpNUpkR2xuNEYzd2FQYzRtVGJHSW41eUNNNU13UTdUbUtvcFV6WjlMdUxmQndKDQpyRzlJWUozTEVJZFYrbDJ6SHgvYjErdjFnYlE3ZGFuamxxYksyNnJ6aUJxSHBnUkYvcjFJWDZ0c0t1bVgveENjDQpZR0NRcU16T0EvMyt2QWphSDdYdUU2emo2ZGVZWExoNGRzekFLSlRURU95cXBNQWZmc1JISkJoc2p0RkFmN0syDQorSFExakJ6TDBhUHZGaFhNczBMYy9icFo0NWh1Rk1GaHFWS0t5aHorUEE9PQ0KLS0tLS1FTkQgQ0VSVElGSUNBVEUtLS0tLQ==</certificate>
<privatekey>LS0tLS1CRUdJTiBSU0EgUFJJVkFURSBLRVktLS0tLQ0KTUlJRXBRSUJBQUtDQVFFQTJCSWhXVDY2NlB6aUt5bUJNaGRMNUJRaWd0YkFUMjNYTi9MZmErcExrZW91YitQdg0KZ25LSmd3bmZwZ3pPL0llcW5heFJWZDhudExKVGpoaHkvVU5LU0dkQy9OUjZGSWt5QWZlM25IOVM2eGZRaU92Mg0KMGxRcEZXaWpTODhOZVFkSldRWmxJWXBmaWhZUld6Z0FvWEp4dWkxcHd0Y1dUODN1WDg5VXBhbjhTRUNGcFJDNQ0KRFdNM0JaNFFjOTYrTlV0NHg3am5pazMxRE1McTlkaGU3RjdhT0ZEWnNZV2xpM0REbi9va01HVmF5MzMzVHpDMA0KbFI3MkhJWjRKREtyYmM1QUVtY3d2QW5GdUVYLzRFNDNwWHFsY2lhQzRDeWNlQ2JQSUlJWHcyNDArQ3lNQm9BYg0KUGpORlVxMEJMSHNiVXI5Z2J2cWVwOTFZZ1RqbFRlS0w0QTR2VVFJREFRQUJBb0lCQVFEQ2o4alJ1T2ZMaG5NTg0KMUtqT2R5WFNNY05GdDZTaG9WSEx3bm9taldvUThTTnhnM2tYS0pYa2xnNTZVa3hNSHNtbWd4VVdVd1JJOU03Qw0KUkFlL1FFbHlXdkY2QXNZUEdkOGE0SG5JaE9vZ1lXaFk4c2xsYVgwNUZ1ajhDV3lqVDhsZlRaL2hETjJzMU9RNg0KRkhxVTVoMjhQTXBnTlJlVk11VDBCeGk4dUExQTdKZjlsUzkrNmxPbDIvdDRqYnByMWdEZzd6d1ZzZGljRFBnaA0KUFdacm9JMGJZbVY5Si8yRVlwdG1Sdm5lNEpseWtMWU8vdThuMmxsWFV4TEV5eHdjZHlLcU9JeVppVlRsY21FZw0KWlU2ZkhnV2xqdmRFanJTL05XZko0ejRjZGhPOXhjelo3MUZ0ZWNLMGVHWjk4WDhVcXdZUm4wTEJtV1FNVWJ1Mg0KSFIzUU1BYXhBb0dCQVB6bkRadTNZSk13QmtTSVVhczFnWHAwREJCTWVWSlZTbUpFYjduSXNpMHRRbkowQVk2OA0KOHJadXZoSVdmMzl5aW04dW80VXRjRDQyYWNlQ1V1NmdxdDlyS2wvWm9JRjB5K1FDT2VENGVTcW5YK1orQU9lRw0KTWlYMGlEM0V4VGs0NWtWZUdiR3poUEI4RnVGdlVsc1p4bDl0ckM5WUpUTXFhU0doRUdNNlluRDFBb0dCQU5xMw0KbUhBVldsQTdLQTFJZnl6ZmdPdXVxaStTbnpxVk1ZM3JYd1pabjFJQVZKb08wY0l2K3ZkSktWMVBaOGllbHNYNQ0KeGg4Q0dNSzE3WVNTVVg1M09QVnJoeXpEY2xnaCtTUWpBa0h5WmY0bVBZOXgrV29zM3FyRE40SUhqNWVQb3VQaQ0KN0hPUElxUk5IQXNiRXJ3N0dRelJyN240TG45WWcxWThhaXI3NlZ0dEFvR0JBTFRVVUxxaXAvOFdPNlVOQTdneg0KamQwTTFRTmlhdTBmNXd2VWV6NlA3amEzUWVlc1l1QzQ0YUxvRkNmQ3htOU9hd1dNaDRkV01nZUp5S0RLNHBtVg0KY0JoSC9BaUZCMnNKSkRCb0Z4SnhGOUlUMDFKdmpoMzlxaVhSYndrYmhSbWhRYVVmMzZkY0FSWWk1QWxWRzhIZg0KOENPVHU2WXVsSXE5TEdiTFQzaGo2cmR4QW9HQkFLRVFydnRyWGhUVFc0MWNvL3JocE1qcTJYMHJGb05IdHpSeA0KN29wNG1YRUR1VW15UEJvcXgwQXY2bnhDcTRUNzlNQmFUZUlyNHh3UWFaZEZRU3BHbGZWMWVCZ28zaDIwOXduNw0KbGdBR2g4Ri9XN28xRHAxMzZZb0xOT2RXdGhIQXZ3M2U0STNCREp1K0JUYlFleDJPejhXMjdSZWdnbTFaTzI3WQ0KRXI4UXdDcUpBb0dBWlZBdnlmUmhEMjUzTC9xQTJXaDRaNGg0WlJVZTRNZythTC9xQUF3OG5VTnhtdjlEdlVEWA0KZGVxRnBPczlrVHpLMjdUWmZhbkxuN1VRV05remtqOXdDR2FtelA2RWFXT05Na1JFUGtwOFZjbFVra1V3OVN5aQ0KUFMyOVhKQ2dKazIzVnJLOE5hejFtZ25QMm5pd3pHaTBDdUZCcE1EN2h6dWp1S0lmOGlNOVdUaz0NCi0tLS0tRU5EIFJTQSBQUklWQVRFIEtFWS0tLS0t</privatekey>
<port/>
<hostsallow/>
</webgui>
<motd>V2VsY29tZSB0byBYaWdtYU5BUyEK</motd>
<pwmode>hiadaptive</pwmode>
<pwmax/>
<pwmin/>
<tune/>
-<swap>
<type>file</type>
</swap>
-<proxy>
-<http>
<address>proxy</address>
<port>8080</port>
<username/>
<password/>
</http>
-<ftp>
<address>proxy</address>
<port>8080</port>
<username/>
<password/>
</ftp>
</proxy>
-<email>
<server/>
<port>25</port>
<security/>
<tls_certcheck/>
<username/>
<password/>
<from/>
<authmethod>plain</authmethod>
</email>
-<loaderconf>
-<param>
<uuid>d68b8192-ca70-45ad-b312-c61715ac1c27</uuid>
<name>ipmi_load</name>
<value>YES</value>
<comment>IPMItool Server Management Utility</comment>
</param>
-<param>
<uuid>938a66c6-fe89-4e2c-8e07-ad0aac8db511</uuid>
<name>vfs.zfs.arc_max</name>
<value>2G</value>
<comment>ZFS maximum ARC size</comment>
</param>
-<param>
<uuid>2f380ee0-4b3f-440e-9ade-ad346c7f58d1</uuid>
<name>vfs.zfs.arc_min</name>
<value>1G</value>
<comment>ZFS minimum ARC size</comment>
</param>
-<param>
<uuid>e1583f30-44da-4fc3-b726-b650dad74aee</uuid>
<name>vfs.zfs.prefetch_disable</name>
<value>1</value>
<comment>ZFS prefech disable</comment>
</param>
</loaderconf>
-<rcconf>
-<param>
<uuid>f69687d9-acdf-42d9-bd27-04486068874b</uuid>
<name>powerd_flags</name>
<value>-a hiadaptive -b hiadaptive -n hiadaptive</value>
<comment>System power control options</comment>
<enable/>
</param>
-<param>
<uuid>1c2a4807-9969-42bc-8500-ba234e33a3f5</uuid>
<name>varsize</name>
<value>512m</value>
<comment>Default /var size</comment>
<enable/>
</param>
-<param>
<uuid>3ab45cfd-9ea5-4295-98c8-bebc7603332e</uuid>
<name>vartmpsize</name>
<value>256m</value>
<comment>Default /var/tmp size</comment>
<enable/>
</param>
-<param>
<uuid>b67e6ffd-169d-493a-9197-155a9ae84582</uuid>
<name>fuppes_logfile</name>
<value>/var/log/fuppes.log</value>
<comment>Default log file</comment>
<enable/>
</param>
-<param>
<uuid>0b5cbdf6-0a84-4806-b85c-6605d38c7008</uuid>
<name>mtdaapd_logfile</name>
<value>/var/log/mt-daapd.log</value>
<comment>Default log file</comment>
<enable/>
</param>
-<param>
<uuid>40fe3290-51ac-4a70-b03e-a5613b981be4</uuid>
<name>rsync_client_logfile</name>
<value>/var/log/rsync_client.log</value>
<comment>Default log file</comment>
<enable/>
</param>
-<param>
<uuid>f52094cc-2bb8-4bc2-be39-76bce3fe1612</uuid>
<name>rsync_local_logfile</name>
<value>/var/log/rsync_local.log</value>
<comment>Default log file</comment>
<enable/>
</param>
</rcconf>
-<sysctl>
-<param>
<enable/>
<uuid>2f71d182-095e-11de-8303-0011951cd231</uuid>
<name>kern.coredump</name>
<value>0</value>
<comment>Disable core dump</comment>
</param>
-<param>
<uuid>2a44ee73-23b7-4aed-be91-11e8230bc1e1</uuid>
<name>hw.acpi.power_button_state</name>
<value>NONE</value>
<comment>Disable power button</comment>
</param>
-<param>
<uuid>d25eb28e-a719-4f07-af4e-00841fd3bd42</uuid>
<name>net.inet.tcp.delayed_ack</name>
<value>1</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>fdf2ad39-8839-402f-ae71-b6bbe00f35e2</uuid>
<name>net.inet.tcp.rfc1323</name>
<value>1</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>c8ecaad7-0da8-4042-9248-95de2b39695d</uuid>
<name>net.inet.tcp.sendspace</name>
<value>131072</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>69f639d1-6ed4-4189-ad0b-9bb3073bb728</uuid>
<name>net.inet.tcp.recvspace</name>
<value>131072</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>7eb21345-5732-46d0-b720-5161b502b807</uuid>
<name>net.inet.tcp.sendbuf_max</name>
<value>4194304</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>ef39320f-ec3d-403d-a947-946cdf3e7438</uuid>
<name>net.inet.tcp.sendbuf_inc</name>
<value>131072</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>42274d44-af41-4e37-b0fc-186bb2e4729a</uuid>
<name>net.inet.tcp.sendbuf_auto</name>
<value>1</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>dd570d75-ca14-4f9f-9a41-66abfb95b929</uuid>
<name>net.inet.tcp.recvbuf_max</name>
<value>4194304</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>c1ef4e9f-0a3e-4ae0-b903-056392d121e1</uuid>
<name>net.inet.tcp.recvbuf_inc</name>
<value>131070</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>d6b049e9-2aef-4dbf-8bd5-b8fca087a97d</uuid>
<name>net.inet.tcp.recvbuf_auto</name>
<value>1</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>c53babac-1619-4d1c-9fa6-0288480efb48</uuid>
<name>net.inet.udp.recvspace</name>
<value>65536</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>1300d0f3-bc62-4e2e-b307-54bd25ca885d</uuid>
<name>net.inet.udp.maxdgram</name>
<value>57344</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>ee1aae55-5add-4d7d-b656-9df9319f1297</uuid>
<name>net.local.stream.recvspace</name>
<value>65536</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>14068e6e-28b8-49eb-b2b0-385f53f60e74</uuid>
<name>net.local.stream.sendspace</name>
<value>65536</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>487bc391-ba1b-48e7-b513-8d0da6a4f36b</uuid>
<name>kern.ipc.maxsockbuf</name>
<value>16777216</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>cff93696-cf5d-4edf-8aa2-dd19910b7eae</uuid>
<name>kern.ipc.somaxconn</name>
<value>8192</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>2e1e5005-895b-4f20-bd6c-ab5c85bc494b</uuid>
<name>kern.ipc.nmbclusters</name>
<value>131072</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>d9f1625d-5de5-400a-961c-59da3e616388</uuid>
<name>kern.ipc.nmbjumbop</name>
<value>131072</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>d831105a-e105-4735-895e-5af035a631a4</uuid>
<name>kern.ipc.nmbjumbo9</name>
<value>32768</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>160234ee-1e1a-45e0-9bfa-0bb541d6393e</uuid>
<name>kern.ipc.nmbjumbo16</name>
<value>16384</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>5867a59c-5332-4589-a9cb-4510f1405901</uuid>
<name>kern.maxfiles</name>
<value>6289573</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>7ca96b1d-d150-4d5b-921e-c232af73ab14</uuid>
<name>net.inet.icmp.icmplim</name>
<value>300</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>68981261-fa0f-4661-acb7-ffc719b7c4e8</uuid>
<name>net.inet.icmp.icmplim_output</name>
<value>1</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>78f3e99f-613e-40fb-8336-a84302445f6f</uuid>
<name>net.inet.tcp.path_mtu_discovery</name>
<value>0</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>b806f74e-921c-4c65-ba6f-81d3904dad27</uuid>
<name>hw.intr_storm_threshold</name>
<value>9000</value>
<comment>System tuning</comment>
<enable/>
</param>
-<param>
<uuid>c527bec2-7829-49d8-9ca8-7c2e62842db1</uuid>
<name>vfs.zfs.l2arc_noprefetch</name>
<value>0</value>
<comment>Allow streaming/sequential reads to be cached</comment>
</param>
-<param>
<uuid>69c24ba3-ba86-4c76-854d-b0c5e027941e</uuid>
<name>vfs.zfs.min_auto_ashift</name>
<value>12</value>
<comment>System tuning</comment>
<enable/>
</param>
</sysctl>
-<syslogconf>
-<param>
<uuid>43b57288-90c1-44ff-91f7-22e5f5b9bbbe</uuid>
<facility>console</facility>
<level>debug</level>
<value>/dev/console</value>
<comment/>
</param>
</syslogconf>
-<hostsacl>
<rule>#ftpd : xxx.xxx.xxx.xxx : deny</rule>
<rule>#sshd : .example.com : deny</rule>
<rule>#in.tftpd : xxx.xxx.xxx.xxx : deny</rule>
<rule>#bsnmpd : xxx.xxx.xxx.xxx : deny</rule>
<rule>ALL : ALL : allow</rule>
</hostsacl>
-<usermanagement>
-<user>
<uuid>60c4bfb1-7c3c-4535-800c-2b17eeae9369</uuid>
<name>transmission</name>
<id>999</id>
<primarygroup>999</primarygroup>
<group>50</group>
<extraoptions>-m -w random -c "Transmission Daemon"</extraoptions>
</user>
-<user>
<uuid>132a0a60-a16d-4244-ba04-09312adda744</uuid>
<name>dlna</name>
<id>933</id>
<primarygroup>933</primarygroup>
<extraoptions>-c "DLNA Daemon" -d /nonexistent -s /usr/sbin/nologin</extraoptions>
</user>
-<user>
<uuid>715997e1-b2eb-493d-86cf-c7d217998a67</uuid>
<name>vboxusers</name>
<id>920</id>
<primarygroup>920</primarygroup>
<extraoptions>-c "Virtualbox user" -d /nonexistent -s /usr/sbin/nologin</extraoptions>
</user>
-<user>
<uuid>8937d051-f1b4-4048-8207-c73e81d5d364</uuid>
<name>syncthing</name>
<id>983</id>
<primarygroup>983</primarygroup>
<extraoptions>-c "Syncthing Daemon" -d /var/tmp/syncthing -s /usr/sbin/nologin</extraoptions>
</user>
-<user>
<uuid>eecbb68c-fade-46b3-b74f-96fdbcd34aaa</uuid>
<name>mysql</name>
<id>88</id>
<primarygroup>88</primarygroup>
<extraoptions>-c "MySQL user" -d /nonexistent -s /usr/sbin/nologin</extraoptions>
</user>
-<group>
<uuid>e8cc78b8-7c3d-46de-a34c-11b1c260a37e</uuid>
<id>999</id>
<name>transmission</name>
</group>
-<group>
<uuid>ab0ee675-e8d1-4052-b7c2-e6b46c918eb8</uuid>
<id>933</id>
<name>dlna</name>
</group>
-<group>
<uuid>235a1033-f7ee-443a-8c55-6bea64d5139e</uuid>
<id>920</id>
<name>vboxusers</name>
</group>
-<group>
<uuid>6f5c8dd0-4c98-4ccf-8a18-64ad5e8e067f</uuid>
<id>983</id>
<name>syncthing</name>
</group>
-<group>
<uuid>e504881b-c8dc-43d7-9ca4-74552f9b405b</uuid>
<id>1000</id>
<name>admin</name>
</group>
-<group>
<uuid>ef381dd2-6aa6-44e9-821c-94228a1ef63c</uuid>
<id>88</id>
<name>mysql</name>
</group>
</usermanagement>
-<firewall>
-<rule>
<uuid>26e8a05f-2567-4739-bed9-64f65d1a81fb</uuid>
<ruleno>10100</ruleno>
<action>deny</action>
<log/>
<protocol>tcp</protocol>
<src/>
<srcport/>
<dst/>
<dstport>21</dstport>
<direction>in</direction>
<if/>
<extraoptions/>
<desc>Deny in FTP</desc>
</rule>
-<rule>
<uuid>5768a98d-c4a8-4a28-a25b-f8cb564cfa6c</uuid>
<ruleno>10200</ruleno>
<action>deny</action>
<log/>
<protocol>tcp</protocol>
<src/>
<srcport/>
<dst/>
<dstport>22</dstport>
<direction>in</direction>
<if/>
<extraoptions>setup keep-state</extraoptions>
<desc>Deny in secure FTP, Telnet, and SCP</desc>
</rule>
-<rule>
<uuid>857f3162-0939-4f9d-9a78-578ec4b96999</uuid>
<ruleno>10300</ruleno>
<action>deny</action>
<log/>
<protocol>tcp</protocol>
<src/>
<srcport/>
<dst/>
<dstport>113</dstport>
<direction>in</direction>
<if/>
<extraoptions/>
<desc>Deny ident</desc>
</rule>
</firewall>
-<sysconsaver>
<blanktime>300</blanktime>
</sysconsaver>
</system>
-<interfaces>
-<lan>
<enable/>
<if>auto</if>
<ipaddr>192.168.1.250</ipaddr>
<subnet>24</subnet>
<ipv6addr>auto</ipv6addr>
<ipv6subnet>64</ipv6subnet>
<media>autoselect</media>
<mediaopt/>
</lan>
</interfaces>
<staticroutes/>
<disks/>
<gvinum/>
<gmirror/>
<gconcat/>
<gstripe/>
<graid5/>
<geli/>
-<iscsitarget>
<nodebase>iqn.2007-09.jp.ne.peach.istgt</nodebase>
<discoveryauthmethod>Auto</discoveryauthmethod>
<discoveryauthgroup>0</discoveryauthgroup>
<timeout>30</timeout>
<nopininterval>20</nopininterval>
<maxr2t>32</maxr2t>
<maxsessions>16</maxsessions>
<maxconnections>4</maxconnections>
<firstburstlength>262144</firstburstlength>
<maxburstlength>1048576</maxburstlength>
<maxrecvdatasegmentlength>262144</maxrecvdatasegmentlength>
<maxoutstandingr2t>16</maxoutstandingr2t>
<defaulttime2wait>2</defaulttime2wait>
<defaulttime2retain>60</defaulttime2retain>
<uctladdress>127.0.0.1</uctladdress>
<uctlport>3261</uctlport>
<uctlnetmask>127.0.0.1/8</uctlnetmask>
<uctlauthmethod>CHAP</uctlauthmethod>
<uctlauthgroup>0</uctlauthgroup>
<mediadirectory>/mnt</mediadirectory>
</iscsitarget>
<iscsiinit/>
-<zfs>
<vdevices/>
<pools/>
<datasets/>
-<settings>
<capacity_warning>80</capacity_warning>
<capacity_critical>90</capacity_critical>
</settings>
</zfs>
<mounts/>
-<samba>
<netbiosname>xigmanas</netbiosname>
<workgroup>WORKGROUP</workgroup>
<serverdesc>XigmaNAS Server</serverdesc>
<security>user</security>
<maxprotocol>SMB3</maxprotocol>
<guestaccount>ftp</guestaccount>
<maptoguest>Bad User</maptoguest>
<localmaster>yes</localmaster>
<timesrv>yes</timesrv>
<doscharset>CP437</doscharset>
<unixcharset>UTF-8</unixcharset>
<loglevel>0</loglevel>
<rcvbuf>128480</rcvbuf>
<sndbuf>128480</sndbuf>
<largereadwrite type="bool">1</largereadwrite>
<aiorsize>1024</aiorsize>
<aiowsize>1024</aiowsize>
<aiowbehind/>
<enable type="bool">1</enable>
<minprotocol/>
<clientmaxprotocol/>
<clientminprotocol/>
<if/>
<pwdsrv/>
<winssrv/>
-<share>
<uuid>700f27fd-c330-40a6-a52d-eba25f4f2c57</uuid>
<name>Documents</name>
<path>/maison/documents</path>
<comment>docuement</comment>
<browseable type="bool">1</browseable>
<guest type="bool">1</guest>
<inheritpermissions type="bool">1</inheritpermissions>
<inheritacls type="bool">1</inheritacls>
<recyclebin type="bool">1</recyclebin>
<hidedotfiles type="bool">1</hidedotfiles>
<shadowcopy type="bool">1</shadowcopy>
<shadowformat>auto-%Y%m%d-%H%M%S</shadowformat>
<zfsacl type="bool">1</zfsacl>
<vfs_fruit_resource>file</vfs_fruit_resource>
<vfs_fruit_time_machine>no</vfs_fruit_time_machine>
<vfs_fruit_metadata>netatalk</vfs_fruit_metadata>
<vfs_fruit_locking>netatalk</vfs_fruit_locking>
<vfs_fruit_encoding>native</vfs_fruit_encoding>
<hostsallow/>
<hostsdeny/>
</share>
-<share>
<uuid>6584f3cb-52d5-48f1-a277-96160ea00260</uuid>
<name>Images</name>
<path>/maison/images</path>
<comment>pour les photos images</comment>
<browseable type="bool">1</browseable>
<guest type="bool">1</guest>
<inheritpermissions type="bool">1</inheritpermissions>
<inheritacls type="bool">1</inheritacls>
<recyclebin type="bool">1</recyclebin>
<hidedotfiles type="bool">1</hidedotfiles>
<shadowcopy type="bool">1</shadowcopy>
<shadowformat>auto-%Y%m%d-%H%M%S</shadowformat>
<zfsacl type="bool">1</zfsacl>
<vfs_fruit_resource>file</vfs_fruit_resource>
<vfs_fruit_time_machine>no</vfs_fruit_time_machine>
<vfs_fruit_metadata>netatalk</vfs_fruit_metadata>
<vfs_fruit_locking>netatalk</vfs_fruit_locking>
<vfs_fruit_encoding>native</vfs_fruit_encoding>
<hostsallow/>
<hostsdeny/>
</share>
-<share>
<uuid>485adf60-7ade-4d01-a3a3-228a3d5951a2</uuid>
<name>Musique</name>
<path>/maison/musiques</path>
<comment>pour musique</comment>
<browseable type="bool">1</browseable>
<guest type="bool">1</guest>
<inheritpermissions type="bool">1</inheritpermissions>
<inheritacls type="bool">1</inheritacls>
<recyclebin type="bool">1</recyclebin>
<hidedotfiles type="bool">1</hidedotfiles>
<shadowcopy type="bool">1</shadowcopy>
<shadowformat>auto-%Y%m%d-%H%M%S</shadowformat>
<zfsacl type="bool">1</zfsacl>
<vfs_fruit_resource>file</vfs_fruit_resource>
<vfs_fruit_time_machine>no</vfs_fruit_time_machine>
<vfs_fruit_metadata>netatalk</vfs_fruit_metadata>
<vfs_fruit_locking>netatalk</vfs_fruit_locking>
<vfs_fruit_encoding>native</vfs_fruit_encoding>
<hostsallow/>
<hostsdeny/>
</share>
-<share>
<uuid>0c6c0ab4-7163-49c7-b827-00ae27aeef08</uuid>
<name>Video</name>
<path>/maison/video</path>
<comment>pour fichier video</comment>
<browseable type="bool">1</browseable>
<guest type="bool">1</guest>
<inheritpermissions type="bool">1</inheritpermissions>
<inheritacls type="bool">1</inheritacls>
<recyclebin type="bool">1</recyclebin>
<hidedotfiles type="bool">1</hidedotfiles>
<shadowcopy type="bool">1</shadowcopy>
<shadowformat>auto-%Y%m%d-%H%M%S</shadowformat>
<zfsacl type="bool">1</zfsacl>
<vfs_fruit_resource>file</vfs_fruit_resource>
<vfs_fruit_time_machine>no</vfs_fruit_time_machine>
<vfs_fruit_metadata>netatalk</vfs_fruit_metadata>
<vfs_fruit_locking>netatalk</vfs_fruit_locking>
<vfs_fruit_encoding>native</vfs_fruit_encoding>
<hostsallow/>
<hostsdeny/>
</share>
-<share>
<uuid>4fa9dad9-5169-4b56-a795-fcac042327c4</uuid>
<name>telechargement</name>
<path>/maison/telechargement</path>
<comment>dl</comment>
<browseable type="bool">1</browseable>
<guest type="bool">1</guest>
<inheritpermissions type="bool">1</inheritpermissions>
<inheritacls type="bool">1</inheritacls>
<recyclebin type="bool">1</recyclebin>
<hidedotfiles type="bool">1</hidedotfiles>
<shadowcopy type="bool">1</shadowcopy>
<shadowformat>auto-%Y%m%d-%H%M%S</shadowformat>
<zfsacl type="bool">1</zfsacl>
<vfs_fruit_resource>file</vfs_fruit_resource>
<vfs_fruit_time_machine>no</vfs_fruit_time_machine>
<vfs_fruit_metadata>netatalk</vfs_fruit_metadata>
<vfs_fruit_locking>netatalk</vfs_fruit_locking>
<vfs_fruit_encoding>native</vfs_fruit_encoding>
<hostsallow/>
<hostsdeny/>
</share>
-<share>
<uuid>f4a6db4b-1e92-4e30-b405-fca76838597e</uuid>
<name>Torrent</name>
<path>/maison/torrent</path>
<comment>pour les .torrent</comment>
<browseable type="bool">1</browseable>
<guest type="bool">1</guest>
<inheritpermissions type="bool">1</inheritpermissions>
<inheritacls type="bool">1</inheritacls>
<recyclebin type="bool">1</recyclebin>
<hidedotfiles type="bool">1</hidedotfiles>
<shadowcopy type="bool">1</shadowcopy>
<shadowformat>auto-%Y%m%d-%H%M%S</shadowformat>
<zfsacl type="bool">1</zfsacl>
<vfs_fruit_resource>file</vfs_fruit_resource>
<vfs_fruit_time_machine>no</vfs_fruit_time_machine>
<vfs_fruit_metadata>netatalk</vfs_fruit_metadata>
<vfs_fruit_locking>netatalk</vfs_fruit_locking>
<vfs_fruit_encoding>native</vfs_fruit_encoding>
<hostsallow/>
<hostsdeny/>
</share>
</samba>
<sambaad/>
-<ftpd>
<numberclients>5</numberclients>
<maxconperip>2</maxconperip>
<maxloginattempts>1</maxloginattempts>
<timeout>600</timeout>
<port>21</port>
<pasv_max_port>0</pasv_max_port>
<pasv_min_port>0</pasv_min_port>
<pasv_address/>
<directorymask>022</directorymask>
<filemask>077</filemask>
<chrooteveryone/>
<privatekey/>
<certificate/>
-<userbandwidth>
<up/>
<down/>
</userbandwidth>
-<anonymousbandwidth>
<up/>
<down/>
</anonymousbandwidth>
<banner/>
<tlsrequired/>
</ftpd>
<afp/>
-<rsyncd>
<port>873</port>
<rsyncd_user>ftp</rsyncd_user>
<motd/>
</rsyncd>
<rsync/>
-<unison>
<workdir/>
<mkdir/>
</unison>
-<upnp>
<port>49152</port>
<profile>default</profile>
</upnp>
-<minidlna>
<port>8200</port>
<notify_int>300</notify_int>
<container>B</container>
<loglevel>info</loglevel>
<inotify/>
</minidlna>
-<daap>
<port>3689</port>
<rescaninterval>3600</rescaninterval>
<scantype>0</scantype>
<dbdir/>
<admin_pw>xigmanas</admin_pw>
</daap>
-<bittorrent>
<peerport>51413</peerport>
<portforwarding type="bool">1</portforwarding>
<port>9091</port>
<downloaddir>/maison/telechargement</downloaddir>
<configdir/>
<authrequired type="bool">1</authrequired>
<username>BAdmin</username>
<password>azerty1234</password>
<pex type="bool">1</pex>
<dht type="bool">1</dht>
<preallocation>1</preallocation>
<encryption>1</encryption>
<watchdir>/maison/torrent</watchdir>
<umask/>
<extraoptions/>
<enable type="bool">1</enable>
<uplimit/>
<downlimit/>
<incompletedir>/maison/torrent</incompletedir>
</bittorrent>
-<sshd>
<port>22</port>
<passwordauthentication/>
<pubkeyauthentication/>
</sshd>
-<nfsd>
<numproc>4</numproc>
</nfsd>
-<snmpd>
<location/>
<contact/>
<read>public</read>
<traphost>localhost</traphost>
<trapport>162</trapport>
<trap/>
-<modules>
<mibii/>
</modules>
</snmpd>
-<diag>
-<ipv6nat>
<ipaddr/>
</ipv6nat>
</diag>
-<syslogd>
<nentries>275</nentries>
</syslogd>
<access/>
<dynamicdns/>
-<statusreport>
<to/>
<subject>Status report from %h</subject>
<all_mins/>
<all_hours/>
<all_days/>
<all_months/>
<all_weekdays/>
<minute/>
<hour/>
<day/>
<month/>
<weekday/>
<report>systeminfo</report>
<report>dmesg</report>
<report>systemlog</report>
<report>ftplog</report>
<report>rsynclog</report>
<report>sshdlog</report>
<report>smartdlog</report>
<report>daemonlog</report>
<report_scriptname/>
</statusreport>
-<shutdown>
<all_mins/>
<all_hours/>
<all_days/>
<all_months/>
<all_weekdays/>
<minute/>
<hour/>
<day/>
<month/>
<weekday/>
</shutdown>
-<reboot>
<all_mins/>
<all_hours/>
<all_days/>
<all_months/>
<all_weekdays/>
<minute/>
<hour/>
<day/>
<month/>
<weekday/>
</reboot>
-<cron>
-<job>
<uuid>26c4bf2b-bfb0-4d03-b2ad-d79da252af8d</uuid>
<desc>Monitor ZFS Health</desc>
<minute>30</minute>
<hour/>
<day/>
<month/>
<weekday/>
<all_mins>0</all_mins>
<all_hours>1</all_hours>
<all_days>1</all_days>
<all_months>1</all_months>
<all_weekdays>1</all_weekdays>
<who>root</who>
<command>/etc/healthcheck.zfs</command>
</job>
</cron>
<rc/>
-<websrv>
<protocol>http</protocol>
<port/>
<documentroot/>
<privatekey/>
<certificate/>
-<authentication>
-<url>
<uuid>9feabff2-dc8a-48d6-987a-dafe961e7680</uuid>
<path>/</path>
<realm>Webserver</realm>
</url>
</authentication>
</websrv>
-<smartd>
<interval>1800</interval>
<powermode>never</powermode>
-<temp>
<diff>0</diff>
<info>0</info>
<crit>0</crit>
</temp>
-<email>
<to/>
</email>
</smartd>
-<ad>
<domaincontrollername/>
<domainname_dns/>
<domainname_netbios/>
<username>Administrator</username>
<password/>
</ad>
-<ldap>
<hostname/>
<base/>
<anonymousbind/>
<binddn/>
<bindpw/>
<rootbinddn/>
<rootbindpw/>
<pam_password/>
<user_suffix/>
<group_suffix/>
<password_suffix/>
<machine_suffix/>
<auxparam>ldap_version 3</auxparam>
<auxparam>timelimit 30</auxparam>
<auxparam>bind_timelimit 30</auxparam>
<auxparam>bind_policy soft</auxparam>
<auxparam>pam_ldap_attribute uid</auxparam>
</ldap>
-<ups>
<upsname>ups1</upsname>
<shutdownmode>onbatt</shutdownmode>
<shutdowntimer>30</shutdowntimer>
-<email>
<to/>
<subject>UPS notification from %h</subject>
</email>
<ups2_upsname>ups2</ups2_upsname>
</ups>
-<tftpd>
<dir/>
<extraoptions/>
<port/>
<username>nobody</username>
<umask/>
<timeout/>
<maxblocksize/>
</tftpd>
-<lcdproc>
<driver>hd44780</driver>
<port>13666</port>
<waittime>10</waittime>
<titlespeed>10</titlespeed>
<param># USB connected HD44780 based LCD</param>
<param>ConnectionType=lcd2usb</param>
<param>Contrast=825</param>
<param>Brightness=4</param>
<param>OffBrightness=0</param>
<param>Keypad=yes</param>
<param>Backlight=yes</param>
<param>Size=20x4</param>
<param>KeyDirect_1=Enter</param>
<param>KeyDirect_2=Down</param>
<param>KeyDirect_3=Escape</param>
-<lcdproc>
<param>[CPU]</param>
<param>Active=True</param>
<param>OnTime=1</param>
<param>OffTime=2</param>
<param>ShowInvisible=false</param>
<param>[Iface]</param>
<param>Active=True</param>
<param>Interface0=re0</param>
<param>Alias0=LAN</param>
<param>#Interface1=em0</param>
<param>#Alias1=WAN</param>
<param>[Iface]</param>
<param>Active=True</param>
<param>Interface0=re0</param>
<param>Alias0=LAN</param>
<param>#Interface1=em0</param>
<param>#Alias1=WAN</param>
<param>#Interface2=em1</param>
<param>#Alias2=MGMT</param>
<param>unit=bit</param>
<param>#transfer=TRUE</param>
<param>[Memory]</param>
<param>Active=True</param>
<param>[Load]</param>
<param>Active=True</param>
<param>LowLoad=0.05</param>
<param>HighLoad=1.3</param>
<param>[TimeDate]</param>
<param>Active=True</param>
<param>TimeFormat="%H:%M:%S"</param>
<param>DateFormat="%x"</param>
<param>[About]</param>
<param>Active=false</param>
<param>[SMP-CPU]</param>
<param>Active=false</param>
<param>[OldTime]</param>
<param>Active=false</param>
<param>TimeFormat="%H:%M:%S"</param>
<param>DateFormat="%x"</param>
<param>[BigClock]</param>
<param>Active=false</param>
<param>[Uptime]</param>
<param>Active=false</param>
<param>[Battery]</param>
<param>Active=false</param>
<param>[CPUGraph]</param>
<param>Active=false</param>
<param>[ProcSize]</param>
<param>Active=false</param>
<param>[Disk]</param>
<param>Active=false</param>
<param>[MiniClock]</param>
<param>Active=false</param>
<param>TimeFormat="%H:%M"</param>
</lcdproc>
</lcdproc>
<rrdgraphs/>
-<vbox>
<homedir/>
</vbox>
<lastconfigbackup>1552206851</lastconfigbackup>
</xigmanas>
Re: Raid Z upgrade
Posted: 11 Mar 2019 19:42
by sleid
C'est comme vous le voulez, clé usb ou ssd c'est blanc bonnet ou bonnet blanc, en embedded tout le système tourne en mémoire vive, c'est pour cela qu'en général c'est lors d'un redémarrage que l'on s'aperçoit que la clé ou le disque est corrompu ou hs.
ça joue sur le chargement au démarrage uniquement, après ça tourne en ram.
Si vous avez utilisé USBimageTool c'est facile de faire une image de la clé et de la restaurer au besoin; c'est nettement plus lourd avec un ssd
Mais la question initiale était:
"J'ai un raid z 1 de trois HDD 1 To.
pour un besoin de place je voudrais augmenter l'espace disque.
Juste pour être sur est-il possible d'augmenter la taille du raid par substitution de disque de 1 To par des disques de capacité supérieur sans perte de données?"
êtes-vous prêt ?
Vous avez les nouveaux disques?
Re: Raid Z upgrade
Posted: 11 Mar 2019 22:50
by Inlitha
Oui, j'ai les disques sous la main.
Mais je ne sais si c'est tout a fait normal que je ne retrouve pas de périphérique virtuel.
voici le status pool
Status pool.JPG
et ce malgré la mise a niveaux du pool
Re: Raid Z upgrade
Posted: 12 Mar 2019 06:53
by sleid
raidz1-0 est le périphérique virtuel.
ZFS signale maintenant les disques qui ne sont pas configurés sur leur taille de bloc native.
C'est EXTREMEMENT déconseillé (mais pas impossible) de remplacer des disques configurés avec des blocksize de 512 par des disques natif 4K.
Donc pour continuer il faudrait savoir si vous avez une sauvegarde de vos données.
Re: Raid Z upgrade
Posted: 12 Mar 2019 14:13
by Inlitha
Est ce dangereux que la taille des blocs n'est pas native.
Si c'est dangereux, est ce que l'on pourra mixer les tailles de blocs de disques avec les nouveaux disques ou alors comment faire pour limiter au maximum les risques de perte de données.
512 correspondait à la config de l'époque.
Par contre je n'ai pas de sauvegarde.
Re: Raid Z upgrade
Posted: 13 Mar 2019 07:26
by sleid
"Est ce dangereux que la taille des blocs n'est pas native."
Non mais cela peut influer sur les performances.
"Si c'est dangereux, est ce que l'on pourra mixer les tailles de blocs de disques avec les nouveaux disques ou alors comment faire pour limiter au maximum les risques de perte de données."
Lors du remplacement de disque ZFS utilisera la même configuration, de toute façon il suffit de regarder le fonctionnement après le premier remplacement de disque.
Si vous avez 3 ports sata de disponibles sur votre configuration l’idéal serait de recréer un nouveau pool et de copier l'ancien sur le nouveau.
Sinon il faut faire l'opération disque par disque.
Aller dans Disques > Gestion > Gestion des disques et faire une copie d'écran avec les n° de série des disques, c'est bien pratique pour les retrouver physiquement et cela évite des erreurs catastrophiques.
Première chose à faire c'est de passer autoexpand à ON autrement il faudra agir sur chaque disque avec online -e
zpool set autoexpand=on Tank1
Ensuite on met "offline" le premier disque
zpool offline Tank1 /dev/ada0
Le résultat doit être quelque chose comme 12221923426360741047 was ada0 ou /dev/ada0
vous notez ce nombre qui est la représentation dans le système zfs de ada0.
Vous arrêtez votre nas, vous changez votre disque puis vous remettez en marche votre nas.
(SURTOUT NE VOUS TROMPEZ PAS DE DISQUE !!)
Maintenant il faut faire le remplacement logique du disque
zpool replace Tank1 12221923426360741047 /dev/ada0
Le pool va se reconstruire, cela peut être long, soyez patient surtout que ça démarre lentement.
Le pool ne prendra sa nouvelle capacité qu'après le "resilvering" du dernier disque.
Bon courage!
Re: Raid Z upgrade
Posted: 21 Mar 2019 00:59
by Inlitha
Voilà, je suis arrivé à upgrader à la dernière version stable de Xigmanas,
j'ai changer mes 3 disques, effectivement c'est long, mais ça fonctionne, il a fallut compter 14 heures pour chaque disque.
Et pour cette aide, je vous dis un grand merci
Il reste quelques réglages, et la remise en place du SSD pour le système qui est pour l'instant sur clé. Y a t'il une manip spécial? car je cite : "c'est nettement plus lourd avec un ssd"
Et, j’ai un soucis d’envoi des rapports par mail.
Merci les pros

Re: Raid Z upgrade
Posted: 21 Mar 2019 05:37
by sleid
Inlitha wrote: ↑21 Mar 2019 00:59
Et, j’ai un soucis d’envoi des rapports par mail.
Quel soucis ?
Re: Raid Z upgrade
Posted: 22 Mar 2019 18:15
by Inlitha
Mon soucis: voilà le journal, et ne n'arrive pas à l'interpréter.
msmtp: host=aspmx.l.google.com tls=on auth=on user=
j.pagneux@gmail.com from=
j.pagneux@gmail.com recipients=
j.pagneux@gmail.com,
jubejean@hotmail.com errormsg='cannot connect to aspmx.l.google.com, port 465: No route to host' exitcode=EX_TEMPFAIL
Ensuite : si j'arrête le serveur, le pool une remonte pas, je suis obliger de le faire manuellement. Y a t'il une manip a effectuer.
Re: Raid Z upgrade
Posted: 22 Mar 2019 22:24
by sleid
viewtopic.php?f=55&t=13710&p=84939&hilit=gmail#p84939
"je suis obliger de le faire manuellement" c'est à dire ?