This is the old XigmaNAS forum in read only mode,
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
[RESOLU] Zfs donnée disparue
Moderators: velivole18, ernie, mtiburs
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
[RESOLU] Zfs donnée disparue
Bonjour,
Mes données sur un pool zfs ont disparue, peut ont les récupérer et comment ? Merci par avance de vos réponses
Mes données sur un pool zfs ont disparue, peut ont les récupérer et comment ? Merci par avance de vos réponses
You do not have the required permissions to view the files attached to this post.
Last edited by lulu80 on 26 Feb 2017 14:44, edited 1 time in total.
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: Zfs donnée disparue
Bonjour Lulu,
Que dit un zpool history ?
Que dit un zpool history ?
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: Zfs donnée disparue
Bonjour mtiburs
sa dit
root@proliant:~# zpool history pool2
History for 'pool2':
2016-04-01.23:47:09 zpool create -m /mnt/pool2 pool2 raidz1 /dev/da4 /dev/da5 /dev/da6 /dev/da7
2016-04-02.00:02:33 zpool import -d /dev -f -a
2016-04-13.14:56:24 zpool import -d /dev/disk/by-id -aN
2016-04-14.11:12:45 zpool import -d /dev/disk/by-id -aN
2016-04-14.11:51:10 zpool import -d /dev/disk/by-id -aN
2016-04-14.22:01:45 zpool import -d /dev/disk/by-id -aN
2016-04-15.12:16:25 zpool import -d /dev/disk/by-id -aN
2016-04-15.13:59:24 zpool import -d /dev/disk/by-id -aN
2016-04-15.14:50:11 zfs set mountpoint=/mnt/pool2 pool2
2016-04-15.14:51:40 zpool export pool2
2016-04-15.14:52:09 zpool import pool2
2016-04-15.14:53:30 zpool export pool2
2016-04-15.14:53:50 zpool import pool2
2016-04-16.19:19:55 zpool import -d /dev/disk/by-id -aN
2016-04-16.19:21:50 zfs set mountpoint=/mnt/pool2 pool2
2016-04-16.19:23:16 zpool export pool2 pool3 pool4
2016-04-16.19:24:17 zpool import pool2
2016-04-29.20:06:37 zpool import -d /dev/disk/by-id -aN
2016-04-30.10:17:09 zpool import -d /dev/disk/by-id -aN
2016-04-30.13:52:00 zpool import -d /dev/disk/by-id -aN
2016-04-30.14:51:03 zfs set mountpoint=/mnt/pool2 pool2
2016-04-30.14:51:23 zpool export pool2
2016-04-30.14:51:45 zpool import pool2
2016-05-03.14:19:52 zpool import -d /dev/disk/by-id -aN
2016-05-03.14:21:22 zfs set mountpoint=/mnt/pool2 pool2
2016-05-03.14:21:41 zpool export pool2
2016-05-03.14:22:00 zpool import pool2
root@proliant:~#
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: Zfs donnée disparue
je ne vois rien d'anormal ... t'es sûr que t'as pas fais une manip à l'insu de ton propre plein gré
... je veux dire par la une manip "non-système", c'est à dire une manip "admin" qui, un jour pas comme un autre, fait qu'on peut faire des choses étranges sans en être vraiment conscient: çà peut paraitre drôle, mais çà m'est déjà arrivé ... et çà m'arrive encore.
Je veux dire par là éffacer des fichiers ou faire un rsync là oû il ne fallait pas, on peut se prémunir de se genre de choses avec les snapshots, c'est pour çà qu'au minimum avant toute modif "admin" sur un pool zfs, je fais snapshot genre pour toi zfs snapshot pool2@toto.
Si tu as des snapshots sous la main, regardes si tu peux les exploiter:
zfs list -t snapshot et si t'as un snapshot "toto", voir ce qu'il y a dedans avec cd /mnt/pool2/.zfs/toto
sinon, regardes le résultat de ces commandes pour voir si çà correspond à quelquechose pour toi:
que dit:
du -h -d 1 /mnt/pool2
df -h /mnt/pool2
zpool get all pool2
zdb -d pool2
zdb -C pool2
Je veux dire par là éffacer des fichiers ou faire un rsync là oû il ne fallait pas, on peut se prémunir de se genre de choses avec les snapshots, c'est pour çà qu'au minimum avant toute modif "admin" sur un pool zfs, je fais snapshot genre pour toi zfs snapshot pool2@toto.
Si tu as des snapshots sous la main, regardes si tu peux les exploiter:
zfs list -t snapshot et si t'as un snapshot "toto", voir ce qu'il y a dedans avec cd /mnt/pool2/.zfs/toto
sinon, regardes le résultat de ces commandes pour voir si çà correspond à quelquechose pour toi:
que dit:
du -h -d 1 /mnt/pool2
df -h /mnt/pool2
zpool get all pool2
zdb -d pool2
zdb -C pool2
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: Zfs donnée disparue
re
non rien fait de particulier
Mise à part mes test de processeur et en aucun cas j'ai touché ni envoyer de commande sur ce pool
et si je fait la commande "#du -h -d 1 /mnt/pool2" Je vois bien les répertoires mais ils sont vides
comment ont fait un export import du pool ?
non rien fait de particulier
et si je fait la commande "#du -h -d 1 /mnt/pool2" Je vois bien les répertoires mais ils sont vides
comment ont fait un export import du pool ?
You do not have the required permissions to view the files attached to this post.
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: Zfs donnée disparue
Tu vas faire la chose suivante:
zpool export pool2
ensuite tu fais: zpool list
ton pool ne doit plus être là
puis:
zpool import
là tu regardes ce que "vois" ZFS, c'est à dire voir si il y a bien qu'un pool2 à importer
puis pour 'l'importer:
zpool import pool2 ou zpool import -a (pour importer tout les pools qui trainent dans l'coin)
zpool export pool2
ensuite tu fais: zpool list
ton pool ne doit plus être là
puis:
zpool import
là tu regardes ce que "vois" ZFS, c'est à dire voir si il y a bien qu'un pool2 à importer
puis pour 'l'importer:
zpool import pool2 ou zpool import -a (pour importer tout les pools qui trainent dans l'coin)
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: Zfs donnée disparue
Code: Select all
root@proliant:~# zpool export pool2
root@proliant:~# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
pool3 136G 18,0G 118G - 5% 13% 1.00x ONLINE -
pool4 272G 892K 272G - 0% 0% 1.00x ONLINE -
root@proliant:~# zpool import
pool: pool2
id: 12125351649433686784
state: ONLINE
action: The pool can be imported using its name or numeric identifier.
config:
pool2 ONLINE
raidz1-0 ONLINE
sdf ONLINE
sdg ONLINE
sdh ONLINE
sdi ONLINE
root@proliant:~# zpool import pool2
cannot mount '/mnt/pool2': directory is not empty
root@proliant:~#root@proliant:~# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
pool2 1,09T 278G 834G - 5% 24% 1.00x ONLINE -
pool3 136G 18,0G 118G - 5% 13% 1.00x ONLINE -
pool4 272G 892K 272G - 0% 0% 1.00x ONLINE -
root@proliant:~#
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- ernie
- Forum Moderator

- Posts: 1458
- Joined: 26 Aug 2012 19:09
- Location: France - Val d'Oise
- Status: Offline
Re: Zfs donnée disparue
Hello
Utilise tu finch pour mettre Plex ? (Je parles de cela vu le nom des répertoires sur le pool
et des échanges passés)
Si non, Plex accède t il a tes données directement ou via des liens symboliques ? Ou via un répertoire nfs ?
Les données sont elles visibles via l explorer de nas4free ?
Beaucoup de question et les réponses aideront
Cdlt
Utilise tu finch pour mettre Plex ? (Je parles de cela vu le nom des répertoires sur le pool
Si non, Plex accède t il a tes données directement ou via des liens symboliques ? Ou via un répertoire nfs ?
Les données sont elles visibles via l explorer de nas4free ?
Beaucoup de question et les réponses aideront
Cdlt
NAS 1&2:
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2
Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2
Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: Zfs donnée disparue
le point de montage /mnt/pool2 pose un soucis
peux tu faire un ls -lh de /mnt/pool2
peux tu faire un ls -lh de /mnt/pool2
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: Zfs donnée disparue
Code: Select all
root@proliant:~# ls -lh de /mnt/pool2
ls: impossible d'accéder à de: Aucun fichier ou dossier de ce type
/mnt/pool2:
total 12K
drwxr-xr-x 2 root root 4,0K févr. 25 22:54 films
drwxr-xr-x 2 root root 4,0K févr. 25 22:54 musiques
drwxr-xr-x 2 root root 4,0K févr. 25 22:54 series
root@proliant:~#Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: Zfs donnée disparue
Je ne comprends pas, il dit qu'il n'y accède pas et affiche ce qu'il y a dedans
fait la commande suivante:
ls -lh /mnt
fait la commande suivante:
ls -lh /mnt
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: Zfs donnée disparue
Je modifie se post
code]root@proliant:~# ls -lh /mnt/pool2
total 12K
drwxr-xr-x 2 root root 4,0K févr. 25 22:54 films
drwxr-xr-x 2 root root 4,0K févr. 25 22:54 musiques
drwxr-xr-x 2 root root 4,0K févr. 25 22:54 series
root@proliant:~#
[/code]
code]root@proliant:~# ls -lh /mnt/pool2
total 12K
drwxr-xr-x 2 root root 4,0K févr. 25 22:54 films
drwxr-xr-x 2 root root 4,0K févr. 25 22:54 musiques
drwxr-xr-x 2 root root 4,0K févr. 25 22:54 series
root@proliant:~#
[/code]
Last edited by lulu80 on 26 Feb 2017 12:56, edited 1 time in total.
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: Zfs donnée disparue
J'ai compris la bourde !
En fait, je voulais mettre "peux tu faire un ls -lh du répertoire /mnt/pool2"
soit la commande
ls -lh /mnt/pool2
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: Zfs donnée disparue
Est-ce que t'as des soft qui utiliserait ce point de montage, si oui peux-tu les empêcher ?
Ensuite (au lieu de supprimer) on va "mettre de coté le point de montage"
c'est à dire faire un mv /mnt/pool2 /mnt/oldpool2 (ou autre)
le but est que ls -lh donne par la suite la non présence de pool2 dans /mnt et là, l'import ZFS fonctionnera
Ensuite (au lieu de supprimer) on va "mettre de coté le point de montage"
c'est à dire faire un mv /mnt/pool2 /mnt/oldpool2 (ou autre)
le but est que ls -lh donne par la suite la non présence de pool2 dans /mnt et là, l'import ZFS fonctionnera
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: Zfs donnée disparue
Tu veux dire des applications qui sont lié à mnt/pool2 ?
Parce que si oui ben tous et quasi relié à lui
Parce que si oui ben tous et quasi relié à lui
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: Zfs donnée disparue
Bin c'est là le soucis
Pour pouvoir ré-importer le pool2 il faut que /mnt/pool n'existe pas !
Il faut trouver le moyen de démarrer ton N4F sans /mnt/pool2, de façon à ce ZFS puisse monter son pool2 correctement (donc /mnt/pool2 existera cette fois) et qu'ensuite les softs puissent en faire usage à leur guise
Pour pouvoir ré-importer le pool2 il faut que /mnt/pool n'existe pas !
Il faut trouver le moyen de démarrer ton N4F sans /mnt/pool2, de façon à ce ZFS puisse monter son pool2 correctement (donc /mnt/pool2 existera cette fois) et qu'ensuite les softs puissent en faire usage à leur guise
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: Zfs donnée disparue
Et ton pb de départ, et sans lié à cela, tu crois voir un pool2 sans données, alors que le vrai pool2 de ZFS est caché par le système
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- ernie
- Forum Moderator

- Posts: 1458
- Joined: 26 Aug 2012 19:09
- Location: France - Val d'Oise
- Status: Offline
Re: Zfs donnée disparue
Je rejoins mtiburs : essaye de relancer ton serveur sans aucun service (machine virtuelle stoppée, pas de plex, etc).
Vois ce que cela donne, et tu solutionneras étape par étape
A+
Vois ce que cela donne, et tu solutionneras étape par étape
A+
NAS 1&2:
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2
Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2
Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: Zfs donnée disparue
bon maintenant quand je fait
Cela voudrait-il dire que le point a disparu ?
Ps : J’ai simplement était dans winscp puis supprimer pool2
Code: Select all
root@proliant:~# ls -lh de /mnt/pool2
ls: impossible d'accéder à de: Aucun fichier ou dossier de ce type
ls: impossible d'accéder à /mnt/pool2: Aucun fichier ou dossier de ce type
root@proliant:~#Ps : J’ai simplement était dans winscp puis supprimer pool2
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: Zfs donnée disparue
YESS !!!
Maintenant Cela fonctionne !! Il suffisait de supprimer le pool2 avec "winscp" ensuite de faire
Un "zpool import pool2"
tous et revenu
Merci à vous …je mets en résolu Ouf!
Un "zpool import pool2"
Merci à vous …je mets en résolu Ouf!
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- ernie
- Forum Moderator

- Posts: 1458
- Joined: 26 Aug 2012 19:09
- Location: France - Val d'Oise
- Status: Offline
Re: [Résolu]Zfs donnée disparue
Bonne nouvelle
NAS 1&2:
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2
Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2
Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)