Bonjour à tous,
J'ai un petit soucis !
Voici ma config:
1 serveur de MV sous Linux/Debian avec vbox
2 NAS/Nas4free avec chacun un disque de 2To mis à dispo en cîble iscsi
Le but est de pouvoir utiliser les disques de n'importe oû.
les deux disques forment un miroir ZFS, c'est à dire que coté serveur Linux j'ai un seul pool.
Mon soucis, est que chaque Nas4Free montent le pool au démarrage ! ils ne cherchent pas à savoir quoique ce soit, chacun est tout content de pouvoir monter une branche du miroir séparément.
Comment faire pour que Nas4Free, n'"importe" pas un pool, si il est déclaré en cible iscsi, je veux que çà soit mon serveur qui les monte, pas les nas ! (eux doivent juste proposer le dev en IP, c'est tout)
This is the old XigmaNAS forum in read only mode,
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
pb sur import de pool en iscsi
Moderators: velivole18, ernie, mtiburs
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
pb sur import de pool en iscsi
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: pb sur import de pool en iscsi
Bonjour,
Une piste sans certitudes vu que jamais essayée !!
ZFS n'importe pas le pool mais le voit dans les meta données et comme c'est un miroir rien n'empêche de le monter.
Donc il faut en empêcher le montage.
Dans /etc/vfstab il doit y avoir une entrée pour ce "pool" et il doit y avoir un moyen de la paramétrer à "non montable"
Une piste sans certitudes vu que jamais essayée !!
ZFS n'importe pas le pool mais le voit dans les meta données et comme c'est un miroir rien n'empêche de le monter.
Donc il faut en empêcher le montage.
Dans /etc/vfstab il doit y avoir une entrée pour ce "pool" et il doit y avoir un moyen de la paramétrer à "non montable"
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: pb sur import de pool en iscsi
Bonjour,
Une piste:
Pour info, ce pool n'avait jamais été monté sur cette machine, je n'ai jamais eu de soucis auparavant, il se trouve qu'il est bloqué dans un état plus que "scabreux", peut-être est-ce à cause de cela qu'il a été monté ?
root@bx:~# ./zx.sh
pool: xdd1000
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://zfsonlinux.org/msg/ZFS-8000-8A
scan: resilvered 410G in 7h51m with 2 errors on Sun Mar 6 12:43:07 2016
config:
NAME STATE READ WRITE CKSUM
xdd1000 DEGRADED 0 0 2
mirror-0 DEGRADED 0 0 4
sdi ONLINE 0 0 4
replacing-1 DEGRADED 4 0 0
2089812014539583568 FAULTED 0 0 0 was /dev/sdi
sdj ONLINE 0 0 4
cache
ata-Samsung_SSD_840_Series_S14LNEAD108448F-part4 ONLINE 0 0 0
errors: 2 data errors, use '-v' for a list
Il est bloqué dans le remplacement, et je me demande si le fait que le disque de remplacement soit le même que celui qui est actif, ne soit pas la source du bloquage.
sdi était sur le nas1
sdj était sur le nas6
Après le caffouillage du montage (que je ne voulais pas qu'il fasse), sdi a changé de place !, ce qui ne me facilite pas la tâche, car pour s'y retrouver, c'est pas facile !
actuellement:
sdi est sur le nas6
sdj est sur le nas1 (je voudrais supprimer ce disque du pool)
Pour info, mes données sont sauvegardées avec rsync et je vais sans doute tout revoir, mais j'aurais voulu "comprendre", sinon, je le laisserai monter le pool sur le nas6, et je recréerai un pool sur mon serveur (une branche puis ensuite je formaterai le disque du nas6 est l'"attacherai" au pool du serveur.
Il ni y'à aucun fichier commençant par "v" !sleid wrote:Une piste sans certitudes vu que jamais essayée !!
ZFS n'importe pas le pool mais le voit dans les meta données et comme c'est un miroir rien n'empêche de le monter.
Donc il faut en empêcher le montage.
Dans /etc/vfstab il doit y avoir une entrée pour ce "pool" et il doit y avoir un moyen de la paramétrer à "non montable"
Une piste:
Pour info, ce pool n'avait jamais été monté sur cette machine, je n'ai jamais eu de soucis auparavant, il se trouve qu'il est bloqué dans un état plus que "scabreux", peut-être est-ce à cause de cela qu'il a été monté ?
root@bx:~# ./zx.sh
pool: xdd1000
state: DEGRADED
status: One or more devices has experienced an error resulting in data
corruption. Applications may be affected.
action: Restore the file in question if possible. Otherwise restore the
entire pool from backup.
see: http://zfsonlinux.org/msg/ZFS-8000-8A
scan: resilvered 410G in 7h51m with 2 errors on Sun Mar 6 12:43:07 2016
config:
NAME STATE READ WRITE CKSUM
xdd1000 DEGRADED 0 0 2
mirror-0 DEGRADED 0 0 4
sdi ONLINE 0 0 4
replacing-1 DEGRADED 4 0 0
2089812014539583568 FAULTED 0 0 0 was /dev/sdi
sdj ONLINE 0 0 4
cache
ata-Samsung_SSD_840_Series_S14LNEAD108448F-part4 ONLINE 0 0 0
errors: 2 data errors, use '-v' for a list
Il est bloqué dans le remplacement, et je me demande si le fait que le disque de remplacement soit le même que celui qui est actif, ne soit pas la source du bloquage.
sdi était sur le nas1
sdj était sur le nas6
Après le caffouillage du montage (que je ne voulais pas qu'il fasse), sdi a changé de place !, ce qui ne me facilite pas la tâche, car pour s'y retrouver, c'est pas facile !
actuellement:
sdi est sur le nas6
sdj est sur le nas1 (je voudrais supprimer ce disque du pool)
Pour info, mes données sont sauvegardées avec rsync et je vais sans doute tout revoir, mais j'aurais voulu "comprendre", sinon, je le laisserai monter le pool sur le nas6, et je recréerai un pool sur mon serveur (une branche puis ensuite je formaterai le disque du nas6 est l'"attacherai" au pool du serveur.
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: pb sur import de pool en iscsi
Exact, c'est sous solaris.... désolé pour la confusion.
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: pb sur import de pool en iscsi
pô grâve ! merci quand même 
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: pb sur import de pool en iscsi
Il y a un truc bizarre:
si je fais:
root@bx:~# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
ddd146 272G 80,0G 192G - 24% 29% 1.00x ONLINE -
vn6d2000C 1,81T 923G 933G - 35% 49% 2.59x ONLINE -
xdd1000 928G 411G 517G 16,0E 21% 44% 1.00x DEGRADED -
c'est quoi ce 16,0E ?
si je fais:
root@bx:~# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
ddd146 272G 80,0G 192G - 24% 29% 1.00x ONLINE -
vn6d2000C 1,81T 923G 933G - 35% 49% 2.59x ONLINE -
xdd1000 928G 411G 517G 16,0E 21% 44% 1.00x DEGRADED -
c'est quoi ce 16,0E ?
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
-
sleid
- PowerUser

- Posts: 774
- Joined: 23 Jun 2012 07:36
- Location: FRANCE LIMOUSIN CORREZE
- Status: Offline
Re: pb sur import de pool en iscsi
Et un zpool history ça dit quoi?
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: pb sur import de pool en iscsi
aucune trace dans les 2 nas qui font cible iscsi
et rien non plus dans le serveur de MV
on dirait que le zpool history ne prend en compte que les commandes tapées (exempté les snapshots)
et rien non plus dans le serveur de MV
on dirait que le zpool history ne prend en compte que les commandes tapées (exempté les snapshots)
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"