This is the old XigmaNAS forum in read only mode,
it will taken offline by the end of march 2021!



I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!

[RESOLU] perte d'un pool (pour un autre !)

French community

Moderators: velivole18, ernie, mtiburs

Forum rules
Set-Up GuideFAQsForum Rules
Post Reply
User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

[RESOLU] perte d'un pool (pour un autre !)

Post by mtiburs »

Bonsoir,

Voici une mésaventure que je vais partager avec vous.
Le problème est en cours et je n'ai pas de solution pour l'instant, toutes idées et la bienvenue !

Condition de départ:
nas1: (2 disques en mirroir de 2To) machine en prod
nas6: récupère les MV le soir et me sert pour héberger ma MV perso (NFS)
nas7: idem nas6 sauf que ma MV est une sauvegarde (provenant du nas6)

Un jour, j'ai eu envie de mettre un disque de 2To sur le nas6 et de l'utiliser en iscsi comme 3ème disque du mirroir du nas1, dans le but de le réargenter, une sorte de sauvegarde mais en "blocs purs"
(donc, par attach et detach)

Le temps passe et j'abandonne l'idée de ce mirroir en iscsi et je mets à la place un autre disque sur le nas2 qui est remis à jour en rsync (je préfère en fait ne pas avoir de liaison-blocs, mais une liaison-fichiers, car je peux faire du backup ou ne pas prendre certaines choses)

Le temps passe encore un peu, et j'en oublie mon disque sur le nas6 (iscsi).

Hier, comme j'avais "trouvé bien" de pouvoir faire des synchro de ma config ZFS sur le webgui, j'en ai fais une et mon nas, avait retrouvé une config dans son webgui, ce n'est pas que çà me gênais mais bon ... c'est "plus propre".

Aujourd'hui, je voulais refaire marcher mon réseau1 (192.168.1.0) sur ce nas6 (je n'avais que le réseau0, soit 192.168.0.0).
La carte n'était pas vue donc pas possible de la configurer.
J'arrête "la bestiole" et je regarde la carte, rien de spécial, je déplace la carte sur un autre slot PCI et je redémarre, youpie, elle est vue !
Je vais dans le webgui et je lui demande d'affecter la carte a ce réseau, çà marche ! ... cool !
Sauf que quand je veux déclarer un partage NFS sur le réseau1, je m'aperçois que je n'ai plus le pool ! Je regarde mes câbles et je suppose qu'un des câbles SATA est mal mis (un peu de travers). J'ai du le toucher en bougeant la carte réseau.
Je redémarre et lors de mon ré-essai de config, je me retrouve avec les chemins du nas1 ! (pour info je ne me rapellais plus du tout que j'avais fais ce disque en iscsi qui est une copie bloc du nas1)
Là, je me demande ce qui se passe et ne comprend rien, je suis sur le nas6 et dans les chemins du webgui je suis sur le nas1 ! et si je regarde le pool je suis sur le nas6 !!!
Je me frotte les yeux, la tête, me pince, et je me dis que ce n'est pas moi qui vais devenir fou ! Il y a visiblement un mélange délirant entre le nas6 et la nas1. Je décide de lui mettre un "coup de bouillon de onze heures" à cette config démente.
Je passe au shell et j'exporte le pool (avant export, c'était pourtant bien le nas6), je passe en webgui, puis en config et je fais un synchro ZFS, l'opération ne passe pas (error .. qui dit)
J'essaie d'autres choses mais rien n'y fait !
Je refais une clef neuve.
Je la réinstalle sur le nas6, je démarre et je configure mon réseau0, puis je vais faire une synchroZFS, rien! toujours en erreur !
Bon, Je redémarre tout et passe cette fois directement en ligne de commande et je fais un zpool import ... et là, il me présente joyeusement, le pool du nas1 ! (et là cette fois je comprends car il y a deux autres dev qui sont en défaut, il a importé le pool du nas1 qui est un branche du mirroir)
Je me dis que ce n'est pas grave -avec un mauvais pressentiment quand même- car mon pool du nas6 n'est pas vu !
Je débranche le disque (iscsi/nas1) et je redémarre, cette fois, je n'ai que le disque du nas6, et là plus rien !
Les zpool import (même en mode récup de pool détruit), rien à faire ... le pool du nas6 a disparu !
Il ne me reste qu'une "dernière carte" avant d'écluser tout ce que je peux faire, mettre le disque sur un linux avec ZOL, pareil, rien !

Donc voilà, j'ai un disque de 2To qui est devenu vide !
Je ne sais plus quoi faire :shock:

Bon, ce n'est pas grave en soi car j'avais un double et que désormais c'est le nas7 qui a pris le relais (et le nas2 qui contient désormais la copie)

si des fois il y en a qui ont des idées pour lui faire recracher son pool
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

sleid
PowerUser
PowerUser
Posts: 774
Joined: 23 Jun 2012 07:36
Location: FRANCE LIMOUSIN CORREZE
Status: Offline

Re: perte d'un pool (pour un autre !)

Post by sleid »

"Aujourd'hui, je voulais refaire marcher mon réseau1 (192.168.1.0) sur ce nas6 (je n'avais que le réseau0, soit 192.168.0.0)."

Certes, pourquoi pas, mais avez vous pensé à changer la configuration du portail iscsi ?
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: perte d'un pool (pour un autre !)

Post by mtiburs »

Non, je n'ai pas eu le temps de le reconfigurer, et puis, ce n'est plus trop d'actualité: le disque (qui était en iscsi) ne m'intéresse plus (vu que je procède différemment)

Je me monopolise que sur le pool du nas6

Par contre, j'ai un message bizarre sur ce nas:
miibus1:mii_mediachg!can't handle non-zero PHY instance 1
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

sleid
PowerUser
PowerUser
Posts: 774
Joined: 23 Jun 2012 07:36
Location: FRANCE LIMOUSIN CORREZE
Status: Offline

Re: perte d'un pool (pour un autre !)

Post by sleid »

Problème entre le bus pci et un slot

Personnellement,je passe un coup de Trijelt 13E(sans publicité) sur mes contacts (mémoire, sata, slot de bus) avant de les peupler et ça solutionne beaucoup de problèmes car qu'on le veuille ou non les faibles courants mis en jeu et la qualité douteuse des contacts font que l'oxydation plus la poussière mènent à des comportements bizarres.
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: perte d'un pool (pour un autre !)

Post by mtiburs »

Vous êtes vraiment bon sleid !

C'est effectivement un problème de circuit.
Le soucis provient que j'utilise du matériel de 2 ou 3ème vie, et comme vous dites, il y a de la poussières et de l'oxydation sur les circuits, ce qui n'améliore pas les choses.

Pour l'instant, j'ai formaté le disque en iscsi et je me préoccupe en priorité de refaire une copie (une sorte de miroir manuel).

Pour l'autre disque, celui qui a le pool qui a disparu, je n'ai sais plus quoi faire, je suis "sec" coté idée.
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

sleid
PowerUser
PowerUser
Posts: 774
Joined: 23 Jun 2012 07:36
Location: FRANCE LIMOUSIN CORREZE
Status: Offline

Re: perte d'un pool (pour un autre !)

Post by sleid »

Les vieux ingénieurs sont ingénieux.....
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: perte d'un pool (pour un autre !)

Post by mtiburs »

Certains pas tous !

Pour moi, les ingénieurs "ingénieux" sont rares ;)
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

Post Reply

Return to “Français”