This is the old XigmaNAS forum in read only mode,
it will taken offline by the end of march 2021!



I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!

[resolu]y a t-il un problème de disque ?

French community

Moderators: velivole18, ernie, mtiburs

Forum rules
Set-Up GuideFAQsForum Rules
Post Reply
User avatar
lulu80
PowerUser
PowerUser
Posts: 763
Joined: 15 Jun 2014 12:15
Location: France-(Picardie 80)
Contact:
Status: Offline

[resolu]y a t-il un problème de disque ?

Post by lulu80 »

bonjour ,
j'ai un doute sur le fonctionnement de mes disques quelqu'un qui pourrait me dire ,en regardent cette capture ?
apparemment sa viendrais du dd5 et dd7
:arrow: http://cjoint.com/?3LrnMpkVYTM merci

edit: j'édit mon post pour la raison que je vient de m'apercevoir que le dd cache ada7 avait pris la place d'un des hdd qui sont en striping ada9
pourquoi je sais pas :oops: il doit avoir une raison ,j'ai donc fait une réimportation des disques puis une synchro et tous et rentrer dans l'ordre
pour le ada5 c'était le cable qui ne tient pas bien enclencher sur la carte pci (sa c'est pas le top) .
donc dite moi si fait se qu'il faut ?
Last edited by lulu80 on 02 Jun 2015 19:18, edited 1 time in total.
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: y a t-il un problème de disque ?

Post by mtiburs »

Bonjour,

ça pourrait être pas mal de faire un zpool status ;-)
c'est moins "graphique" ... mais plus parlant.
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

User avatar
lulu80
PowerUser
PowerUser
Posts: 763
Joined: 15 Jun 2014 12:15
Location: France-(Picardie 80)
Contact:
Status: Offline

Re: y a t-il un problème de disque ?

Post by lulu80 »

bonsoir ,
voila zpool status ,mais je comprend toujours pas se qui a pu se passer ?
zpool status.PNG
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: y a t-il un problème de disque ?

Post by mtiburs »

Je suppose que le ada7 est le Zcache du pool disque2 :?:

Si oui, je ferais:
zpool remove disque1 /dev/ada5
vérif avec zpool status que le cache est bien partit
zpool export disque1
zpool export disque2
reboot de la machine
effacement et importation des disques dans le webgui
zpool import -a (ou zpool import disque1, puis zpool import disque2)
vérif avec zpool status
synchro dans le webgui des éléments ZFS (Disques|ZFS|Configuration|Synchroniser)
zpool add disque1 cache /dev/ada5 (ne pas oublier cache sinon, c'est la cata, il va stripper le SSD avec disque1)
zpool add disque2 cache /dev/ada7
et encore une synchro et là c'est des bases saines ... normalement 8-)

Normalement, on peut faire plus simple, mais je pense qu'il faut qu'il prenne bien les uuid
Last edited by mtiburs on 18 Dec 2014 22:39, edited 2 times in total.
Reason: correction /dev/ad5 par /dev/ada5
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

User avatar
lulu80
PowerUser
PowerUser
Posts: 763
Joined: 15 Jun 2014 12:15
Location: France-(Picardie 80)
Contact:
Status: Offline

Re: y a t-il un problème de disque ?

Post by lulu80 »

merci mtiburs....je fait cela demain matin
oui le ada7 et le cache du pool disque2 ,mais je le déplace en renfort du ada5 sur pool1 quand je déplace plus de 100 Go de fichier .
Ils sont réglé en secondarycache=metadata et le primarycache=all sinon ils se remplisse trop vite , mais bon les déplacements de plus
de 100Go sont rare donc je ne peut pas trop affiné les réglages .
il ya aussi ma carte pci sata qui n'ai pas encore un achat rentable je pense ? >> http://www.ebay.fr/itm/170771162962?ssP ... 1439.l2649 le débit de la carte doit joué beaucoup aussi dans les déplacements de gros fichier ?
voilà je fait celà demain
bonne soirée
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: y a t-il un problème de disque ?

Post by mtiburs »

oui, il faut laisser le secondarycache sur metadata, car le cache serait intéressant si on relisait les données, mais dans le cas de déplacement de beaucoup de données, c'est inutile ... juste bon a user le SSD

Je voudrais dans un avenir très proche mettre en place des boutons sur des pages html/php hébergées sur le nas. Cela pourrait être intéressant dans le cas présent, car on pourrait imaginer un bouton pour mettre le SSD1 (ada5) sur disque1 ou disque2 ;-) et idem pour le le SSD2 (ada7), comme çà cela pourrait se faire facilement et à la volée, car ce genre de commande peut se faire n'importe quand.
Ou alors, faire un script qui détecte quel est le pool le plus sollicité et passer le Zcache dessus (mais du coup la bascule n'est pas très simple a gérer: :roll: tempo, seuil ?)

Mais pour moi l'idée la meilleur serait la suivante: créer 2 fichier pour chaque SSD (ufs ou ext2, le plus rapide, pour le solidité on s'en fout car ZFS teste toujours les données par des checksum, c'est pour çà qu'il y a qu'un dev en Zcache ou alors en strip, alors qu'un Zlog est mirroré)
Un cache en secondarycache=metadata ou none (dans le cas ou un Zcache est crée, "none" veut dire "au strict minimum") n'est pas énorme, donc, normalement pas de soucis pour le couper en deux.
Créer le Zcache de cette façon:
(adapter les noms, moi j'ai mis a ou b pour faire court, mais çà joue dans le rendu d'un zpool iostat -v ou zpool status)
mkdir /mnt/ssd1
dd if=/dev/zero of=/mnt/ssd1/ssd1a bs=1M count=15267
(mettre 15266 si besoin, le but est de faire taille/2 )
dd if=/dev/zero of=/mnt/ssd1/ssd1b bs=1M count=15267
faire la même chose pour le SSD2 8-)
puis, on affecte les Zcache provenant de chaque SSD:
zpool add disque1 cache /mnt/ssd1/ssd1a /mnt/ssd2/ssd2a
zpool add disque2 cache /mnt/ssd1/ssd1b /mnt/ssd2/ssd2b

De cette façon on éclate le cache en deux parties qui va se comporter comme un raid0 et le cache sera toujours opérationnel sans manoeuvre :ugeek:

Pour la carte, j'en ai déjà acheté, c'est très bien et pas cher pour des petites machines, mais c'est juste les chipsets nécessaires pour que çà fonctionne; sans plus ... c'est quelconque en performance (j'en ai une dans mon nas perso qui est une intelD510 et qui marche en strip (3x2To) depuis des années)
Mais sur une machine qui aurait un PCI-express de libre, on peut faire mieux 8-) ... nettement mieux pour 7 euros de plus !

Pour les câbles SATA (généralement rouge), il faut toujours privilégier ceux avec la languette qui empêche le connecteur de ressortir.
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

Post Reply

Return to “Français”