This is the old XigmaNAS forum in read only mode,
it will taken offline by the end of march 2021!



I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!

[RESOLU] ZFSKerntune

French community

Moderators: velivole18, ernie, mtiburs

Forum rules
Set-Up GuideFAQsForum Rules
Post Reply
User avatar
ernie
Forum Moderator
Forum Moderator
Posts: 1458
Joined: 26 Aug 2012 19:09
Location: France - Val d'Oise
Status: Offline

[RESOLU] ZFSKerntune

Post by ernie »

Hello

Quelqu un a t il testé cette extension ?
viewtopic.php?f=71&t=1278

Cela améliore la lecture des donnees du zfs
http://n4f.siftusystems.com/index.php/2 ... leshooting

Merci par avance
NAS 1&2:
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2

Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: ZFSKerntune

Post by mtiburs »

ernie wrote:Quelqu un a t il testé cette extension ?
viewtopic.php?f=71&t=1278

Cela améliore la lecture des donnees du zfs
http://n4f.siftusystems.com/index.php/2 ... leshooting
Salut,
Personnellement je n'ai pas essayé cette extension, mais il faut savoir qu'on peut tuner les paramètres de ZFS ou du kernel très facilement avec la commande sysctl.
C'est pas évident et on aime pas entendre certaines choses mais il faut voir déjà son matos avant:
- tes données sont en SATA ?
- ton Zcache est en quoi ? est-ce que le secondarycache est utilisé correctement lors des lectures ? (comment se comporte t'il par rapport au pool ?)
- quel type de données passeront (temps d'accès ou débits, ou les deux ?)

Si tu recherches a optimiser, c'est que tu distingues une "sous-performance", est-ce que tu l'as déjà cernée dans ta structure ?
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

User avatar
ernie
Forum Moderator
Forum Moderator
Posts: 1458
Joined: 26 Aug 2012 19:09
Location: France - Val d'Oise
Status: Offline

Re: ZFSKerntune

Post by ernie »

Je suis en sata, et oui je sais le sas c est mieux :)
J ai un secondary cache sur un Ssd sata. Comment savoir s il aide le pool ou au contraire cela le ralentit ?
Un Zcache en sata est il utile ?
Type de données : sauvegarde zrep (envoie de snapshots), vidéo via dlna.

Le but que je recherche est d optimiser au mieux le pool et zfs. Et aussi de faire potentiellement le tuto.
NAS 1&2:
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2

Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: ZFSKerntune

Post by mtiburs »

Le jeu de commande SATA est très restreint.
Le jeu de commande SAS peut gérer 64 commandes simultanément, de plus:
- la carte SAS possède un processeur et de la mémoire (une carte SAS2: un powerpc et de la DDR3 par exemple), elle regarde les blocs demandés et va aller chercher les données en fonction de la position des têtes, ce qui explique le fonctionnement un peu "mitrailleuse" des disques (alors que le SATA fait plutôt penser à une machine à coudre).
- la mémoire de la carte SAS passera par le PCIexpress en 4x ou 8x (bus "généralement" utilisé pour la vidéo)

Ce qu'il faut comprendre, c'est que ZFS va toujours chercher là oû c'est le plus rapide en se posant la question:
- est-ce dans la RAM ? (primarycache)
- est-ce dans le cache-résumé ? (secondarycache=none),
- est-ce dans le cache-(branches de l'arbreZFS) ? (secondarycache=metadata),
- est-ce dans le cache-(données) ? (secondarycache=all),
- est-ce dans le pool ?
Donc, si on veut que le système aille vite, il faut donner à ZFS un Zcache véloce, car quelquefois il va se dire:
"Bon, le cache est occupé, et j'aurai plus vite fait d'aller chercher mes données dans le pool directement".

Un Zcache peut être en
- primarycache=none (une clé usb ... si si!)
- primarycache=metadata (un petit SSD qu'on ne veut pas user ou du SAS)
- primarycache=all (un SSD ou du SAS)

Le point fort du SSD est le temps d'accès, un peu le débit, et, la consommation.
Le point faible du SSD est l'usure des cellules (compensé par le TRIM mais si on passe 100Go par jour dans son SSD çà ne va pas trop lui plaire, en plus, chaque fois que ZFS est arrêté, tout le Zcache est perdu (volonté délibérée des barbus)
Le point fort du SAS est le débit (130m/s réel avec un disque d'occase à 5/15 euros ! (15000tr/min) ou genre avec 6 Seagate Cheetah en 15K7, on peut copier l'équivalent d'un DVD de 4,5Go en 3 sec (je parle de réalité, du vécu, au bout de 3 secondes la copie est belle est bien finie)
Les disques SAS tournent à 15000tr/min et sont pro (peu de bruit et solides: fait pour des serveurs 24/24), ils sont deux à quatre fois plus lourd que les SATA mais chauffe deux fois plus.
Le point faible du SAS est le prix et le matos (câbles, etc) et la consommation. Ceci étant au lieu d'acheter une carte à 800 euros neuve, on peut trouver une estampillé"LSI" pour 15 ou 25 euros avec 256Mo de cache (genre perc/6i)
On peut mettre des disques SATA sur une carte SAS, ceci est une astuce pour bénéficier du cache de la carte (de 256Mo à 2Go) et de l'autoroute fait par le PCIexpress.
Pour info, en fouinant bien, j'ai pu monter pour 60 euros un ensemble SAS complet sur une carte mère ASRock combo en 775 qui me donne un débit de 465Mo/s en toutes circonstances (si je copie un fichier de 500Go, il transfert réellement à 465Mo/s ! (c'est même la carte mère qui limite les choses) Ce qui fait que sur cette carte mère ridicule, il tourne plusieurs MV sans soucis (en SATA, la led du disque s’allumerait constamment ... et ramerait comme un pauvre malheureux)

Le SATA peut avoir un débit théorique très bon et l'USB aussi, mais c'est la réalité qui compte, copier un fichier de 100Go ou 500Go va vite calmer les esprits les plus enthousiastes (ceux qui font des scrub avec çà regarde le débit plusieurs fois de suite, en ce disant "bin non ... c'est pas possible !" ... hé hé ... bin si !)
De plus en ZFS, si on met un Zcache en SATA, ce dernier va se retrouver au même niveau que le pool (même transit des données), donc, il y a de fortes chances que ZFS utilse le pool en premier.
Le juge de paix est un zpool status -v 1 lorsqu'on fait travailler ZFS, si on veut une machine ultra perfomante, au départ on admet qu'il lise dans le pool, mais après TOUT doit passer par le Zcache (le plus possible on va dire)
En fait, ZFS va réguler, entre le pool et le Zcache, si ce dernier est en SATA, alors il va picorer un peu partout, si on a 2 disques en miroir, il y a de forte chance pour que le Zcache ne soit pas du tout utilisé. Un Zcache sur un bon disque SATA ne sera pas lu sur un pool de 4 disques médiocres entrelacés

Pour savoir si son Zcache est bon, c'est simple, on fait un dd if=dev/zero of=/dev/ada1 bs=1M count=100000
et on regarde ce qui se passe
en Linux (liveCD), on peut utiliser hdparm -t /dev/sda par exemple (peut-être que sous N4F on peux installer hdparm)
ma meilleure performance a été de 1,5Go/s (de moyenne en réel sur 500Go) avec 8 disques en raid0 hard (pour info ZFS n'a pas besoin d'un dev fiable en Zcache, car il fait un checksum en sortie).

Perso, j'utilise mes pools en iscsi (donc lent puisqu'en réseau) et j'ai deux types de Zcache (SSD ou SAS), en SSD lors de la deuxième lecture ... c'est quasiment instantané (mon firefox tournant pourtant dans une MV stocké en iscsi)

Sinon, les choix ne sont pas toujours évident, car par exemple, on peut mettre un SSD sur un pool d'un disque de 2To, mais, pour le même prix on peut mettre un 2ème disque de 2To en miroir (ce qui doublera les accès) et augmentera la sécurité, et çà ce n'est pas négligeable.
Et ensuite on peut mettre le tout sur une carte SAS, et on a un pool performant et qui fera un scrub rapidement !
Donc, il faut tenir compte de plusieurs choses, mettre un SSD ne sera pas "magique" dans toutes les circonstances.

Prenons quatre config (à RAM identique):
1) un disque SATA de daube avec un superSSD
2) quatres disques SATA entrelacés
3) deux disques SATA sur une carte SAS
4) un seul disque SAS
Sur quelques demande répétitives de mêmes petits fichiers le 1 sera le meilleur, mais sur un scrub du pool, pour des copies monstrueuses ou pour des travaux lourds simultanés, le 4 sera le mieux même sans SSD !
De plus, et çà c'est très important, chaque fois que le pool est lu, ZFS charge le Zcache, donc, avoir un Zcache plus lent que ce qui vient du pool ne va pas l'aider dans sa tâche.

Bref, cela dépend surtout de ce que l'on veut faire en ZFS (... et aussi de ses moyens!)
Il n'y a pas vraiment de recette miracle, mais une bonne adaptation en fonction de son utilisation: un pauvre SATA peut suffire dans certains cas (mon nas principal n'a pas de Zcache et est en SATA), mais ma machine perso possède de multiples Zcache en SSD et SAS que j'alloue en fonction des utilisations (car le Zcache se met et s'enlève à volonté).

Pour en revenir à l'idée de départ de tuner ZFS, on peut peut-être améliorer un peu ... comme sur un 50cm3 quand on se couche pour aller plus vite :mrgreen:
Mais, j'essaierai quand même, par contre, je pense que savoir ce qu'il faut toucher ne sera pas évident.
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

User avatar
ernie
Forum Moderator
Forum Moderator
Posts: 1458
Joined: 26 Aug 2012 19:09
Location: France - Val d'Oise
Status: Offline

Re: ZFSKerntune

Post by ernie »

Plus claire notamment sur le rôle des cartes sas avec cette explication.
Je vais faire une belle lettre au Père Noël , sait on jamais :)
NAS 1&2:
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2

Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: ZFSKerntune

Post by mtiburs »

si tu veux, je peux t'en donner une, j'en avais acheté un lot de 10 ... pour 100 euros (perc6i avec 256Mo de RAM), avec les câbles, garantis 3 mois et sans frais de ports.
... mais y'en a plus en vente (c'était çà: http://www.monsieurcyberman.com/fr/1456 ... 13426.html
C'est un peu vieux, mais çà marche !

Celle là est nouvelle au catalogue et peu cher:
http://www.monsieurcyberman.com/fr/1831 ... 16472.html
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

User avatar
ernie
Forum Moderator
Forum Moderator
Posts: 1458
Joined: 26 Aug 2012 19:09
Location: France - Val d'Oise
Status: Offline

Re: ZFSKerntune

Post by ernie »

Je suis intéressé. Je te contacte par PM
NAS 1&2:
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2

Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: ZFSKerntune

Post by mtiburs »

pour info, le top du top en disque SAS (juste pour le plaisir des yeux):
http://www.materiel.net/disque-dur-pour ... 57279.html

un jour, j'en ai acheté 4 d'occase pour ce prix là (200euros)
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

Post Reply

Return to “Français”