This is the old XigmaNAS forum in read only mode,
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
[RESOLU]SSD .pour le système ?
Moderators: velivole18, ernie, mtiburs
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
[RESOLU]SSD .pour le système ?
bonjour ,
Serait-il intéressent de remplacer le HDD mécanique qui contient le système Nas4free par un SSD et ainsi gagner en vitesse de démarrage ? (je parle pour ceux qui ont des serveurs qui ne Tourne pas 24h/24h 7jours/7) de même pour le cache un ssd serait ils intéressent si oui comment l'installer ?
Serait-il intéressent de remplacer le HDD mécanique qui contient le système Nas4free par un SSD et ainsi gagner en vitesse de démarrage ? (je parle pour ceux qui ont des serveurs qui ne Tourne pas 24h/24h 7jours/7) de même pour le cache un ssd serait ils intéressent si oui comment l'installer ?
Last edited by lulu80 on 09 Oct 2014 21:29, edited 2 times in total.
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: SSD .pour le système ?
bonjour,
je vient de recevoir mon SSD 32 Go SATA III pour mettre mon système nas4free dessus , et je voudrait savoir comment faire l'échange entre le HDD et le SSD
quelqu'un a t il déjà fait cela ? (je pense que oui)
merci
je vient de recevoir mon SSD 32 Go SATA III pour mettre mon système nas4free dessus , et je voudrait savoir comment faire l'échange entre le HDD et le SSD
quelqu'un a t il déjà fait cela ? (je pense que oui)
merci
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
-
laster13
- PowerUser

- Posts: 995
- Joined: 01 Jun 2013 19:15
- Location: France-Marseille
- Status: Offline
Re: SSD .pour le système ?
Je suis pas certain... à confirmer
Je pense que tu peux installer nas4free dessus et recopier toutes les lignes de commande qu ils y a dans script commandes, notamment concernant finch et ca devrait le faire!
Finch est installé sur le pool donc lui et ses jails ne seront pas touchées!
Je pense que tu peux installer nas4free dessus et recopier toutes les lignes de commande qu ils y a dans script commandes, notamment concernant finch et ca devrait le faire!
Finch est installé sur le pool donc lui et ses jails ne seront pas touchées!
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: SSD .pour le système ?
merci laster13laster13 wrote:Je suis pas certain... à confirmer
Je pense que tu peux installer nas4free dessus et recopier toutes les lignes de commande qu ils y a dans script commandes, notamment concernant finch et ca devrait le faire!
Finch est installé sur le pool donc lui et ses jails ne seront pas touchées!
si je fait une sauvegarde de la configuration ,va tel me prendre les scripts de commandes ? de façon que si je réinstalle nas4free ,
après je récupère mon port et mon ip local, donc de cette façon je rétabli les liens avec les autres applications
sa fera comme quand j'ai eu une coupure de courant non ??
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
-
laster13
- PowerUser

- Posts: 995
- Joined: 01 Jun 2013 19:15
- Location: France-Marseille
- Status: Offline
Re: SSD .pour le système ?
Oui aussi
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: SSD .pour le système ?
re,
je vient de regarder dans le fichier de configuration de la console webgui et je crois quel prend les commande des scripts
mais elle prend aussi la configuration des HDD donc je pense que si je la remet en place après elle va pas trouver le HDD système
puisqu'il sera remplacer par le SSD ??
si quelqu'un passe des fois et qui a déjà fait cette manip
je vient de regarder dans le fichier de configuration de la console webgui et je crois quel prend les commande des scripts
mais elle prend aussi la configuration des HDD donc je pense que si je la remet en place après elle va pas trouver le HDD système
puisqu'il sera remplacer par le SSD ??
si quelqu'un passe des fois et qui a déjà fait cette manip
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
-
laster13
- PowerUser

- Posts: 995
- Joined: 01 Jun 2013 19:15
- Location: France-Marseille
- Status: Offline
Re: SSD .pour le système ?
Bonjour
Débranche ton disque système et remplace le par le ssd. Réinstalle nas4free et reconfigure le zfs sans formatage bien sur. tu reimplantes les commandes en postinit de finch dans Système|Avancé|Scripts de commande et ça devrait rouler! tu devrais retrouver toutes tes données!
Débranche ton disque système et remplace le par le ssd. Réinstalle nas4free et reconfigure le zfs sans formatage bien sur. tu reimplantes les commandes en postinit de finch dans Système|Avancé|Scripts de commande et ça devrait rouler! tu devrais retrouver toutes tes données!
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: SSD .pour le système ?
bonjour ,laster13laster13 wrote:Bonjour
Débranche ton disque système et remplace le par le ssd. Réinstalle nas4free et reconfigure le zfs sans formatage bien sur. tu reimplantes les commandes en postinit de finch dans Système|Avancé|Scripts de commande et ça devrait rouler! tu devrais retrouver toutes tes données!
bon ,, j'ai pas fait se que tu ma dit de faire
alors ,j'ai débrancher le HDD > brancher a la place le SSD
j'ai booté sur le cd nas4free ,ensuite récupérer mon ip avec l'option 2 de la console et de là j'ai pris la main depuis la console Webgui
de la je me suis diriger vers "système">"sauvegarde et restauration" dans la page j'ai pris restauration "parcourir" récupérer mon fichier de sauvegarde
puis "restaurer la configuration" jusque là tous va bien
mais en allant dans "disques"
la configuration ad0 , don la petite "croix Rouge" puis "appliquer les modifications" ensuite "importer des disques" mon SSD et apparu donc bien reconnu par le système (ad0;KingFast) j'ai renommé le disque comme SSD - système
+ performance Maximum (je sais pas si sa sert a quelque chose mais bon)
ensuite bien sur j'ai tester mes apps
voilà voilà
Last edited by lulu80 on 30 Oct 2014 17:45, edited 1 time in total.
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- ernie
- Forum Moderator

- Posts: 1458
- Joined: 26 Aug 2012 19:09
- Location: France - Val d'Oise
- Status: Offline
Re: SSD .pour le système ?
Hello
As tu réussi à mettre ton cache sur le ssd qui contient ton système ?
As tu réussi à mettre ton cache sur le ssd qui contient ton système ?
NAS 1&2:
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2
Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2
Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: SSD .pour le système ?
Bonjour
@lulu80
Tu en pense quoi finalement de mettre le SSD en disque système, ça améliore nettement les choses ?
@lulu80
Tu en pense quoi finalement de mettre le SSD en disque système, ça améliore nettement les choses ?
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: SSD .pour le système ?
bonsoir ,ernie wrote:Hello
As tu réussi à mettre ton cache sur le ssd qui contient ton système ?
pour le cache non , je sais que c'est possible mais pour la manip
par ailleurs sur le forum anglais il dise que pour que cela fonctionne correctement (d'après se que j'ai compris.... moi pour traduire
qu'il faut 16 Go en mémoire vive et de 128 à 256 Go SSD (conseiller) alors je pense que tu va pensé comme moi
A moins que je ne me trompe
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: SSD .pour le système ?
bonsoir ,mtiburs wrote:Bonjour
@lulu80
Tu en pense quoi finalement de mettre le SSD en disque système, ça améliore nettement les choses ?
ben je dirait franchement que pas trop non ,, si se n'ai que pas de problème mécanique ;bruit ;et ne chauffe pas
pour le démarrage que j'attendais
par contre j'ai trouver que les information arrive plus vite sur mes trois pcs ,après c'est peut être une impression que l'ont se fait sachant qu'il y a
un ssd sur le nas
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: SSD .pour le système ?
Alors pour le SSD, pour moi c'est important sur ZFS mais c'est a régler en fonction de ce qu'on fait passer dedans
Il faut pour cela utiliser la commande zpool iostat
Si le SSD est petit, il faut mettre le secondary cache à none
Si le SSD et moyen, il faut le mettre sur metadata
Si le SSD et gros, il faut le mettre sur all
la commande et pour le dernier cas: zfs set mypool secondarycache=all
en regardant, la taille du cache par zpool iostat, on en déduit immédiatement ce qui est bon ou pas.
Par exemple, j'avais monté un SSD de 500Go sur un N4F en prod avec 2 disques de 2To en mirroir, le SSD était remplit totalement au bout de 3 jours, c'est trop, je l'ai passé en metadata et c'était beaucoup mieux (ça l'use moins et les performances restent bonnes)
je vais dire un truc de ouf, des fois je fais des montages "ésotériques" qui vont faire lever des sourcils, j'ai 2 N4F avec 4Go de RAM en 775 et dual-core qui font de la déduplication, ça va pas vite mais je ne peux faire autrement, je mets 185Go par jour dessus !
Il m'arrive quelquefois de vouloir accélérer le zinzin, je prends des clef USB de 16Go et j'en mets 3, je mets toutes les clefs en cacheZFS mais surtout, je mets le secondarycache à none, surtout pas sur autre chose, et là, j'ai une utilisation correct des clefs, car ce qui est mis dedans est tout petit, le débit est de 3,5Mo/s en écriture, mais comme ça n'écrit quasiment rien, çà va, pour la lecture c'est 10 fois plus rapide. Ce qui est intéressant, c'est que le nombre d'opérations de lectures cache se chiffre en centaines d'opérations par seconde, le plus que j'ai est 1200 opérations par seconde (en moyenne 300 à 400).
Question fiabilité, aucun soucis, le cache est "checksumé", d'ailleurs il n'y a pas de conseil de mirroir ou autre ( a contrario du log qui doit être mirroré)
Sur un de mes N4F, une fois, j'ai pu mettre 9 clef de 16Go ! c'est d'ailleurs amusant de voir la led qui s'allume quand ça utilise une des clefs, on voit que c'est peu sollicité (en secondarycache à none)
Le cache peut être sur n'importe quoi, j'en ai fait un sur un disque iscsi qui provenait d'un disque RAM d'un linux ! ça marche très bien en plus ! là, c'est pareil, pas question de mettre all, sinon, ZFS verra son cache (réseau) plus lent que le pool et n'utilisera plus le cache.
J'utilise aussi quelquefois du RAMdisque sous linux en ZFS au détriment de la RAM pure, c'est volontaire, c'est pour garder les info en cache au lieu qu'elle disparaisse en cas de forte sollicitation de la RAM.
Donc, pas de soucis pour le cache SSD, il est utilisable même à 1Go de taille, mais en secondarycache
Perso, je repasserais le SSD en cache et je n'utiliserait plus le SSD en tant que disque système, à moins d'avoir les moyens de mettre un deuxième SSD
Avec un secondarycache bien réglé, ça marchera de façon optimale
Il faut pour cela utiliser la commande zpool iostat
Si le SSD est petit, il faut mettre le secondary cache à none
Si le SSD et moyen, il faut le mettre sur metadata
Si le SSD et gros, il faut le mettre sur all
la commande et pour le dernier cas: zfs set mypool secondarycache=all
en regardant, la taille du cache par zpool iostat, on en déduit immédiatement ce qui est bon ou pas.
Par exemple, j'avais monté un SSD de 500Go sur un N4F en prod avec 2 disques de 2To en mirroir, le SSD était remplit totalement au bout de 3 jours, c'est trop, je l'ai passé en metadata et c'était beaucoup mieux (ça l'use moins et les performances restent bonnes)
je vais dire un truc de ouf, des fois je fais des montages "ésotériques" qui vont faire lever des sourcils, j'ai 2 N4F avec 4Go de RAM en 775 et dual-core qui font de la déduplication, ça va pas vite mais je ne peux faire autrement, je mets 185Go par jour dessus !
Il m'arrive quelquefois de vouloir accélérer le zinzin, je prends des clef USB de 16Go et j'en mets 3, je mets toutes les clefs en cacheZFS mais surtout, je mets le secondarycache à none, surtout pas sur autre chose, et là, j'ai une utilisation correct des clefs, car ce qui est mis dedans est tout petit, le débit est de 3,5Mo/s en écriture, mais comme ça n'écrit quasiment rien, çà va, pour la lecture c'est 10 fois plus rapide. Ce qui est intéressant, c'est que le nombre d'opérations de lectures cache se chiffre en centaines d'opérations par seconde, le plus que j'ai est 1200 opérations par seconde (en moyenne 300 à 400).
Question fiabilité, aucun soucis, le cache est "checksumé", d'ailleurs il n'y a pas de conseil de mirroir ou autre ( a contrario du log qui doit être mirroré)
Sur un de mes N4F, une fois, j'ai pu mettre 9 clef de 16Go ! c'est d'ailleurs amusant de voir la led qui s'allume quand ça utilise une des clefs, on voit que c'est peu sollicité (en secondarycache à none)
Le cache peut être sur n'importe quoi, j'en ai fait un sur un disque iscsi qui provenait d'un disque RAM d'un linux ! ça marche très bien en plus ! là, c'est pareil, pas question de mettre all, sinon, ZFS verra son cache (réseau) plus lent que le pool et n'utilisera plus le cache.
J'utilise aussi quelquefois du RAMdisque sous linux en ZFS au détriment de la RAM pure, c'est volontaire, c'est pour garder les info en cache au lieu qu'elle disparaisse en cas de forte sollicitation de la RAM.
Donc, pas de soucis pour le cache SSD, il est utilisable même à 1Go de taille, mais en secondarycache
Perso, je repasserais le SSD en cache et je n'utiliserait plus le SSD en tant que disque système, à moins d'avoir les moyens de mettre un deuxième SSD
Avec un secondarycache bien réglé, ça marchera de façon optimale
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: SSD .pour le système ?
bonjour,
@ mtiburs..
Merci pour cette réponse
Pour ma part je serais plus partisan de partir sur un deuxième SSD vue le prix dérisoire (c'est du Ong Kong) le délai est long 20 jours , mais bon vue le prix sa vaut le cout d'attendre.
J'arrive quand même maintenant à des démarrages qui ne dépassent plus les 45 s (je sais je pinaille pour pas grand-chose
) .
Donc pour moi ça serait un petit 32 Go SATA III 6Go/s que je métrais pour le cache en "secondary cache à none".
J'ai bien compris aussi (dans le sujet de velivole18 "Comprendre les stats I/O de zfs") que le faite d'allumer et d'éteindre le nas favorise l'usure du SSD !
maintenant reste pour moi le plus dur! Savoir exactement ou me diriger avec les commande que tu me donne , la je suis hors jeux
@ mtiburs..
Merci pour cette réponse
Pour ma part je serais plus partisan de partir sur un deuxième SSD vue le prix dérisoire (c'est du Ong Kong) le délai est long 20 jours , mais bon vue le prix sa vaut le cout d'attendre.
J'arrive quand même maintenant à des démarrages qui ne dépassent plus les 45 s (je sais je pinaille pour pas grand-chose
Donc pour moi ça serait un petit 32 Go SATA III 6Go/s que je métrais pour le cache en "secondary cache à none".
J'ai bien compris aussi (dans le sujet de velivole18 "Comprendre les stats I/O de zfs") que le faite d'allumer et d'éteindre le nas favorise l'usure du SSD !
maintenant reste pour moi le plus dur! Savoir exactement ou me diriger avec les commande que tu me donne , la je suis hors jeux
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: SSD .pour le système ?
Onk Kong ... ou ... Hong-Kong ?
C'est un kingFast
Oui c'est vrai que les prix sont intéressant, coté sécurité il n'y pas beaucoup de risque, le cache est checksumé en sortie, donc, qu'il soit fiable ou pas, peu importe.
Avant, tu peux essayer les choses suivantes pour te familiariser avec le système, je te donne les commandes en "ligne de commande", je ne sais pas si ça existe sur le webgui (étant donné que N4F et Linux/ZOL sont identique coté ZFS, je ne fais tout qu'en ligne de commande).
Info: les commandes ci-dessous sont valables pour la totalité du pool ou pour un dataset, c'est ce qui est génial d'ailleurs, on peut compresser un dataset précis et ne pas compresser le pool, de même on peut enlever une compression de type lz4 en plein fonctionnement, ça ne pose aucun soucis, ce sont juste des attributs lié à des blocs.
Place toi en root et si tu as un pool appelé mypool, tu tapes
zfs get all mypool
Là, tu verras des informations, celles qui nous intéresse sont primarycache et secondarycache
Le primarycache est le cache en RAM, si il est à none, ZFS utilisera très peu de RAM (pour le cache), si il est à metadata, il utilisera un peu plus de RAM et, si il est à all, il stockera tout "ce qui passe" dans les transactions ZFS.
Le secondarycache est le cache disque, si il est à none, ZFS utilisera très peu de mémoire disque, si il est à metadata, il en utilisera un peu et, si il est à all, il stockera tout ce qui passe. Si le cache disque est important et que le disque est petit, il risque de remplir le cache (et vidage des données les plus anciennes) et du coup risque de ne pas retrouver la donnée dans le cache ... là c'est un comble !
L'idéal est all partout, mais l'idéal est aussi d'avoir plein de mémoire* et ce n'est pas toujours le cas.
Pour changer la valeur du primarycache, il faut faire par exemple:
zfs get primarycache=none mypool
essaie de mettre les deux à none, ensuite regarde le fonctionnement de ton N4F avec zpool iostat, tu ne risque rien, tu auras juste un fonctionnement le moins performant mais le moins gourmand en mémoire*.
Ensuite, fais l'essai avec metadata, puis all, sur le primary, sur le secondary et sur les deux.
Un secondarycache=all est super intéressant sur des pools distant (iscsi).
Après à toi de voir ce qui te conviens le mieux, ça dépend de tes disques et de ta RAM.
Mais en gros:
peu de mémoire*=none et beaucoup=all
Pour le topics de Velivole18, oui, c'est vrai, en fait, le cache de ZFS est totalement remis à zéro à chaque démarrage, c'est voulu car on considère qu'un nas tourne 24h/24h, y'à eu des discussion sur une éventuelle "garde" du cache mais pour l'instant, c'est vidé.
Donc, un cache en all qui est arrêté tous les jours fera beaucoup d'écritures dans les cellules, alors qu'en metadata ou none, fera peu d'écritures et comme le trim est activé, l'usure des cellules sera moins importantes
*mémoire: RAM ou disque dur/SSD
C'est un kingFast
Oui c'est vrai que les prix sont intéressant, coté sécurité il n'y pas beaucoup de risque, le cache est checksumé en sortie, donc, qu'il soit fiable ou pas, peu importe.
Avant, tu peux essayer les choses suivantes pour te familiariser avec le système, je te donne les commandes en "ligne de commande", je ne sais pas si ça existe sur le webgui (étant donné que N4F et Linux/ZOL sont identique coté ZFS, je ne fais tout qu'en ligne de commande).
Info: les commandes ci-dessous sont valables pour la totalité du pool ou pour un dataset, c'est ce qui est génial d'ailleurs, on peut compresser un dataset précis et ne pas compresser le pool, de même on peut enlever une compression de type lz4 en plein fonctionnement, ça ne pose aucun soucis, ce sont juste des attributs lié à des blocs.
Place toi en root et si tu as un pool appelé mypool, tu tapes
zfs get all mypool
Là, tu verras des informations, celles qui nous intéresse sont primarycache et secondarycache
Le primarycache est le cache en RAM, si il est à none, ZFS utilisera très peu de RAM (pour le cache), si il est à metadata, il utilisera un peu plus de RAM et, si il est à all, il stockera tout "ce qui passe" dans les transactions ZFS.
Le secondarycache est le cache disque, si il est à none, ZFS utilisera très peu de mémoire disque, si il est à metadata, il en utilisera un peu et, si il est à all, il stockera tout ce qui passe. Si le cache disque est important et que le disque est petit, il risque de remplir le cache (et vidage des données les plus anciennes) et du coup risque de ne pas retrouver la donnée dans le cache ... là c'est un comble !
L'idéal est all partout, mais l'idéal est aussi d'avoir plein de mémoire* et ce n'est pas toujours le cas.
Pour changer la valeur du primarycache, il faut faire par exemple:
zfs get primarycache=none mypool
essaie de mettre les deux à none, ensuite regarde le fonctionnement de ton N4F avec zpool iostat, tu ne risque rien, tu auras juste un fonctionnement le moins performant mais le moins gourmand en mémoire*.
Ensuite, fais l'essai avec metadata, puis all, sur le primary, sur le secondary et sur les deux.
Un secondarycache=all est super intéressant sur des pools distant (iscsi).
Après à toi de voir ce qui te conviens le mieux, ça dépend de tes disques et de ta RAM.
Mais en gros:
peu de mémoire*=none et beaucoup=all
Pour le topics de Velivole18, oui, c'est vrai, en fait, le cache de ZFS est totalement remis à zéro à chaque démarrage, c'est voulu car on considère qu'un nas tourne 24h/24h, y'à eu des discussion sur une éventuelle "garde" du cache mais pour l'instant, c'est vidé.
Donc, un cache en all qui est arrêté tous les jours fera beaucoup d'écritures dans les cellules, alors qu'en metadata ou none, fera peu d'écritures et comme le trim est activé, l'usure des cellules sera moins importantes
*mémoire: RAM ou disque dur/SSD
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: SSD .pour le système ?
Bonjour, mtiburs
*Hong-Kong
* kingFast > toute a fait sa oui et sa a l'aire de fonctionner pas mal pour l'instant .
j'ai commencer a regarder les commandes avec un peut d'Appréhension , toujours la peur de dérégler quelque chose
je me suis placer en root sur putty et entrer la commande "zfs get All disque1" pour moi
et là j'ai primarycache > secondarycache sont en "all" je tourne en ce moment avec 6 Go de RAM
mais question : ou va le secondarycache pour l'instant ? sur le SSD ou sa se passe sur le zfs ?
*Hong-Kong
* kingFast > toute a fait sa oui et sa a l'aire de fonctionner pas mal pour l'instant .
j'ai commencer a regarder les commandes avec un peut d'Appréhension , toujours la peur de dérégler quelque chose
je me suis placer en root sur putty et entrer la commande "zfs get All disque1" pour moi
et là j'ai primarycache > secondarycache sont en "all" je tourne en ce moment avec 6 Go de RAM
mais question : ou va le secondarycache pour l'instant ? sur le SSD ou sa se passe sur le zfs ?
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: SSD .pour le système ?
Pour l'instant, si tu n'as pas de cache ZFS (c'est à dire que si tu fais zpool status, tu ne dois avoir que ton pool disque1), ton secondarycache ne sert à rien, il est positionné à all mais n'est pas effectif.
Le cacheZFS peut être ajouté et retiré n'importe quand est au moment de n'importe quelles opérations, ceci est valable pour le log aussi.
Maintenant que tu sais voir les cache, on va modifier ces paramêtres sur un dataset, comme ça ce sera juste une partie du pool.
Crée un dataset disque1/test (dataset=jeu de données)
Ensuite tu fais zfs get all disque1/test
Et là tu fais:
zfs set secondarycache=none disque1/test
et
zfs set secondarycache=none disque1/test
(comme ça on ne touche pas au pool mais juste à /test du pool disque1)
ensuite un zfs get all pour voir si tout a été modifié (pour info, zfs est verbeux et la moindre erreur, se soldera par la liste de ce qu'il faut y mettre, si tu tapais par exemple zfs set secondarycache=non tu verras qu'il va "causer" et dire que pour cette option, c'est none,metadata ou all)
Ensuite fais l'essai de copier des données dans disque1 puis dans disque1/test en prenant soin de laisser sous tes yeux un zpool iostat -v 1 (ctrl-c pour stopper) et tu verras la différence (pour que cela soit valable, il faut faire des copie sur le double de la RAM, donc copier de 10 à 20Go de données)
Avec 6Go, je dirais metadata ou all en primarycache, all si tes données sont petites ou metadata si tu manipule des tailles de plusieurs dizaine de Go (des fochiers de MV par exemple), car les dernières infos vont "poussées" les autres dans le vide quand elles arriveront et l'effet cache perd son intérêt.
Quand tu auras ton SSD, tu peux refaire les même essai, mais au lieu d'arrêter ton nas a chaque fois (pour repartir d'un cache à 0), tu peux retirer le cacheZFS et le "remettre à chaud" directement (si tu gère tout en webgui, tu as la commande add cache ou un truc du genre dans la partie ZFS)
Sinon:
(si da1 correspond au SSD, pour cela bien identifier le SSD dans gestion/disques de la partie ZFS)
zpool add disque1 cache /dev/da1
zpool remove disque1 /dev/da1
Tu ne risque rien avec l'ajout d'un cache, le seul truc à faire est de bien choisir le bon disque quand tu ajoutes un cache et de le mettre en cache et non pas en entrelacé (stripping), pour enlever un disque de cache, là moins de risque car tu ne peux pas enlever le pool donc, la possibilité n'existe pas.
Voilà le genre de commande à ne pas faire:
zpool add disque1 /dev/da1 (en oubliant "cache" entre disque1 et /dev/da1), là dans le cas présent on additionne le SSD au pool disque1 est là c'est mort, impossible de revenir en arrière !!!
Il m'est déjà arrivé de mettre mon device en stripping au lieu du cache, c'est un peu con de faire un strip d'un disque de 2To avec une clef usb par exemple, là, on apprécie d'avoir un clône de son NAS. Pour rappel, un disque sur un pool ne peut pas être enlevé.
INFO: pour retrouver toutes les opérations ZFS, on peut taper zpool history et comme çà, on sait ce qui a été fait
Le cacheZFS peut être ajouté et retiré n'importe quand est au moment de n'importe quelles opérations, ceci est valable pour le log aussi.
Maintenant que tu sais voir les cache, on va modifier ces paramêtres sur un dataset, comme ça ce sera juste une partie du pool.
Crée un dataset disque1/test (dataset=jeu de données)
Ensuite tu fais zfs get all disque1/test
Et là tu fais:
zfs set secondarycache=none disque1/test
et
zfs set secondarycache=none disque1/test
(comme ça on ne touche pas au pool mais juste à /test du pool disque1)
ensuite un zfs get all pour voir si tout a été modifié (pour info, zfs est verbeux et la moindre erreur, se soldera par la liste de ce qu'il faut y mettre, si tu tapais par exemple zfs set secondarycache=non tu verras qu'il va "causer" et dire que pour cette option, c'est none,metadata ou all)
Ensuite fais l'essai de copier des données dans disque1 puis dans disque1/test en prenant soin de laisser sous tes yeux un zpool iostat -v 1 (ctrl-c pour stopper) et tu verras la différence (pour que cela soit valable, il faut faire des copie sur le double de la RAM, donc copier de 10 à 20Go de données)
Avec 6Go, je dirais metadata ou all en primarycache, all si tes données sont petites ou metadata si tu manipule des tailles de plusieurs dizaine de Go (des fochiers de MV par exemple), car les dernières infos vont "poussées" les autres dans le vide quand elles arriveront et l'effet cache perd son intérêt.
Quand tu auras ton SSD, tu peux refaire les même essai, mais au lieu d'arrêter ton nas a chaque fois (pour repartir d'un cache à 0), tu peux retirer le cacheZFS et le "remettre à chaud" directement (si tu gère tout en webgui, tu as la commande add cache ou un truc du genre dans la partie ZFS)
Sinon:
(si da1 correspond au SSD, pour cela bien identifier le SSD dans gestion/disques de la partie ZFS)
zpool add disque1 cache /dev/da1
zpool remove disque1 /dev/da1
Tu ne risque rien avec l'ajout d'un cache, le seul truc à faire est de bien choisir le bon disque quand tu ajoutes un cache et de le mettre en cache et non pas en entrelacé (stripping), pour enlever un disque de cache, là moins de risque car tu ne peux pas enlever le pool donc, la possibilité n'existe pas.
Voilà le genre de commande à ne pas faire:
zpool add disque1 /dev/da1 (en oubliant "cache" entre disque1 et /dev/da1), là dans le cas présent on additionne le SSD au pool disque1 est là c'est mort, impossible de revenir en arrière !!!
Il m'est déjà arrivé de mettre mon device en stripping au lieu du cache, c'est un peu con de faire un strip d'un disque de 2To avec une clef usb par exemple, là, on apprécie d'avoir un clône de son NAS. Pour rappel, un disque sur un pool ne peut pas être enlevé.
INFO: pour retrouver toutes les opérations ZFS, on peut taper zpool history et comme çà, on sait ce qui a été fait
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: SSD .pour le système ?
Au fait, si tu as un Linux, tu peux installer ZFS dessus (ZOL: ZfsOnLinux) ou ZFS-fuse, ZOL est comptaible N4F, ZFS fuse est moins bien, j'ai abandonné de l'utiliser
Comme ça tu faire des essais si tu as peur de toucher à ton nas
Tu crée des pool et tu peux jouer sans risques
Comme ça tu faire des essais si tu as peur de toucher à ton nas
Tu crée des pool et tu peux jouer sans risques
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: SSD .pour le système ?
bonjour,
bon le SSD suivant arrive dans le courant du mois d'octobre en attendant je voudrait bien m'apprendre a mettre en place se secondarycahe .
sur le pc linux mint 17 ,je ne trouve pas "ZfsOnLinux" il me donne que "Zfs-fuse" , j'ai bien trouver sur le net un "ZfsOnLinux" sur zfsonlinux.org >> zfs-0.6.3tar.gz
mais voilà comment ont l'exploite se fichier ?
bon le SSD suivant arrive dans le courant du mois d'octobre en attendant je voudrait bien m'apprendre a mettre en place se secondarycahe .
sur le pc linux mint 17 ,je ne trouve pas "ZfsOnLinux" il me donne que "Zfs-fuse" , j'ai bien trouver sur le net un "ZfsOnLinux" sur zfsonlinux.org >> zfs-0.6.3tar.gz
mais voilà comment ont l'exploite se fichier ?
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: SSD .pour le système ?
Salut,
Voici un copier de mes petites notes:
# cd /tmp/
# wget http://archive.zfsonlinux.org/debian/po ... zy_all.deb
# dpkg -i zfsonlinux_2~wheezy_all.deb
# apt-get update
# apt-get install debian-zfs
Voir si ça marhe ou s'adapter, ou alors regarder les forum
A priori, le lien du wget marche encore, donc une fois le fichier enregistré, il faut l'installer avec Gdebi par exemple (gui)
Voici un copier de mes petites notes:
# cd /tmp/
# wget http://archive.zfsonlinux.org/debian/po ... zy_all.deb
# dpkg -i zfsonlinux_2~wheezy_all.deb
# apt-get update
# apt-get install debian-zfs
Voir si ça marhe ou s'adapter, ou alors regarder les forum
A priori, le lien du wget marche encore, donc une fois le fichier enregistré, il faut l'installer avec Gdebi par exemple (gui)
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: SSD .pour le système ?
ZFS-fuse est compatible avec N4F mais au prix d'un "upgrade" et est instable (pour moi, dans mon environnement)
ZOL lui est compatible avec N4F, on peut donc, déplacer ses disques de Linux à N4F sans aucun soucis, dans un sens comme dans l'autre.
ZOL lui est compatible avec N4F, on peut donc, déplacer ses disques de Linux à N4F sans aucun soucis, dans un sens comme dans l'autre.
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: SSD .pour le système ?
bonsoir ,
oui effectivement c'est exactement sa que j'ai fait cette après midi , à plusieurs reprise ,mais une fois arriver a #apt-get install debian-zfs
il me dit qu'il ni y a aucun élément pour l'installation de "zfsonlinux"
je suis parti a partir d'ici >> http://zfsonlinux.org/debian.html peut être que j'ai du l'installer ou il fallait pas ?
je recommence demain et je te dit quoi
oui effectivement c'est exactement sa que j'ai fait cette après midi , à plusieurs reprise ,mais une fois arriver a #apt-get install debian-zfs
il me dit qu'il ni y a aucun élément pour l'installation de "zfsonlinux"
je suis parti a partir d'ici >> http://zfsonlinux.org/debian.html peut être que j'ai du l'installer ou il fallait pas ?
je recommence demain et je te dit quoi
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- lulu80
- PowerUser

- Posts: 763
- Joined: 15 Jun 2014 12:15
- Location: France-(Picardie 80)
- Contact:
- Status: Offline
Re: SSD .pour le système ?
bonsoir,
bon j'ai essayer et le pc linux me dit que le paquet zfsonlinux et installé ,mais dans le terminal sa me dit que zfs n'est pas installé et il me propose zfs-fuse
donc soit je mis prend comme un manche ou alors avec 1 Go de ram sa fonctionne pas ?
bon j'ai essayer et le pc linux me dit que le paquet zfsonlinux et installé ,mais dans le terminal sa me dit que zfs n'est pas installé et il me propose zfs-fuse
donc soit je mis prend comme un manche ou alors avec 1 Go de ram sa fonctionne pas ?
Version 11.2.0.4 - Omnius (revision 6400)
https://lucinfordi.fr
https://lucinfordi.fr
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: SSD .pour le système ?
désolé, je n'ai pas vu le message !
si tu tapes zpool status en ligne de commande, ça donne rien ?
si tu fais top ou htop (ou pstree -p | grep zfs), tu vois quoi ?
Sinon, c'est pas grave, tu peux tester avec zfs-fuse, cette version est en dessous de ZOL et de N4F, mais les commandes sont les mêmes pour le cache (il y a quelques options en moins mais pas celles qui te concerneront, donc, pas de soucis)
si tu n'y arrives pas avec ZOL, enlève-le et installe ZFS-fuse et fais tes essais avec
si tu tapes zpool status en ligne de commande, ça donne rien ?
si tu fais top ou htop (ou pstree -p | grep zfs), tu vois quoi ?
Sinon, c'est pas grave, tu peux tester avec zfs-fuse, cette version est en dessous de ZOL et de N4F, mais les commandes sont les mêmes pour le cache (il y a quelques options en moins mais pas celles qui te concerneront, donc, pas de soucis)
si tu n'y arrives pas avec ZOL, enlève-le et installe ZFS-fuse et fais tes essais avec
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"