This is the old XigmaNAS forum in read only mode,
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
novice en serveur..
Moderators: velivole18, ernie, mtiburs
-
henry-lorient
- Starter

- Posts: 20
- Joined: 11 Nov 2014 14:32
- Status: Offline
Re: novice en serveur..
bon je reviens je vais avoir un peu de temps ce WE et je reprends la liste a vérifier donné par velivole18...
-
henry-lorient
- Starter

- Posts: 20
- Joined: 11 Nov 2014 14:32
- Status: Offline
Re: novice en serveur..
Bonjour à tous et joyeuses fêtes de fin d'année.
Je enfin trouvé mon souci, c'est mon DD de 2To qui provoquait pas de "friture sur la ligne"... donc je décide de repartir à zéro, mais nouveau souci.... impossible de faire l'installation sur la clé USB !! elle est bien visible dans le bios et dans le boot, mais invible pour l'installer sur USB ??? une piste ....
Je enfin trouvé mon souci, c'est mon DD de 2To qui provoquait pas de "friture sur la ligne"... donc je décide de repartir à zéro, mais nouveau souci.... impossible de faire l'installation sur la clé USB !! elle est bien visible dans le bios et dans le boot, mais invible pour l'installer sur USB ??? une piste ....
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: novice en serveur..
Bonsoir,
Je passe en "coup de vent" et je viens de lire en 4ème vitesse le post.
Pour le disque de 2To + le 500Go en ZFS, je trouve que ce n'est pas une bonne idée.
Pourquoi ? car lorsque l'on fait un entrelacement, il est préférable d'avoir des disques de tailles identiques, car ZFS (ou autre structure comme un raid0 classique) va écrire les données en les répartissant sur x disques, et il va a chaque fois avoir besoin de se poser des questions pour en mettre plus d'un coté que l'autre. Bon, pour "la question" ... je ne sais pas trop en fait
mais sur le débit cela va avoir son importance et cela va complètement déstabiliser le périphérique virtuel.
De plus, faire un entrelacement donne une sécurité "très critique" car le moindre pépin, va se transformer en "gros pépin"
un disque de 500Go fera dégager le 2To aussi ! (et puis d'ici là, comme çà marchera bien, vous aurez bien rajouté un autre 2To ! hein ? si si, c'est insidieux
)
Une question,avez vous déjà perdu un disque sur un serveur ?
Pour ma part, cela m'est déjà arrivé, et cela sur un pool de 3x2To entrelacé, cela ne me gène pas plus que çà, car j'ai un clone en rsync, mais je peux vous dire que cela fait un gros moment de solitude, en plus il faut du temps (plusieurs jours) et pendant ce temps, il faut allumer un cierge régulièrement et faire des incantations pour que le clone n'aie pas des envies "étranges" durant cette phase
Et une petite réflexion ... "la notion de serveur".
Un serveur, en matos est une machine différente d'une machine "grand-public", elle est construite "pour", possède de la RAM-ECC et possède des disques d'un certains types (genre disques fait pour fonctionner 24h/24h ou disques SAS).
Un serveur en tant qu'entité doit pouvoir fournir et protéger vos données des aléas (backup, ...)
Ce genre de réflexion, n'est pas a prendre à "la légère", car quand çà marche bien, on a tendance "a charger" ... puis un jour, que ce soit un disque qui crame ou votre inconscient qui un jour va se lancer dans "la grande aventure informatique" ... justement un jour ou votre bon-sens sera partit en vacance
(je parle en connaissance de cause, je suis un spécialiste ... étourdi .. et bourdeur).
Donc, il faut de temps en temps, prendre le temps de réfléchir et se dire, "et si ce machin là pète ... que va t'il se passer ?"
Voilà pour cette petit parenthèse.
Bon, ceci étant, comme on dit "faite ce que je dis et pas ce que je fais", j'ai eu pendant 2 ans un 1,5To avec un 500Go au milieu de 2x 2To pour faire un strip de 6To (2+2+1,5+0,5) ... çà marche et cela a bien fonctionné en ZFS. je reconnais toutefois que j'essaie de supprimer ce genre de chose -dès que possible- qui ne peut pas être "bonne" ... c'est une question de "bon sens".
Voilà je voulais juste intervenir sur ces petites questions "de fond" mais qui ont leur importance. Même si ZFS est "hyper-solide", il faut tenir compte de certains paramètres.
Désolé de la longueur et d'avoir peut-être dit des choses que vous savez peut-être déjà.
Je passe en "coup de vent" et je viens de lire en 4ème vitesse le post.
Pour le disque de 2To + le 500Go en ZFS, je trouve que ce n'est pas une bonne idée.
Pourquoi ? car lorsque l'on fait un entrelacement, il est préférable d'avoir des disques de tailles identiques, car ZFS (ou autre structure comme un raid0 classique) va écrire les données en les répartissant sur x disques, et il va a chaque fois avoir besoin de se poser des questions pour en mettre plus d'un coté que l'autre. Bon, pour "la question" ... je ne sais pas trop en fait
De plus, faire un entrelacement donne une sécurité "très critique" car le moindre pépin, va se transformer en "gros pépin"
Une question,avez vous déjà perdu un disque sur un serveur ?
Pour ma part, cela m'est déjà arrivé, et cela sur un pool de 3x2To entrelacé, cela ne me gène pas plus que çà, car j'ai un clone en rsync, mais je peux vous dire que cela fait un gros moment de solitude, en plus il faut du temps (plusieurs jours) et pendant ce temps, il faut allumer un cierge régulièrement et faire des incantations pour que le clone n'aie pas des envies "étranges" durant cette phase
Et une petite réflexion ... "la notion de serveur".
Un serveur, en matos est une machine différente d'une machine "grand-public", elle est construite "pour", possède de la RAM-ECC et possède des disques d'un certains types (genre disques fait pour fonctionner 24h/24h ou disques SAS).
Un serveur en tant qu'entité doit pouvoir fournir et protéger vos données des aléas (backup, ...)
Ce genre de réflexion, n'est pas a prendre à "la légère", car quand çà marche bien, on a tendance "a charger" ... puis un jour, que ce soit un disque qui crame ou votre inconscient qui un jour va se lancer dans "la grande aventure informatique" ... justement un jour ou votre bon-sens sera partit en vacance
Donc, il faut de temps en temps, prendre le temps de réfléchir et se dire, "et si ce machin là pète ... que va t'il se passer ?"
Voilà pour cette petit parenthèse.
Bon, ceci étant, comme on dit "faite ce que je dis et pas ce que je fais", j'ai eu pendant 2 ans un 1,5To avec un 500Go au milieu de 2x 2To pour faire un strip de 6To (2+2+1,5+0,5) ... çà marche et cela a bien fonctionné en ZFS. je reconnais toutefois que j'essaie de supprimer ce genre de chose -dès que possible- qui ne peut pas être "bonne" ... c'est une question de "bon sens".
Voilà je voulais juste intervenir sur ces petites questions "de fond" mais qui ont leur importance. Même si ZFS est "hyper-solide", il faut tenir compte de certains paramètres.
Désolé de la longueur et d'avoir peut-être dit des choses que vous savez peut-être déjà.
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"