This is the old XigmaNAS forum in read only mode,
it will taken offline by the end of march 2021!



I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!

Performances

French community

Moderators: velivole18, ernie, mtiburs

Forum rules
Set-Up GuideFAQsForum Rules
Post Reply
baloo449
NewUser
NewUser
Posts: 3
Joined: 10 May 2013 13:24
Status: Offline

Performances

Post by baloo449 »

Bonjour
Je voudrais me faire un NAS pour un gros environnement de tests.
J'ai besoin de performances donc voici mes questions :
Quels sont les débits disques atteignables avec NAS4FREE en Raid 5 ou 10 ou raidz
Quels sont les débits réseaux ? Est ce que cela supporte l'aggrégation de liens (il sera branché sur deux switchs réseaux CISCO Small Business 200 Series SG200-26 - SLM2024T-EU)

Ensuite au niveau hardware .. Quelle serait la meilleure config matérielle ? CPUs (atom ou phenom)
Quelle quantité de RAM pour 8To utiles ?
Quels disques recommanderiez vous ?
Combien de SSD et quelle taille ?

Merci d'avance pour vos réponses

Cordialement

jbnas4free
Starter
Starter
Posts: 24
Joined: 01 Feb 2013 15:50
Status: Offline

Re: Performances

Post by jbnas4free »

Bonjour.

Je penses qu'il faut que vous soyez beaucoup plus précis dans votre demande.

Que voulez-vous tester ?

8 To ça commence à faire comme volume de test uniquement.

Par ailleurs, les débits des disques, saufs SSD, sont surtouts limités par la mécanique des disques.

Vous pouvez prendre la meilleure architecture du monde, les contrôleurs les plus performants (Genre dernière version de SATA III), mais ne pas aller bien loin, sauf peut-être avec des disques 10000 trs/min.

Mais que ce soit ces derniers ou du SSD, pour aligner 8 To, il va falloir sortir le portefeuille.

Par ailleurs, vous sembler opter pour de l'Atom ou du Phenom.

Tout ça pour, comme vous l'indiquez, avoir "besoin de performances"…

Encore une fois, que souhaitez-vous tester.

A ma connaissance, les machines "performantes" sont plus à base de Xeon.

Personnellement, je penses que la bonne question est comment allez vous relier les disques à votre système (carte raid dédiée, auquel cas pas besoin d'un système puissant, contrôleurs de la carte mère, auquel cas, Atom me semble un peut léger…).

Il vous faudra peut-être plus d'une dizaine d'heure rien que pour formater l'ensemble…

Et de toute manière, le pire goulet d'étranglement sera la connexion réseau…

Mais admettons que la "performance" soit votre objectif.

Je propose 16 disques WD velociraptor 1To à 190€/pièce pour le stockage, montés en Raid 10.
Ensuite, une carte ARC 1261 ML PCI-e 8x 16 ports avec possibilité d'étendre la RAM de la carte (700 €)

Enfin, un petit SSD PCI Express 8X (700 €) pour le system et c'est gagné.

Avec ça, la carte mère et la RAM ne sont que des options…

Voilà !

sleid
PowerUser
PowerUser
Posts: 774
Joined: 23 Jun 2012 07:36
Location: FRANCE LIMOUSIN CORREZE
Status: Offline

Re: Performances

Post by sleid »

Bonjour,

Regardez ma signature pour avoir une idée de ma configuration.
Je sature le gigabit lorsque j'ai plusieurs pc de reliés, je n'ai pas encore trouvé de pc qui dépasse seul les 80 mo/s.
Noter que la carte réseau a une importance énorme dans les transferts, oubliez realtek et autres.
Pour ZFS n'importe qu'elle carte sata fait l'affaire vu que l'on travaille en jbod avec l'avantage énorme de pouvoir changer la configuration carte mère contrôleur sans le soucis du raid matériel généralement propriétaire et pas plus performant que ZFS.
Pour ZFS la règle veut que l'on utilise 1giga de ram pour 1 téra de stockage le plus est le mieux ZFS utilisant par défaut la ram comme cache.
Créer un pool ZFS de 6 tera ne prends que quelques secondes même avec un atom par contre la reconstruction (resilvering) prend 26 heures avec un atom et 4 heures aavec un core i3 à 3,3 giga.
Notez la présence de 2 vdev en raidz1, cela augmente le nombre d'iops donc le débit sur les petits fichiers, les plus nombreux dans la vraie vie.
On peut encore améliorer les débits en utilisant des SSD pour le cache et les logs.
Enfin la jonction de liens est bien entendu possible mais n'ayant pas de switch la supportant je ne peux indiquer de résultats.
12.1.0.4 - Ingva (revision 7852)
FreeBSD 12.1-RELEASE-p12 #0 r368465M: Tue Dec 8 23:25:11 CET 2020
X64-embedded sur Intel(R) Atom(TM) CPU C2750 @ 2.40GHz Boot UEFI
ASRock C2750D4I 2 X 8GB DDR3 ECC
Pool of 2 vdev Raidz1: 3 WDC WD40EFRX + 3 WDC WD40EFRX

jbnas4free
Starter
Starter
Posts: 24
Joined: 01 Feb 2013 15:50
Status: Offline

Re: Performances

Post by jbnas4free »

Bonsoir.

Je n'avais pas l'information sur le temps de formatage en ZFS.

J'avais trouvé que le formatage était très rapide d'une manière générale.

Par contre la reconstruction...

On vois qu'il vaut mieu une machine véloce.

Concernant les débit, c'est évident que le réseau sera le pire des problème.

La config ci-avant opte à juste titre pour une carte réseau en PCI express 4X. C'est sérieux.

J'en revient à la solution RAID matériel juste pour signaler qu'il existe des cartes controleurs qui proposent à la fois des ports SATA et des ports réseau.

Cette information est là à titre indicatif, car je me demandais moi-même si ce type de carte proposait des bus de liaisons privilégiées entre les ports SATA et les ports réseaux...

Mais baloo449 a peut-êt besoin de plus de perfs encore... et pour le coup, c'est son routeur qui sera bloquant.

Par ailleurs, si effectivement les petits fichiers sont les plus nombreux dans la vraie vie, mon usage personnel de mon NAS le destine principlament à des fichiers de 4Go (travail en partenariat avec décodeur TNT).

D'où la necessité de préciser la demande.

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: Performances

Post by mtiburs »

Ton besoin de performances est en lecture ou en écriture ?
Quelle est le type de fichiers (taille et nombre) que tu veux faire passer dan ton NAS ?

Car l'utilisation du cache et du log de ZFS améliore nettement les choses, au prix de matériel supplémentaire j'en conviens (tu peux avoir ensuite du matériel normal derrière, c'est ce que je trouve d'intéressant avec ZFS)

Pour l'histoire du Go de RAM par To de disque utilisé, c'est vrai et c'est faux si on "tune ZFS", en fait, ça dépend de la taille des fichiers qui vont passer par le ZIL, si tu as 8To et que tu as 32Go de RAM on pourrait dire que tout va bien aller, mais si il passe un fichier de 40 Go avec d'autres, il y a de forte chance que le Nas4free s'envoit en l'air, alors qu'une fois "tuné, il pourra passer le fichier avec seulement 4Go de RAM, il faut regarder du coté de ces valeurs:
vm.kmem_size, vm.kmem_size_max, vfs.zfs.arc_min, vfs.zfs.arc_max

j'ai un petit retour d'expérience sur le sujet: viewtopic.php?f=35&t=2705 (message du 9 Août - 11h34)

Je me demande si dans ton cas, il faudrait pas privilégier x cartes réseau, du cache et du log ZFS, après en fonction du "volume de données brassé", adapter la RAM en conséquence.
J'aurais tendance à dire que les efforts et l'argent doivent être mis dans le "goulot d'étranglement", ensuite pour les données, ZFS a été conçu pour gérer tout cela, c'est ce qui fait sa force d'ailleurs.
Par contre, si le volume brassé est très important, il faudra une "structure complète" avec des disques performants.

En tout cas, c'est bien de faire des essais, chaque utilisation est différentes et c'est bien de se rapprocher de "son" besoin.
N'hésite pas a donner plus de détails.
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

baloo449
NewUser
NewUser
Posts: 3
Joined: 10 May 2013 13:24
Status: Offline

Re: Performances

Post by baloo449 »

Bonjour et merci à tout ceux qui ont répondu
Le but est d'avoir des serveurs ESXi en face et d'héberger les fichiers qui constituent les VMs sur le nas. Sachant que je compte avoir jusqu'à 6 à 9 connexions réseau simultanées via les ESXi. Et parfois d'autant de création de fichiers vmdk simultané de 10 à 20 Go pièce.
Plus des VMs fixes déjà créées. Y a t il prise en charge de VAAI ?
Quid de l'aggrégation de lien ? Possible ou pas ?
Je compte utiliser des cartes réseau Intel et/ou Broadcom de type professionnel (merci ebay)
Le nas peut il faire target iSCSI ? est-ce plus performant ? Avec du disque Raw ? ou faut il formater dans un FS pour faire de l'iSCSI (genre W2K8 Storage Server) ?
Peut on intégrer du cache RAM, puis du cache SSD et enfin de l'écriture disque ? Je peux mettre potentiellement jusqu'à 32Go de RAM ...
Un ou deux SSD de 128 Go voire 256 Go
Mais question fondamentale : en optant pour une solution de ce type, je m'achète des emmerdes ? ou cela va fontionner en douceur en sortant de la boite ?
Je ne me fais d'illusions avec des disques satas j'aurais toujours un goulet d'étranglement ... mais si je peux monter à 200 Mo en débit et/ou 400/500 IOPS je serais largement dans les clous de mes besoins.
Pour la partie CPU je peux également envisager un phenom 8 cores ...
Par contre c'est vrai que je comptais plutôt sur les contrôleurs SATA d'une mobo ... pas glop si je comprends bien :(
J'espère que ces précisions vous aideront à affiner vos avis éclairés
Encore merci pour le temps que vous passez à me répondre

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: Performances

Post by mtiburs »

hé hé ... c'est bien ce que je pensais, c'est plus pour une utilisation en tant que SAN que pour le NAS, car tu as une idée d'iscsi derrière la tête, en fait tu veux plus fournir du stockage brut plutôt que des services de fichiers.

Je viens de voir la doc ESXi et VAAI (j'ai appris des choses)

Voici mon point de vue, je pense qu'il vaudrait mieux se tourner sur du Qnap TurboNas qui intègre d'emblée les services VMware et le mode de bloc VAAI, de plus le matériel est certifié et c'est plus vendeur à mon sens (pour un client par exemple).
En gros, c'est une machine calculé pour un usage précis.

Maintenant, on peut regarder la solution Nas4free (c'est mon système préféré), mais ce n'est pas tout à fait la même philosophie; on peut pas dire qu'il y aie des versions stable, les versions changent au fur et à mesure des améliorations.
Pour moi Nas4free est un projet "vivant" qui grace aux barbus divers et variés permet d'avoir des possibilités très intéressantes, mais cela avance a son rythme avec quelques déboires de temps en temps, il suffit de lire les corrections de bugs pour s'en rendre compte.
J'aime Nas4free, pour le coté libre et parce qu'il est formateur ... je suis aussi un peu radin ;-)

Pour ma part, j'ai fais des test sur un équivalent de i3 (G850) avec 12 Go de RAM, j'ai 2 disques sata de 2To en mirroir, c'est mon plus gros NAS (les autres sont sur des mini-cartes, avec du proc sans VTL).

Sur ce NAS, j'ai testé de l'iscsi dans tous les sens, j'ai même fais du mirroir avec des disques iscsi montés sur des debian ou d'autres nas4free, on peut faire pas mal de choses.
J'ai fais aussi des disques iscsi en raw sur nas4free pour que des machines virtuelles utilisent l'iscsi (mes MV sont en Virtualbox, je les utilisent en headless, elles sont lancés par les postes clients qui sont des RaspberryPi (j'utilise dialog qui cherche ou se trouve la VM sur les serveurs et ensuite lance X puis rdesktop directement sans window-manager).
Bref, tout ceci pour dire que j'ai testé pas mal de trucs, mais au final, je suis revenu au simple, un NAS et copie de NAS qui font des rsync pour se remettre à jour par rapport au NAS.
Mon idée finale que j'essaie de faire est un NAS virtuel monté sur deux serveurs Proxmox en HA qui utiliserait des disques iscsi.

On est loin du truc qu'on sort du carton et qui marche directement !!! je sais même pas si ça marchera un jour !

Il faut savoir aussi que le matériel pour faire ce que tu veux faire est souvent du matos spécifique (orientation serveur) et comme l'a dit jbnas4free basé sur du Xéon, car la structure n'est pas la même.
Un PC normal peut être performant pour des tâches uniques ou peu nombreuses, mais dès qu'on va "charger", tout va s'écrouler.
On peut mettre 32Go dans un PC et brasser des Go/s, mais si on n'a pas la structure des ponts qui gère les entrées/sorties comme sur un serveur, même en ayant plusieurs cartes réseau le goulot se trouvera au niveau des ponts internes.

Je ne peux pas trop te conseiller sur le bon matos qui serait bien mais je pense qu'il y a moyens de gérer tes tâches de façon a ne pas utiliser "de la grosse cavalerie": Est-il possible de lisser les sauvegardes de machines virtuelles ? de les faire passer par des "tuyaux" différents ? ça n'a l'air de rien mais une bonne gestion de ceci peut s'avérer éfficace.

Il peut y avoir d'autres solutions, utiliser une machine virtuelle pour s'adresser directement a certains disques iscsi, en gros fragmenter les tuyaux et les tâches, pourquoi pas faire des petits "nas4free virtuels" ? (ça marche nickel)
Ou alors, un de mes projets faire un Nas4free-maître (petit serveur avec plein de RAM et du disque en cache et log et les données en iscsi sur des pc normaux séparés (des nas4free-esclaves qui proposent un disque iscsi 'logique' (de façon a libérer la charge du nas-maître).

"matos onéreux" vs "bidouille+optimisation" ... qui va gagner ?

Je suis sûr que t'en sais pas plus, mais peut-être que certaines questions ont été soulevées.

Si tu es prêt a passer du temps en conf, peux-tu avoir un PC normal, un serveur ?
As-tu du temps a passer là-dessus ?

Il te faut faire des tests et essayer différentes structures et voir ce qui te convient le mieux, ce qui me chiffone c'est le VAAI qu'il n'y a pas sur nas4free.

Est-ce que tu peux gérer les sauvegardes facilement (hors VAAI), en ligne de commandes ? (pour ma part, je sauvegarde mes machines et je les transfère avec scp)

désolé de ne pas pouvoir te renseigner mieux, je suis plus dans la bidouille ;-)
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: Performances

Post by mtiburs »

je complémente mon dernier post par rapport au terme "bidouille" qui n'est pas juste à mon sens (je fais une auto-critique).

Je voulais dire par là qu'en posant les données du problème et en utilisant à fond certaines possibilitées on peut faire aussi bien qu'un système ayant une "force brute".
Personnellement, je préfère un script qui gère une copie de fichier de gros volume avec des priorités et l'un après l'autre, plutôt que d'envoyer plusieurs copies simultanément.
De plus on peut imaginer que le script déplace les fichiers en deux temps; en premier localement pour les sortir d'un endroit précis et ensuite "passer la main" a un autre script qui va s'occuper de les transférer tranquillement en lissant la charge.
On peut utiliser certains outils comme rsync avec des options comme update ou inplace pour ne copier que les portions de blocs modifiés. On peut avec scp (et rsync) forcer une bande passante maxi qui pourrait être calculer en fonction de la charge du réseau lors du lancement d'une copie.
Bref, en connaissant bien son architecture et en connaissant les possibilitées de son système on peut "jouer fin" et se passer de matériel couteux.

Malheureusement, ce ne sera sans doute pas ton cas car tu es dans un système "caréné"

Pour info, dans mon cas, je sauvegarde mes machines virtuelles (20Go en moyenne) localement (au sein du serveur de machines virtuelles, il y en a 3) et ensuite je déplace les fichiers l'un après l'autre sur mon nas (j'ai 65Mo/s avec des cartes réseau à 15 euros)

Je suis conscient que mon cas n'est pas en rapport avec ta demande de départ, et que ton post à l'origine partait sur une demande de "performances brutes" ... je veux juste dire qu'on peut sauvegarder des machines virtuelles de 20Go sereinement avec du matériel peu performant sous nas4free (miroir + 2 clones-nas déportés avec rsync)
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

baloo449
NewUser
NewUser
Posts: 3
Joined: 10 May 2013 13:24
Status: Offline

Re: Performances

Post by baloo449 »

Merci pour ces précisions
Effectivement ces réponses ont quelque peu tendance à réfréner mon ardeur
Je n'aurais pas énormément de temps à paramétrer ("bidouiller" pour mtiburs :D) ce nas.
J'aurais déjà suffisamment de taf sur la partie vmware
Sans compter que je manque cruellement de connaissances hardware. D'ailleurs j'ai du mal à visualiser la différence entre un serveur et un poste de travail surdimensionné (octo core et 32Gb de RAM)
Au fait mtiburs tu bosses dans quoi ?
Je suis allé voir du coté de QNAP et certes j'ai trouvé des choses intéressantes mais en termes de budget ... c'est un peu élevé.
Or il faudrait je pense que je puisse "tourner" à quelque chose comme 200Mo en débit et 400/500 IOPS sur de l'iSCSI.
Bref tout cela demande réflexion et si d'autres veulent fournir des chiffres, qu'ils se sentent les bienvenus :)
En tout cas merci

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: Performances

Post by mtiburs »

Pour répondre directement à ta question "tu bosses dans quoi ?": je ne bosse pas directement dans l'informatique, j'ai commencé sur un ZX81 avec 1ko de mémoire et j'ai utilisé des automates programmables et de gros systèmes informatiques gérant beaucoup d'entrées et de sorties. Je suis une "nouille" en programmation (C, Perl, ...) j'essaie de me débrouiller comme je peux pour arriver à mes fins avec des programmes en bash.
Ma meilleure réalisation a été de mettre la partie "DOS fenètrées" de Windows3.1 sur une seule disquette 3 pouces 1/2 (compression maximum et formatage en 1600Ko) ... j'ai petit penchant du coté de la ligne de commande ;-)
Actuellement je peaufine une structure informatique basé sur des machines virtuelles en Virtualbox sous Linux/Debian et quelques Nas4free (dans le principe je suis un comtemplatif du monde BSD ... enfin d'Unix surtout).
Je me débrouille avec l'aide des forum ;-)

Sinon, pour en revenir à nos moutons, il faut savoir qu'un serveur n'est pas du tout construit comme un pc, ça semble proche, ça fait tourner les même choses mais le résultat n'est pas identique.
Déjà, il faut savoir qu'un serveur est fait pour tourner 24h/24h et toute sa vie, certain matériel s'abime plus à l'arrêt qu'en marche ! (les composants sont étudiés pour fonctionner constamment alors que sur un PC, on essaie de le mettre en veille dès que possible).

Un PC démarre "tout debout", le but est d'aller le plus vite possible, on fonce "dans le tas", on ne sait pas si la mémoire fonctionne, au mieux, la carte mère daignera s'arrêter si le CPU surchauffe.
Pour un serveur, c'est pas du tout pareil, on met plusieurs seconde a "ouvrir les yeux", ventilateur à fond dans un vacarme épouvantable.
Ensuite, on teste tout le bazar: "qui suis-je, ou vais-je ?" ... enfin, plutôt on va tester la mémoire du début jusqu'à la fin et on va tester si tout est ok, ensuite on va tester si le cpu est capable "d'assurer" toutes les opérations possibles, puis on discute avec tous les composants pour savoir si tous ce petit monde n'est pas en train de se "rebeller" (les ventilateurs à fond, tournent à la bonne vitesse ?, les tensions sont-elles bonnes ?, ... )
Après seulement, on passe la main au bios.
Et là on est repartit dans des tractations, les disques sont là, le controleur est-il vraiment opérationnel ?
... et enfin, après tout ça, on démarre enfin l'OS, et là, le serveur se met à réguler ses ventilateurs, la tempète se calme et c'est partit.

Rien que le démarrage d'un serveur est un moment a lui tout seul, on voit qu'on ne "joue" pas dans la même cour.

Un PC, lui, et moins cher et peut être très performant, c'est comme une machine polyvalente, ça fait tout: du calcul, du jeu, de la vidéo, du web, du nas, des machines virtuelles, mais comme tous les engins qui font tout, ça fait tout, mais tout moyennement.
Heureusement il existe des configurations plus musclés que d'autres, un céléron ou un xéon ?, une carte graphique intégré à la carte mère ou une carte graphique de X Go de RAM (je n'écrit pas la valeur je suis tellement dépassé).
Bref, même dans un PC normal il y a de la différence entre les composants, mais pour un serveur c'est encore pire, c'est surtout sur l'architecteure.
Un PC peut avoir beaucoup de RAM, un octo-core et de belles cartes réseaux, mais quand les données vont arriver il va falloir que les données circulent et là le PC c'est de la "nationale avec des priorités à droite" et le serveur "une autoroute (sans péage!)", en gros ton PC va se comporter comme une voiture de course mais avec une possibilité de traffic restreinte.
Le Xéon est conçu comme une autre processeur, souvent c'est la même architecure, mais la gestion du traffic interne qui va y circuler est différente.
Autrement dit, sur un PC tu vas pouvoir accueillir par ta carte réseau des données et toutes les traiter, mais avec un traffic restreint avec une bande passante pas trop élévée, pourquoi ? parce que l'utilisation nominale d'un PC n'est pas de faire du traffic réseau, il n'a pas été prévu et étudié pour celà.
Le serveur lui va passer plus facilement les données, mais l'inverse est vrai, installes un OS avec du graphique sur un serveur et tu verras comme c'est lent, tu auras l'impression que tu es en VNC !, pourquoi ? parce qu'un serveur c'est fait pour fonctionner sans écran, c'est dans un rack, ça se tait et ça marche tout seul comme un grand.
Je ne sais pas si j'ai été assez clair, j'espère que tu vois mieux la différence maintenant.

Perso, je pense qu'il faudrait mieux avoir 4 coeurs et 16Go de RAM avec une carte mère "orienté serveur" plutôt que 8 coeurs avec 32Go de RAM, de même je pense qu'il vaut mieux deux bons disques de log sur nas4free en ZFS que des disques utilisés directement.
Je ne peux pas te conseiller mais regarde si tu trouves une carte mère "orienté serveur", tu verras c'est 3 fois le prix d'une carte mère normale ;-) Pour le CPU, les opérations disques n'ont pas besoin de puissance.
Pour info, je me suis monté deux machines de tests avec 8Go de RAM en DDR3, cartes mères neuves en 775 avec des core2duo à 15 euros acheté sur leboncoin (des qui font la virtualisation bien sûr !), et bien je suis étonné de voir comment ça marche.
L'avantage du PC c'est que tu as de l'évolutivité, on voit plein de serveurs a vendre mais ce n'est pas évolutif, il y a bien des bi-Xéon et les gens en disent du bien, ils ont raison, mais dessus ils ont des cartes réseaux dépassées et un PC de maintenant arrive au même résultat et sans vétusté.
Ce qu'il faut regarder avant tout c'est l'architecteure.

Pour finir, je dirais qu'il faut faire une machine qui peut monter en puissance par "ajout".

D'abord une bonne carte mêre "orienté serveur" et de la mémoire (même pas cher mais suffisament) et de bonnes cartes réseaux, ensuite un processeur pas trop onéreux mais qui pourra être éventuellement changé (dans l'exemple que je t'ai cité, j'ai des proc à 15 euros, et bien pour l'instant pas besoin d'en changer, mais si besoin, je peux mettre des quad-core avec une fréquence double).
Ensuite, tu montes tes disques en raidz2 et tu fais tes essais.
Si ça ne va pas, tu pourras monter deux super-disques en log ZFS (mirroir), si ça ne va pas encore, tu changes le processeur. Rien que le log t'apportera une grosse montée en puissance, mais elle ne sera peut-être pas nécessaire ! donc est-ce utile de dépenser de l'argent pour celà ?

Par expérience, il faut s'attarder sur l'architecture des éléments, prendre un processeur qui balaie le plus de données au niveau de la mémoire et des entrées-sorties, ne pas chercher des fonctions inutiles faite pour les jeux par exemple, avoir un support de processeur répandu et pérenne dans le temps.
Pour la mémoire, j'utilise les mémoires premiers prix (les barettes avec des radiateurs en alu colorisé avec des "noms de trucs guerriers" n'ont rien à faire dans un serveur !
Pour les disques pas d'écologie ! pas de fonctions inutiles, taux de transfert et gros cache-disque c'est tout ! (Pour mes serveurs de machines virtuelles, j'ai des disques de 40Go en sata pour le système et des disques de 2To avec deux fois plus de mémoire-cache que les disques courant, et ceci pour quelques dizaines d'euros en plus.
Pour les disques, si tu peux, lance un live/CD en knoppix par exemple et tu lances hdparm (si il n'est pas installé: apt-gt install hdparm ;-) et tu lances un test du taux de transfert en écriture, si tu veux savoir ce que le disque a dans le ventre, fais un dd avec une génération de données aléatoires et ceci dans un fichier de 20Go ou carrément 50, là tu sauras de quoi il en retourne, fais l'essai avec du matériel si tu peux, tu peux aussi faire ces test avec ta structure en raidz et avec des disques de log (et cache).
Pour info, j'avais 2 disques locaux et 2 disques en iscsi, tous en mirroir, ce qui veux dire un taux de transfert médiocre à cause de l'iscsi, et bien avec un disque de cache en ZFS, je pouvais ressortir des fichiers de X Go sans aucun clignotement de led sur les disques locaux ni iscsi, je me suis même permis un jour de débrancher tous les disques ! (sauf le cache bien sûr), ZFS continuait à fournir les données ! (en lecture seule j'entend)

C'est dommage, car pour des raisons de déménagement, ma structure info est "éclatée", sinon, je t'aurais donné des valeurs sur des tests fais avec log et sans log, avec cache et sans cache.
Tout ce que je peux te dire, c'est que sans log et sans cache, la led disque s'allume franchement, avec le log et le cache (pourtant monté sur des pauvres disques sata de 40 Go acheté 5 euros) la led disque s'allume très peu, que par fractionnement (pour des écritures courantes j'entends).

Donc en gros, il n'est pas nécessaire de "casser sa tirelire" et de se réconforter en se disant qu'avec le prix qu'on y a mis, "ça devrait l'faire", nas4free marche sur plein de matos et il suffit de positionner les bons composants au bon endroit pour avoir un système qui fonctionne bien, ce qui est judicieux c'est de pouvoir upgrader sa structure au cas oû sans refondre tout, car il n'y a rien de plus rageant que d'avoir un matos neuf qui est 'out'.
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: Performances

Post by mtiburs »

ah, j'ai oublié un truc, pour l'atom vaut mieux oublier ... c'est pour les tablettes ou truc du genre ;-)
j'ai ça dans 2 nas perso de 4To, ça marche bien pour une seule connexion mais si tu demandes autre chose c'est complètement "à genoux"

d'après intel.com: Le processeur Intel® Atom™ est conçu pour vous suivre partout, que ce soit dans un smartphone, une application embarquée ou une tablette.

pour le phénom, ce n'est pas adapté non plus
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

Post Reply

Return to “Français”