Pour répondre directement à ta question "tu bosses dans quoi ?": je ne bosse pas directement dans l'informatique, j'ai commencé sur un ZX81 avec 1ko de mémoire et j'ai utilisé des automates programmables et de gros systèmes informatiques gérant beaucoup d'entrées et de sorties. Je suis une "nouille" en programmation (C, Perl, ...) j'essaie de me débrouiller comme je peux pour arriver à mes fins avec des programmes en bash.
Ma meilleure réalisation a été de mettre la partie "DOS fenètrées" de Windows3.1 sur une seule disquette 3 pouces 1/2 (compression maximum et formatage en 1600Ko) ... j'ai petit penchant du coté de la ligne de commande

Actuellement je peaufine une structure informatique basé sur des machines virtuelles en Virtualbox sous Linux/Debian et quelques Nas4free (dans le principe je suis un comtemplatif du monde BSD ... enfin d'Unix surtout).
Je me débrouille avec l'aide des forum
Sinon, pour en revenir à nos moutons, il faut savoir qu'un serveur n'est pas du tout construit comme un pc, ça semble proche, ça fait tourner les même choses mais le résultat n'est pas identique.
Déjà, il faut savoir qu'un serveur est fait pour tourner 24h/24h et toute sa vie, certain matériel s'abime plus à l'arrêt qu'en marche ! (les composants sont étudiés pour fonctionner constamment alors que sur un PC, on essaie de le mettre en veille dès que possible).
Un PC démarre "tout debout", le but est d'aller le plus vite possible, on fonce "dans le tas", on ne sait pas si la mémoire fonctionne, au mieux, la carte mère daignera s'arrêter si le CPU surchauffe.
Pour un serveur, c'est pas du tout pareil, on met plusieurs seconde a "ouvrir les yeux", ventilateur à fond dans un vacarme épouvantable.
Ensuite, on teste tout le bazar: "qui suis-je, ou vais-je ?" ... enfin, plutôt on va tester la mémoire du début jusqu'à la fin et on va tester si tout est ok, ensuite on va tester si le cpu est capable "d'assurer" toutes les opérations possibles, puis on discute avec tous les composants pour savoir si tous ce petit monde n'est pas en train de se "rebeller" (les ventilateurs à fond, tournent à la bonne vitesse ?, les tensions sont-elles bonnes ?, ... )
Après seulement, on passe la main au bios.
Et là on est repartit dans des tractations, les disques sont là, le controleur est-il vraiment opérationnel ?
... et enfin, après tout ça, on démarre enfin l'OS, et là, le serveur se met à réguler ses ventilateurs, la tempète se calme et c'est partit.
Rien que le démarrage d'un serveur est un moment a lui tout seul, on voit qu'on ne "joue" pas dans la même cour.
Un PC, lui, et moins cher et peut être très performant, c'est comme une machine polyvalente, ça fait tout: du calcul, du jeu, de la vidéo, du web, du nas, des machines virtuelles, mais comme tous les engins qui font tout, ça fait tout, mais tout moyennement.
Heureusement il existe des configurations plus musclés que d'autres, un céléron ou un xéon ?, une carte graphique intégré à la carte mère ou une carte graphique de X Go de RAM (je n'écrit pas la valeur je suis tellement dépassé).
Bref, même dans un PC normal il y a de la différence entre les composants, mais pour un serveur c'est encore pire, c'est surtout sur l'architecteure.
Un PC peut avoir beaucoup de RAM, un octo-core et de belles cartes réseaux, mais quand les données vont arriver il va falloir que les données circulent et là le PC c'est de la "nationale avec des priorités à droite" et le serveur "une autoroute (sans péage!)", en gros ton PC va se comporter comme une voiture de course mais avec une possibilité de traffic restreinte.
Le Xéon est conçu comme une autre processeur, souvent c'est la même architecure, mais la gestion du traffic interne qui va y circuler est différente.
Autrement dit, sur un PC tu vas pouvoir accueillir par ta carte réseau des données et toutes les traiter, mais avec un traffic restreint avec une bande passante pas trop élévée, pourquoi ? parce que l'utilisation nominale d'un PC n'est pas de faire du traffic réseau, il n'a pas été prévu et étudié pour celà.
Le serveur lui va passer plus facilement les données, mais l'inverse est vrai, installes un OS avec du graphique sur un serveur et tu verras comme c'est lent, tu auras l'impression que tu es en VNC !, pourquoi ? parce qu'un serveur c'est fait pour fonctionner sans écran, c'est dans un rack, ça se tait et ça marche tout seul comme un grand.
Je ne sais pas si j'ai été assez clair, j'espère que tu vois mieux la différence maintenant.
Perso, je pense qu'il faudrait mieux avoir 4 coeurs et 16Go de RAM avec une carte mère "orienté serveur" plutôt que 8 coeurs avec 32Go de RAM, de même je pense qu'il vaut mieux deux bons disques de log sur nas4free en ZFS que des disques utilisés directement.
Je ne peux pas te conseiller mais regarde si tu trouves une carte mère "orienté serveur", tu verras c'est 3 fois le prix d'une carte mère normale

Pour le CPU, les opérations disques n'ont pas besoin de puissance.
Pour info, je me suis monté deux machines de tests avec 8Go de RAM en DDR3, cartes mères neuves en 775 avec des core2duo à 15 euros acheté sur leboncoin (des qui font la virtualisation bien sûr !), et bien je suis étonné de voir comment ça marche.
L'avantage du PC c'est que tu as de l'évolutivité, on voit plein de serveurs a vendre mais ce n'est pas évolutif, il y a bien des bi-Xéon et les gens en disent du bien, ils ont raison, mais dessus ils ont des cartes réseaux dépassées et un PC de maintenant arrive au même résultat et sans vétusté.
Ce qu'il faut regarder avant tout c'est l'architecteure.
Pour finir, je dirais qu'il faut faire une machine qui peut monter en puissance par "ajout".
D'abord une bonne carte mêre "orienté serveur" et de la mémoire (même pas cher mais suffisament) et de bonnes cartes réseaux, ensuite un processeur pas trop onéreux mais qui pourra être éventuellement changé (dans l'exemple que je t'ai cité, j'ai des proc à 15 euros, et bien pour l'instant pas besoin d'en changer, mais si besoin, je peux mettre des quad-core avec une fréquence double).
Ensuite, tu montes tes disques en raidz2 et tu fais tes essais.
Si ça ne va pas, tu pourras monter deux super-disques en log ZFS (mirroir), si ça ne va pas encore, tu changes le processeur. Rien que le log t'apportera une grosse montée en puissance, mais elle ne sera peut-être pas nécessaire ! donc est-ce utile de dépenser de l'argent pour celà ?
Par expérience, il faut s'attarder sur l'architecture des éléments, prendre un processeur qui balaie le plus de données au niveau de la mémoire et des entrées-sorties, ne pas chercher des fonctions inutiles faite pour les jeux par exemple, avoir un support de processeur répandu et pérenne dans le temps.
Pour la mémoire, j'utilise les mémoires premiers prix (les barettes avec des radiateurs en alu colorisé avec des "noms de trucs guerriers" n'ont rien à faire dans un serveur !
Pour les disques pas d'écologie ! pas de fonctions inutiles, taux de transfert et gros cache-disque c'est tout ! (Pour mes serveurs de machines virtuelles, j'ai des disques de 40Go en sata pour le système et des disques de 2To avec deux fois plus de mémoire-cache que les disques courant, et ceci pour quelques dizaines d'euros en plus.
Pour les disques, si tu peux, lance un live/CD en knoppix par exemple et tu lances hdparm (si il n'est pas installé: apt-gt install hdparm

et tu lances un test du taux de transfert en écriture, si tu veux savoir ce que le disque a dans le ventre, fais un dd avec une génération de données aléatoires et ceci dans un fichier de 20Go ou carrément 50, là tu sauras de quoi il en retourne, fais l'essai avec du matériel si tu peux, tu peux aussi faire ces test avec ta structure en raidz et avec des disques de log (et cache).
Pour info, j'avais 2 disques locaux et 2 disques en iscsi, tous en mirroir, ce qui veux dire un taux de transfert médiocre à cause de l'iscsi, et bien avec un disque de cache en ZFS, je pouvais ressortir des fichiers de X Go sans aucun clignotement de led sur les disques locaux ni iscsi, je me suis même permis un jour de débrancher tous les disques ! (sauf le cache bien sûr), ZFS continuait à fournir les données ! (en lecture seule j'entend)
C'est dommage, car pour des raisons de déménagement, ma structure info est "éclatée", sinon, je t'aurais donné des valeurs sur des tests fais avec log et sans log, avec cache et sans cache.
Tout ce que je peux te dire, c'est que sans log et sans cache, la led disque s'allume franchement, avec le log et le cache (pourtant monté sur des pauvres disques sata de 40 Go acheté 5 euros) la led disque s'allume très peu, que par fractionnement (pour des écritures courantes j'entends).
Donc en gros, il n'est pas nécessaire de "casser sa tirelire" et de se réconforter en se disant qu'avec le prix qu'on y a mis, "ça devrait l'faire", nas4free marche sur plein de matos et il suffit de positionner les bons composants au bon endroit pour avoir un système qui fonctionne bien, ce qui est judicieux c'est de pouvoir upgrader sa structure au cas oû sans refondre tout, car il n'y a rien de plus rageant que d'avoir un matos neuf qui est 'out'.