This is the old XigmaNAS forum in read only mode,
it will taken offline by the end of march 2021!



I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!

[RESOLU] Comment identifier la taille d'un dataset ?

French community

Moderators: velivole18, ernie, mtiburs

Forum rules
Set-Up GuideFAQsForum Rules
Post Reply
User avatar
ernie
Forum Moderator
Forum Moderator
Posts: 1458
Joined: 26 Aug 2012 19:09
Location: France - Val d'Oise
Status: Offline

[RESOLU] Comment identifier la taille d'un dataset ?

Post by ernie »

Hello,

Comment peut on identifier la taille des datasets et même du pool ?

Je souhaite transférer un pool vers un nouveau jeux de disques, mais il sont plus petits.

J'ai lu cela:
http://docs.oracle.com/cd/E19253-01/820 ... index.html

et la commande df ou du n'est pas la réalité apparemment.

Merci par avance
NAS 1&2:
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2

Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: Comment identifier la taille d'un dataset ?

Post by mtiburs »

J'utilise:
zfs list

par exemple:
nas1/smv1_transit 124G 157G 124G /nas1/smv1_transit
nas1/smv2_transit 117G 157G 117G /nas1/smv2_transit
nas1/smv3_transit 34.2G 157G 34.2G /nas1/smv3_transit
nas1/smv4_transit 216G 157G 216G /nas1/smv4_transit
124G est la taille occupé par le dataset "smv1_transit" (il faut toujours prendre la valeur la plus forte dans la liste de la première colonne)
157G est la taille restante du pool

si je fais:
nas1: ~# du -h -d 0 /nas1/smv1_transit/
124G /nas1/smv1_transit/
j'ai bien 124G vu par le "zfs list"

et si je fais:
nas1: ~# df -h | grep smv1_transit
nas1/smv1_transit 281G 124G 157G 44% /nas1/smv1_transit
j'ai bien 124G vu par le "zfs list" et par "du -h"
j'ai bien 157G vu par "zfs list"

Les 3 commandes donne bien la même valeur du dataset.


On peut afficher la liste des snapshots
nas1: ~# zfs list | grep iscsi
nas1/nas1_iscsi 83.5G 157G 1008M /nas1/nas1_iscsi
nas1/nas1_iscsi/nas1_idisk40G_1 41.3G 158G 40.2G -
nas1/nas1_iscsi/nas1_idisk40G_2 41.3G 183G 14.4G -
nas1/nas1_iscsi_deb5_disk1 51.6G 208G 32K -

ou la taille prise par ces derniers:
nas1: ~# zfs list -o space | grep iscsi
nas1/nas1_iscsi 157G 83.5G 0 1008M 0 82.5G
nas1/nas1_iscsi/nas1_idisk40G_1 158G 41.3G 0 40.2G 1.08G 0
nas1/nas1_iscsi/nas1_idisk40G_2 183G 41.3G 0 14.4G 26.9G 0
nas1/nas1_iscsi_deb5_disk1 208G 51.6G 0 32K 51.6G 0


Sinon, concernant la taille du pool:
Le 281G est la taille restante utilisable
En revanche:
nas1: ~# zpool list
NAME SIZE ALLOC FREE
nas1 1.82T 1.53T 294G
294G sera sans doute une taille "théorique"
Par sécurité, je préfère prendre la valeur de 281G
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

User avatar
mtiburs
Forum Moderator
Forum Moderator
Posts: 951
Joined: 09 Aug 2012 23:34
Location: France - Besançon
Status: Offline

Re: Comment identifier la taille d'un dataset ?

Post by mtiburs »

Petit complément:

nas1: ~# zdb -C nas1/smv1_transit
Dataset nas1/smv1_transit [ZPL], ID 366321, cr_txg 6914802, 124G, 60 objects
On retrouve encore les 124G
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas :o ... et pas à jour en plus :oops: (çà craint)
Conception d'un "système bizarre" :mrgreen: de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.

Post Reply

Return to “Français”