Hello,
Comment peut on identifier la taille des datasets et même du pool ?
Je souhaite transférer un pool vers un nouveau jeux de disques, mais il sont plus petits.
J'ai lu cela:
http://docs.oracle.com/cd/E19253-01/820 ... index.html
et la commande df ou du n'est pas la réalité apparemment.
Merci par avance
This is the old XigmaNAS forum in read only mode,
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
it will taken offline by the end of march 2021!
I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!
[RESOLU] Comment identifier la taille d'un dataset ?
Moderators: velivole18, ernie, mtiburs
- ernie
- Forum Moderator

- Posts: 1458
- Joined: 26 Aug 2012 19:09
- Location: France - Val d'Oise
- Status: Offline
[RESOLU] Comment identifier la taille d'un dataset ?
NAS 1&2:
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2
Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)
System: GA-6LXGH(BIOS: R01 04/30/2014) / 16 Go ECC
XigmaNAS 12.1.0.4 - Ingva (revision 7743) embedded
NAS1: Xeon E3 1241@3.5GHz, 2HDD@8To/mirror, 1SSD cache, Zlog on mirror, 1 UFS 300 Go
NAS2: G3220@3GHz, 2x3HDD@2To/strip+raidz1, 1SSD cache, Zlog on mirror
UPS: APC Back-UPS RS 900G
Case : Fractal Design XL R2
Extensions & services:
NAS1: OBI (Plex, BTSync, zrep, rclone, themes), nfs, smb, UPS,
NAS2: OBI (zrep (backup mode), themes)
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: Comment identifier la taille d'un dataset ?
J'utilise:
zfs list
par exemple:
nas1/smv1_transit 124G 157G 124G /nas1/smv1_transit
nas1/smv2_transit 117G 157G 117G /nas1/smv2_transit
nas1/smv3_transit 34.2G 157G 34.2G /nas1/smv3_transit
nas1/smv4_transit 216G 157G 216G /nas1/smv4_transit
124G est la taille occupé par le dataset "smv1_transit" (il faut toujours prendre la valeur la plus forte dans la liste de la première colonne)
157G est la taille restante du pool
si je fais:
nas1: ~# du -h -d 0 /nas1/smv1_transit/
124G /nas1/smv1_transit/
j'ai bien 124G vu par le "zfs list"
et si je fais:
nas1: ~# df -h | grep smv1_transit
nas1/smv1_transit 281G 124G 157G 44% /nas1/smv1_transit
j'ai bien 124G vu par le "zfs list" et par "du -h"
j'ai bien 157G vu par "zfs list"
Les 3 commandes donne bien la même valeur du dataset.
On peut afficher la liste des snapshots
nas1: ~# zfs list | grep iscsi
nas1/nas1_iscsi 83.5G 157G 1008M /nas1/nas1_iscsi
nas1/nas1_iscsi/nas1_idisk40G_1 41.3G 158G 40.2G -
nas1/nas1_iscsi/nas1_idisk40G_2 41.3G 183G 14.4G -
nas1/nas1_iscsi_deb5_disk1 51.6G 208G 32K -
ou la taille prise par ces derniers:
nas1: ~# zfs list -o space | grep iscsi
nas1/nas1_iscsi 157G 83.5G 0 1008M 0 82.5G
nas1/nas1_iscsi/nas1_idisk40G_1 158G 41.3G 0 40.2G 1.08G 0
nas1/nas1_iscsi/nas1_idisk40G_2 183G 41.3G 0 14.4G 26.9G 0
nas1/nas1_iscsi_deb5_disk1 208G 51.6G 0 32K 51.6G 0
Sinon, concernant la taille du pool:
Le 281G est la taille restante utilisable
En revanche:
nas1: ~# zpool list
NAME SIZE ALLOC FREE
nas1 1.82T 1.53T 294G
294G sera sans doute une taille "théorique"
Par sécurité, je préfère prendre la valeur de 281G
zfs list
par exemple:
nas1/smv1_transit 124G 157G 124G /nas1/smv1_transit
nas1/smv2_transit 117G 157G 117G /nas1/smv2_transit
nas1/smv3_transit 34.2G 157G 34.2G /nas1/smv3_transit
nas1/smv4_transit 216G 157G 216G /nas1/smv4_transit
124G est la taille occupé par le dataset "smv1_transit" (il faut toujours prendre la valeur la plus forte dans la liste de la première colonne)
157G est la taille restante du pool
si je fais:
nas1: ~# du -h -d 0 /nas1/smv1_transit/
124G /nas1/smv1_transit/
j'ai bien 124G vu par le "zfs list"
et si je fais:
nas1: ~# df -h | grep smv1_transit
nas1/smv1_transit 281G 124G 157G 44% /nas1/smv1_transit
j'ai bien 124G vu par le "zfs list" et par "du -h"
j'ai bien 157G vu par "zfs list"
Les 3 commandes donne bien la même valeur du dataset.
On peut afficher la liste des snapshots
nas1: ~# zfs list | grep iscsi
nas1/nas1_iscsi 83.5G 157G 1008M /nas1/nas1_iscsi
nas1/nas1_iscsi/nas1_idisk40G_1 41.3G 158G 40.2G -
nas1/nas1_iscsi/nas1_idisk40G_2 41.3G 183G 14.4G -
nas1/nas1_iscsi_deb5_disk1 51.6G 208G 32K -
ou la taille prise par ces derniers:
nas1: ~# zfs list -o space | grep iscsi
nas1/nas1_iscsi 157G 83.5G 0 1008M 0 82.5G
nas1/nas1_iscsi/nas1_idisk40G_1 158G 41.3G 0 40.2G 1.08G 0
nas1/nas1_iscsi/nas1_idisk40G_2 183G 41.3G 0 14.4G 26.9G 0
nas1/nas1_iscsi_deb5_disk1 208G 51.6G 0 32K 51.6G 0
Sinon, concernant la taille du pool:
Le 281G est la taille restante utilisable
En revanche:
nas1: ~# zpool list
NAME SIZE ALLOC FREE
nas1 1.82T 1.53T 294G
294G sera sans doute une taille "théorique"
Par sécurité, je préfère prendre la valeur de 281G
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"
- mtiburs
- Forum Moderator

- Posts: 951
- Joined: 09 Aug 2012 23:34
- Location: France - Besançon
- Status: Offline
Re: Comment identifier la taille d'un dataset ?
Petit complément:
nas1: ~# zdb -C nas1/smv1_transit
Dataset nas1/smv1_transit [ZPL], ID 366321, cr_txg 6914802, 124G, 60 objects
On retrouve encore les 124G
nas1: ~# zdb -C nas1/smv1_transit
Dataset nas1/smv1_transit [ZPL], ID 366321, cr_txg 6914802, 124G, 60 objects
On retrouve encore les 124G
Serveur Intel bi-Xéon P5530 / 8 X Ubuntu Serveur 18.04 LTS - ZFS-BTRFS-bcache / ~30 x PI2b(ARM) sous Nas4Free / et ...(chhhut)... 1 seul Xigmanas
... et pas à jour en plus
(çà craint)
Conception d'un "système bizarre"
de "super-devices-autonomes" en NFS gérés par des micro-serveurs SAN(+nas) sous N4F (11 super-devs en raidz3) taille actuelle: 16To / prévue: 64To / théorique: 320To (consommation < 15W en veille - 24/24h) en service depuis 2 ans.
Conception d'un "système bizarre"