Antes que nada quisiera comentarles que soy nuevo en NAS4FREE y tengo una duda existencial referente a la velocidad de transferencia de los discos duros.
Actualmente tengo un entorno de pruebas con el siguiente hardware el cual pienso pasar a producción si logro obtener tasas de transferencias mas altas que las actuales:
- 1x Procesador AMD FX-8120
1x Placa Madre GIGABYTE GA-970A-DS3 con 6xSATAIII@6Gbps e HyperTransport activado
1x Memoria RAM de 8GB@1333MHZ
2x ST2000DM001
1x WD5000AAKX
1x ST500DM002
1x SSD ESA3SF2120GB
Code: Select all
dmesg | grep -i ada
ipfw2 (+ipv6) initialized, divert loadable, nat loadable, rule-based forwarding disabled, default to accept, logging disabled
ada0 at ahcich0 bus 0 scbus0 target 0 lun 0
ada0: <WDC WD5000AAKX-003CA0 15.01H15> ATA-8 SATA 3.x device
ada0: 600.000MB/s transfers (SATA 3.x, UDMA6, PIO 8192bytes)
ada0: Command Queueing enabled
ada0: 476940MB (976773168 512 byte sectors: 16H 63S/T 16383C)
ada0: Previously was known as ad4
ada1 at ahcich1 bus 0 scbus1 target 0 lun 0
ada1: <ST500DM002-1BD142 KC45> ATA-8 SATA 3.x device
ada1: 600.000MB/s transfers (SATA 3.x, UDMA6, PIO 8192bytes)
ada1: Command Queueing enabled
ada1: 476940MB (976773168 512 byte sectors: 16H 63S/T 16383C)
ada1: Previously was known as ad6
ada2 at ahcich2 bus 0 scbus2 target 0 lun 0
ada2: <ST2000DM001-1CH164 CC43> ATA-8 SATA 3.x device
ada2: 600.000MB/s transfers (SATA 3.x, UDMA6, PIO 8192bytes)
ada2: Command Queueing enabled
ada2: 1907729MB (3907029168 512 byte sectors: 16H 63S/T 16383C)
ada2: Previously was known as ad8
ada3 at ahcich3 bus 0 scbus3 target 0 lun 0
ada3: <ST2000DM001-1CH164 CC43> ATA-8 SATA 3.x device
ada3: 600.000MB/s transfers (SATA 3.x, UDMA6, PIO 8192bytes)
ada3: Command Queueing enabled
ada3: 1907729MB (3907029168 512 byte sectors: 16H 63S/T 16383C)
ada3: Previously was known as ad10
ada4 at ahcich5 bus 0 scbus5 target 0 lun 0
ada4: <ESA3SF2120GB 4.C.V> ATA-8 SATA 3.x device
ada4: 600.000MB/s transfers (SATA 3.x, UDMA6, PIO 8192bytes)
ada4: Command Queueing enabled
ada4: 114473MB (234441648 512 byte sectors: 16H 63S/T 16383C)
ada4: Previously was known as ad14
Como referencia, los discos ST2000DM01 indica en las especificaciones que tiene una tasa de transferencia máxima de 210 MBps. Con ubuntu, formateado en EXT4 logre sacarle 180MBps luego de activar el HyperTransport en la placa madre.
Hice las primeras pruebas utilizando UFS como filesystem para cada uno de los discos:

Y luego creo los puntos de montaje para cada disco, quedando de la siguiente manera:

Para ver la tasa de transferencia de cada disco uso el siguiente comado:
Code: Select all
dd if=/dev/zero of=/mnt/XXXX/temp.datY los resultados fueron los siguientes:
Code: Select all
dd if=/dev/zero of=/mnt/WDC500GB/temp.dat
1827714+0 records in
1827713+0 records out
935789056 bytes transferred in 7.461426 secs (125416918 bytes/sec)
dd if=/dev/zero of=/mnt/SEA500GB/temp.dat
3056995+0 records in
3056994+0 records out
1565180928 bytes transferred in 11.899590 secs (131532341 bytes/sec)
dd if=/dev/zero of=/mnt/SEA2TB1/temp.dat
3371841+0 records in
3371840+0 records out
1726382080 bytes transferred in 11.889396 secs (145203515 bytes/sec)
dd if=/dev/zero of=/mnt/SEA2TB2/temp.dat
3490144+0 records in
3490144+0 records out
1786953728 bytes transferred in 12.564064 secs (142227366 bytes/sec)
dd if=/dev/zero of=/mnt/SSD120GB/temp.dat
3308702+0 records in
3308701+0 records out
1694054912 bytes transferred in 11.628905 secs (145676218 bytes/sec)
Code: Select all
WDC500GB @ 119.60MBps
SEAGATE500GB @ 125.43MBps
SEAGATE2TB1 @ 138.47MBps
SEAGATE2TB2 @ 135.63MBps
SSD120GB @ 138.92MBpsComo la idea es tener redundancia en los datos, leí en la documentación que los volúmenes ZFS son los que mejores se comportan por la redundancia y la flexibilidad de expansión a futuro. Por lo tanto, para seguir con las pruebas, monte 2 volúmenes de ZFS. El primero sumando las capacidades de los 2 discos de 500GB conformando un volumen de 1TB (stripe) y el segundo espejando los dos discos de 2TB conformando un volumen de 2TB (mirror).
Al tener un volúmen en mirror y otro solo en stripe, podría ver las tasas de transferencias, aunque el stripe no me servirá a futuro por su falta de redundancia en los datos.
Para ello elimine todos los discos y los volví a crear según la descripción anterior
Cree los siguientes dispositivos virtuales ZFS:
1TB striped con los dos discos de 500GB
2TB mirrored con los dos discos de 2TB

Los Managment me quedan de la siguiente manera:
VD01 de 1TB
VD2TB de 2TB

Los resultados que obtengo son los siguientes:
Volumen de 1TB striped
Code: Select all
dd if=/dev/zero of=/mnt/VD01/temp.dat
19503196+0 records in
19503195+0 records out
9985635840 bytes transferred in 185.680289 secs (53778653 bytes/sec)
Code: Select all
dd if=/dev/zero of=/mnt/VD2TB/temp.dat
19622654+0 records in
19622653+0 records out
10046798336 bytes transferred in 187.483890 secs (53587529 bytes/sec)
Code: Select all
VD01 @ 51.28MBps
VD2TB @ 51.10MBps
Estoy configurando algo mal al crear los ZFS?
Tendré que indicar en el formato que el tamaño de sector sea de 4k?
Tendré que configurar el SSD como CACHE para el ZFS pool?
Desactivo el control S.M.A.R.T?
Cuales son las tasas de transferencias máximas que puedo esperar obtener con este Hardware?
Por ultimo, en base a sus experiencias, han podido obtener mas de 50MBps de tasas de transferencias en volúmenes ZFS.
Agradezco la lectura de mi inquietud y sus comentarios.






