This is the old XigmaNAS forum in read only mode,
it will taken offline by the end of march 2021!



I like to aks Users and Admins to rewrite/take over important post from here into the new fresh main forum!
Its not possible for us to export from here and import it to the main forum!

ZFS HDD online mentre il pool è UNAVAIL (missing device)

Italian community

Moderators: mrwinch, misterredman

Forum rules
Set-Up GuideFAQsForum Rules
Post Reply
User avatar
alexfax
Starter
Starter
Posts: 15
Joined: 14 Nov 2012 16:02
Status: Offline

ZFS HDD online mentre il pool è UNAVAIL (missing device)

Post by alexfax »

Ciao a tutti.
questo problema è avvenuto nella versione 8 di FreeNas. Dato però che è della gestione ZFS ho deciso di postare anche qui.

Premessa non ho il backup dei dati presenti dunque DEVO recuperare i dati.

Il mio raid-z1 era composto da 8 dischi da 2 TB (ho aggiunto 2 dischi nuovi rispetto al mio vecchio raidz)
ho fatto il backup e iniziato a ricopiare i dati dentro al nuovo (purtroppo con il taglia)
per un errore mi sono stati due dischi vecchi e uno è saltato immediatamente.
Il mio fornitore mi ha procurato i dischi nuovi ho sostituito il primo. Tutto OK

Vado per sostituire il secondo e accidentalmente ho fatto importa volume al mio raidz (dal menu storage - Manager dei volumi) .
Cosa è successo .... che al posto di sostituire il disco l'ha aggiunto,
andando nel manager dei dischi vedevo i miei 8 dischi del raid z (di cui uno staccato) e sotto in stripe
il disco nuovo e non mi dava in nessun modo la possibilità ne di eliminare questo stripe ne di sostituire il disco staccato.
Cosa ho fatto...
il wipe (method Quick) con di questo disco in stripe (dal menu storage - Visualizza dischi)

risultato

Code: Select all

    root@freenas /dev]# zpool import
    pool: ZFS_BASE
    id: 13233542194602196282
    state: UNAVAIL
    status: One or more devices are missing from the system.
    action: The pool cannot be imported. Attach the missing
    devices and try again.
    see: http://www.sun.com/msg/ZFS-8000-6X
    config:

    ZFS_BASE UNAVAIL missing device
    raidz1-0 ONLINE
    gptid/30736404-2873-11e2-a9fa-0023cdf1dc06 ONLINE
    gptid/30e28ffe-2873-11e2-a9fa-0023cdf1dc06 ONLINE
    gptid/31538beb-2873-11e2-a9fa-0023cdf1dc06 ONLINE
    gptid/31c95fae-2873-11e2-a9fa-0023cdf1dc06 ONLINE
    gptid/322c9cde-2873-11e2-a9fa-0023cdf1dc06 ONLINE
    gptid/32913474-2873-11e2-a9fa-0023cdf1dc06 ONLINE
    gptid/81204f2e-2d17-11e2-9828-0023cdf1dc06 ONLINE
    gptid/33c0920a-2873-11e2-a9fa-0023cdf1dc06 ONLINE

    Additional devices are known to be part of this pool, though their
    exact configuration cannot be determined.
    [root@freenas /dev]#
Non posso più importare il mio zpool
ho anche provato a ricollegare tutti e 9 i dischi (gli 8 del raidz e 1 in stripe)
ma sono bloccato.
La cosa assurda è che i dati sono comunque contenuti negli 8 dishi!
Devo solo "riparare" lo zpool

se faccio

Code: Select all

[root@freenas ~]# zpool history                                                 
no pools available 
se faccio

Code: Select all

[root@freenas ~]# zpool status                                                  
no pools available  

PS Ho ricreato il problema anche su vmware... posso smanettare se qualcuno ha indicazioni
MB: Abit IP35 ; CPU: Quad CPU Q6600 @ 2.40GHz ; RAM: 8 GB Kingston ddr2
Case: Bravo chieftec ; Ali: 460W Maxima ; System: Transcend flash card ide 4GB (FreeNAS - 9.2.1.6 )
Storage: 8x2TB WD20EARS/EARX (in raid-z 12TB)

User avatar
misterredman
Forum Moderator
Forum Moderator
Posts: 184
Joined: 25 Jun 2012 13:31
Location: Switzerland
Status: Offline

Re: ZFS HDD online mentre il pool è UNAVAIL (missing device)

Post by misterredman »

Non sono un esperto di ZFS ma se vuoi fare qualche test possiamo provare. :!: Senza garanzia di riuscita però! Se non hai altre soluzioni e sei pronto a perdere i dati.

Hai provato a importare con

Code: Select all

zpool import -F NOMEPOOL
?

Se non funziona si può provare con

Code: Select all

zpool import -V NOMEPOOL
, che dovrebbe importare indipendentemente dalla presenza di una vdev danneggiata.

Al posto di NOMEPOOL può darsi che serva l'ID del pool.
NAS1: Pentium E6300 - Abit IP35Pro - 4GB RAM - Backup of NAS2
NAS2: Core 2 Quad Q9300 - Asus P5Q-EM - 8GB RAM
pyload - flexget - tvnamer - subsonic - owncloud - crashplan - plex media server

User avatar
alexfax
Starter
Starter
Posts: 15
Joined: 14 Nov 2012 16:02
Status: Offline

Re: ZFS HDD online mentre il pool è UNAVAIL (missing device)

Post by alexfax »

Intanto ciao e grazie misterredman ho provato su una macchina virtuale in cui ho replicato l'errore.
Così posso fare i test con maggiore serenità
il risultati sono i seguenti

Code: Select all

[root@freenas] ~# zpool import -F ZFS_BASE
cannot import 'ZFS_BASE': one or more devices is currently unavailable
[root@freenas] ~#
con zpool import -V

Code: Select all

[root@freenas] ~# zpool import -V ZFS_BASE
[root@freenas] ~#
non mi da errori apparenti ma facendo un zpool status

Code: Select all

[root@freenas] ~# zpool status
  pool: ZFS_BASE
 state: UNAVAIL
status: One or more devices could not be opened.  There are insufficient
        replicas for the pool to continue functioning.
action: Attach the missing device and online it using 'zpool online'.
   see: http://www.sun.com/msg/ZFS-8000-3C
  scan: none requested
config:

        NAME                                            STATE     READ WRITE CKSUM
        ZFS_BASE                                        UNAVAIL      0     0     0
          raidz1-0                                      ONLINE       0     0     0
            gptid/9e19c4af-2eb6-11e2-a320-000c295ae7e3  ONLINE       0     0     0
            gptid/9e36d68f-2eb6-11e2-a320-000c295ae7e3  ONLINE       0     0     0
            gptid/9e527c9f-2eb6-11e2-a320-000c295ae7e3  ONLINE       0     0     0
          12963098390400691882                          UNAVAIL      0     0     0  was /dev/gptid/7b564c84-2eb7-11e2-80cb-000c295ae7e3
[root@freenas] ~#
il disco che compare come UNAVAIL è quello in stripe per cuoi è vuoto ed è lui che andrebbe rimosso!

questo chiaramente è il log della macchina virtuale in cui ZFS_BASE è composto da 3 hd
comunque nella simulazione i dati non sono ancora accessibili
..... altre idee....???
MB: Abit IP35 ; CPU: Quad CPU Q6600 @ 2.40GHz ; RAM: 8 GB Kingston ddr2
Case: Bravo chieftec ; Ali: 460W Maxima ; System: Transcend flash card ide 4GB (FreeNAS - 9.2.1.6 )
Storage: 8x2TB WD20EARS/EARX (in raid-z 12TB)

User avatar
misterredman
Forum Moderator
Forum Moderator
Posts: 184
Joined: 25 Jun 2012 13:31
Location: Switzerland
Status: Offline

Re: ZFS HDD online mentre il pool è UNAVAIL (missing device)

Post by misterredman »

alexfax wrote:Intanto ciao e grazie misterredman ho provato su una macchina virtuale in cui ho replicato l'errore.
Così posso fare i test con maggiore serenità
Ok, quindi il pool viene importato ma non viene montato?

Cosa riporta adesso

Code: Select all

zpool history
?

Puoi usare zdb sul pool per avere più informazioni sui vari dischi?
NAS1: Pentium E6300 - Abit IP35Pro - 4GB RAM - Backup of NAS2
NAS2: Core 2 Quad Q9300 - Asus P5Q-EM - 8GB RAM
pyload - flexget - tvnamer - subsonic - owncloud - crashplan - plex media server

User avatar
alexfax
Starter
Starter
Posts: 15
Joined: 14 Nov 2012 16:02
Status: Offline

Re: ZFS HDD online mentre il pool è UNAVAIL (missing device)

Post by alexfax »

Ciao misterredman
Ho provato a lanciare "history" dopo l'import con il -V
ma come vedi..

Code: Select all

[root@freenas] ~#
[root@freenas] ~# zpool import -V ZFS_BASE
[root@freenas] ~# zpool history
no pools available
[root@freenas] ~#
misterredman ha scritto:
Puoi usare zdb sul pool per avere più informazioni sui vari dischi?
Nella macchina virtuale il glabel status

Code: Select all

[root@freenas] ~# glabel status

                                      Name  Status  Components
                             ufs/FreeNASs3     N/A  da0s3
                             ufs/FreeNASs4     N/A  da0s4
                            ufs/FreeNASs1a     N/A  da0s1a
gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb     N/A  da1p2
gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb     N/A  da2p2
gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb     N/A  da3p2
[root@freenas] ~#
chiaramente per i primi 3

Code: Select all

[root@freenas] ~# zdb -l /dev/da0s3
--------------------------------------------
LABEL 0
--------------------------------------------
failed to unpack label 0
--------------------------------------------
LABEL 1
--------------------------------------------
failed to unpack label 1
--------------------------------------------
LABEL 2
--------------------------------------------
failed to unpack label 2
--------------------------------------------
LABEL 3
--------------------------------------------
failed to unpack label 3
[root@freenas] ~# zdb -l /dev/da0s4
--------------------------------------------
LABEL 0
--------------------------------------------
failed to unpack label 0
--------------------------------------------
LABEL 1
--------------------------------------------
failed to unpack label 1
--------------------------------------------
LABEL 2
--------------------------------------------
failed to unpack label 2
--------------------------------------------
LABEL 3
--------------------------------------------
failed to unpack label 3
[root@freenas] ~# zdb -l /dev/da0s1a
--------------------------------------------
LABEL 0
--------------------------------------------
failed to unpack label 0
--------------------------------------------
LABEL 1
--------------------------------------------
failed to unpack label 1
--------------------------------------------
LABEL 2
--------------------------------------------
failed to unpack label 2
--------------------------------------------
LABEL 3
--------------------------------------------
failed to unpack label 3
[root@freenas] ~#
per gli altri da1p2

Code: Select all

[root@freenas] ~#
[root@freenas] ~# zdb -l /dev/da1p2
--------------------------------------------
LABEL 0
--------------------------------------------
    version: 28
    name: 'ZFS_BASE'
    state: 1
    txg: 304
    pool_guid: 2858461830226276295
    hostid: 2823901366
    hostname: 'freenas.local'
    top_guid: 4501951276730454614
    guid: 11581382714089714999
    vdev_children: 2
    vdev_tree:
        type: 'raidz'
        id: 0
        guid: 4501951276730454614
        nparity: 1
        metaslab_array: 31
        metaslab_shift: 24
        ashift: 9
        asize: 3206283264
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 11581382714089714999
            path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 18038418914026149309
            path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            not_present: 1
            DTL: 40
            create_txg: 4
        children[2]:
            type: 'disk'
            id: 2
            guid: 15584038717217315292
            path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
--------------------------------------------
LABEL 1
--------------------------------------------
    version: 28
    name: 'ZFS_BASE'
    state: 1
    txg: 304
    pool_guid: 2858461830226276295
    hostid: 2823901366
    hostname: 'freenas.local'
    top_guid: 4501951276730454614
    guid: 11581382714089714999
    vdev_children: 2
    vdev_tree:
        type: 'raidz'
        id: 0
        guid: 4501951276730454614
        nparity: 1
        metaslab_array: 31
        metaslab_shift: 24
        ashift: 9
        asize: 3206283264
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 11581382714089714999
            path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 18038418914026149309
            path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            not_present: 1
            DTL: 40
            create_txg: 4
        children[2]:
            type: 'disk'
            id: 2
            guid: 15584038717217315292
            path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
--------------------------------------------
LABEL 2
--------------------------------------------
    version: 28
    name: 'ZFS_BASE'
    state: 1
    txg: 304
    pool_guid: 2858461830226276295
    hostid: 2823901366
    hostname: 'freenas.local'
    top_guid: 4501951276730454614
    guid: 11581382714089714999
    vdev_children: 2
    vdev_tree:
        type: 'raidz'
        id: 0
        guid: 4501951276730454614
        nparity: 1
        metaslab_array: 31
        metaslab_shift: 24
        ashift: 9
        asize: 3206283264
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 11581382714089714999
            path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 18038418914026149309
            path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            not_present: 1
            DTL: 40
            create_txg: 4
        children[2]:
            type: 'disk'
            id: 2
            guid: 15584038717217315292
            path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
--------------------------------------------
LABEL 3
--------------------------------------------
    version: 28
    name: 'ZFS_BASE'
    state: 1
    txg: 304
    pool_guid: 2858461830226276295
    hostid: 2823901366
    hostname: 'freenas.local'
    top_guid: 4501951276730454614
    guid: 11581382714089714999
    vdev_children: 2
    vdev_tree:
        type: 'raidz'
        id: 0
        guid: 4501951276730454614
        nparity: 1
        metaslab_array: 31
        metaslab_shift: 24
        ashift: 9
        asize: 3206283264
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 11581382714089714999
            path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 18038418914026149309
            path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            not_present: 1
            DTL: 40
            create_txg: 4
        children[2]:
            type: 'disk'
            id: 2
            guid: 15584038717217315292
            path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
[root@freenas] ~#
da2p2

Code: Select all

[root@freenas] ~# zdb -l /dev/da2p2
--------------------------------------------
LABEL 0
--------------------------------------------
    version: 28
    name: 'ZFS_BASE'
    state: 0
    txg: 4
    pool_guid: 2858461830226276295
    hostid: 2823901366
    hostname: 'freenas.local'
    top_guid: 4501951276730454614
    guid: 18038418914026149309
    vdev_children: 1
    vdev_tree:
        type: 'raidz'
        id: 0
        guid: 4501951276730454614
        nparity: 1
        metaslab_array: 31
        metaslab_shift: 24
        ashift: 9
        asize: 3206283264
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 11581382714089714999
            path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 18038418914026149309
            path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
        children[2]:
            type: 'disk'
            id: 2
            guid: 15584038717217315292
            path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
--------------------------------------------
LABEL 1
--------------------------------------------
    version: 28
    name: 'ZFS_BASE'
    state: 0
    txg: 4
    pool_guid: 2858461830226276295
    hostid: 2823901366
    hostname: 'freenas.local'
    top_guid: 4501951276730454614
    guid: 18038418914026149309
    vdev_children: 1
    vdev_tree:
        type: 'raidz'
        id: 0
        guid: 4501951276730454614
        nparity: 1
        metaslab_array: 31
        metaslab_shift: 24
        ashift: 9
        asize: 3206283264
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 11581382714089714999
            path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 18038418914026149309
            path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
        children[2]:
            type: 'disk'
            id: 2
            guid: 15584038717217315292
            path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
--------------------------------------------
LABEL 2
--------------------------------------------
    version: 28
    name: 'ZFS_BASE'
    state: 0
    txg: 4
    pool_guid: 2858461830226276295
    hostid: 2823901366
    hostname: 'freenas.local'
    top_guid: 4501951276730454614
    guid: 18038418914026149309
    vdev_children: 1
    vdev_tree:
        type: 'raidz'
        id: 0
        guid: 4501951276730454614
        nparity: 1
        metaslab_array: 31
        metaslab_shift: 24
        ashift: 9
        asize: 3206283264
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 11581382714089714999
            path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 18038418914026149309
            path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
        children[2]:
            type: 'disk'
            id: 2
            guid: 15584038717217315292
            path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
--------------------------------------------
LABEL 3
--------------------------------------------
    version: 28
    name: 'ZFS_BASE'
    state: 0
    txg: 4
    pool_guid: 2858461830226276295
    hostid: 2823901366
    hostname: 'freenas.local'
    top_guid: 4501951276730454614
    guid: 18038418914026149309
    vdev_children: 1
    vdev_tree:
        type: 'raidz'
        id: 0
        guid: 4501951276730454614
        nparity: 1
        metaslab_array: 31
        metaslab_shift: 24
        ashift: 9
        asize: 3206283264
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 11581382714089714999
            path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 18038418914026149309
            path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
        children[2]:
            type: 'disk'
            id: 2
            guid: 15584038717217315292
            path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
[root@freenas] ~#
da3p2

Code: Select all

[root@freenas] ~# zdb -l /dev/da3p2
--------------------------------------------
LABEL 0
--------------------------------------------
    version: 28
    name: 'ZFS_BASE'
    state: 1
    txg: 304
    pool_guid: 2858461830226276295
    hostid: 2823901366
    hostname: 'freenas.local'
    top_guid: 4501951276730454614
    guid: 15584038717217315292
    vdev_children: 2
    vdev_tree:
        type: 'raidz'
        id: 0
        guid: 4501951276730454614
        nparity: 1
        metaslab_array: 31
        metaslab_shift: 24
        ashift: 9
        asize: 3206283264
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 11581382714089714999
            path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 18038418914026149309
            path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            not_present: 1
            DTL: 40
            create_txg: 4
        children[2]:
            type: 'disk'
            id: 2
            guid: 15584038717217315292
            path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
--------------------------------------------
LABEL 1
--------------------------------------------
    version: 28
    name: 'ZFS_BASE'
    state: 1
    txg: 304
    pool_guid: 2858461830226276295
    hostid: 2823901366
    hostname: 'freenas.local'
    top_guid: 4501951276730454614
    guid: 15584038717217315292
    vdev_children: 2
    vdev_tree:
        type: 'raidz'
        id: 0
        guid: 4501951276730454614
        nparity: 1
        metaslab_array: 31
        metaslab_shift: 24
        ashift: 9
        asize: 3206283264
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 11581382714089714999
            path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 18038418914026149309
            path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            not_present: 1
            DTL: 40
            create_txg: 4
        children[2]:
            type: 'disk'
            id: 2
            guid: 15584038717217315292
            path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
--------------------------------------------
LABEL 2
--------------------------------------------
    version: 28
    name: 'ZFS_BASE'
    state: 1
    txg: 304
    pool_guid: 2858461830226276295
    hostid: 2823901366
    hostname: 'freenas.local'
    top_guid: 4501951276730454614
    guid: 15584038717217315292
    vdev_children: 2
    vdev_tree:
        type: 'raidz'
        id: 0
        guid: 4501951276730454614
        nparity: 1
        metaslab_array: 31
        metaslab_shift: 24
        ashift: 9
        asize: 3206283264
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 11581382714089714999
            path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 18038418914026149309
            path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            not_present: 1
            DTL: 40
            create_txg: 4
        children[2]:
            type: 'disk'
            id: 2
            guid: 15584038717217315292
            path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
--------------------------------------------
LABEL 3
--------------------------------------------
    version: 28
    name: 'ZFS_BASE'
    state: 1
    txg: 304
    pool_guid: 2858461830226276295
    hostid: 2823901366
    hostname: 'freenas.local'
    top_guid: 4501951276730454614
    guid: 15584038717217315292
    vdev_children: 2
    vdev_tree:
        type: 'raidz'
        id: 0
        guid: 4501951276730454614
        nparity: 1
        metaslab_array: 31
        metaslab_shift: 24
        ashift: 9
        asize: 3206283264
        is_log: 0
        create_txg: 4
        children[0]:
            type: 'disk'
            id: 0
            guid: 11581382714089714999
            path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/148f7408-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
        children[1]:
            type: 'disk'
            id: 1
            guid: 18038418914026149309
            path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14c45b9a-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            not_present: 1
            DTL: 40
            create_txg: 4
        children[2]:
            type: 'disk'
            id: 2
            guid: 15584038717217315292
            path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            phys_path: '/dev/gptid/14eec5ee-2e39-11e2-a6ec-000c29a3ccfb'
            whole_disk: 1
            create_txg: 4
[root@freenas] ~#
Spero di aver interpretato correttamente la tua richiesta di informazioni.
Ciao e grazie!
MB: Abit IP35 ; CPU: Quad CPU Q6600 @ 2.40GHz ; RAM: 8 GB Kingston ddr2
Case: Bravo chieftec ; Ali: 460W Maxima ; System: Transcend flash card ide 4GB (FreeNAS - 9.2.1.6 )
Storage: 8x2TB WD20EARS/EARX (in raid-z 12TB)

User avatar
misterredman
Forum Moderator
Forum Moderator
Posts: 184
Joined: 25 Jun 2012 13:31
Location: Switzerland
Status: Offline

Re: ZFS HDD online mentre il pool è UNAVAIL (missing device)

Post by misterredman »

Ok.

L'dea sarebbe quella di ricreare il label del disco cancellato, così che ZFS possa importare il pool. Sembra sia possibile: https://github.com/zfsonlinux/zfs/issues/852

ma purtroppo non ci sono i dettagli.
NAS1: Pentium E6300 - Abit IP35Pro - 4GB RAM - Backup of NAS2
NAS2: Core 2 Quad Q9300 - Asus P5Q-EM - 8GB RAM
pyload - flexget - tvnamer - subsonic - owncloud - crashplan - plex media server

User avatar
alexfax
Starter
Starter
Posts: 15
Joined: 14 Nov 2012 16:02
Status: Offline

Re: ZFS HDD online mentre il pool è UNAVAIL (missing device)

Post by alexfax »

Ho contattato la persona che mi hai indicato sul post.. e gentilmente mi ha risposto. L'attività che ha fatto è ben oltre le mie capacità. Ha uan conoscenza moooollto approffondita dello ZFS tanto da ricreare a manina con un editor esadecimale gli indici e quant'altro...
L'unica nota positiva... è che mi ha consigliato di provare con questo
http://www.solarisinternals.com/wiki/in ... ack_script

Cosa dite... qualcuno mi aiuta e proviamo a capirci qualcosa?!?!?!
(la mia iniziativa non è del tutto disinteressata :D )
MB: Abit IP35 ; CPU: Quad CPU Q6600 @ 2.40GHz ; RAM: 8 GB Kingston ddr2
Case: Bravo chieftec ; Ali: 460W Maxima ; System: Transcend flash card ide 4GB (FreeNAS - 9.2.1.6 )
Storage: 8x2TB WD20EARS/EARX (in raid-z 12TB)

User avatar
misterredman
Forum Moderator
Forum Moderator
Posts: 184
Joined: 25 Jun 2012 13:31
Location: Switzerland
Status: Offline

Re: ZFS HDD online mentre il pool è UNAVAIL (missing device)

Post by misterredman »

alexfax wrote:Ho contattato la persona che mi hai indicato sul post.. e gentilmente mi ha risposto. L'attività che ha fatto è ben oltre le mie capacità. Ha uan conoscenza moooollto approffondita dello ZFS tanto da ricreare a manina con un editor esadecimale gli indici e quant'altro...
L'unica nota positiva... è che mi ha consigliato di provare con questo
http://www.solarisinternals.com/wiki/in ... ack_script

Cosa dite... qualcuno mi aiuta e proviamo a capirci qualcosa?!?!?!
(la mia iniziativa non è del tutto disinteressata :D )
Interessante!

Alcuni cose che ho notato:
-lo script è in python, quindi dovrai installare python o usare un sistema con python installato;
-alcuni passaggi nell'esempio sono fatti da solaris e bisognerà trovare un comando corrispondente per il sistema operativo in uso;
-la procedura è pensata per dischi singoli ma secondo l'autore dovrebbe essere possibile ripetere la procedura su i vari dischi dell'array.

Il mio consiglio è di provare ad eseguire la procedura, sempre sulla macchina virtuale e poi risolvere man mano i problemi che si presentano.
NAS1: Pentium E6300 - Abit IP35Pro - 4GB RAM - Backup of NAS2
NAS2: Core 2 Quad Q9300 - Asus P5Q-EM - 8GB RAM
pyload - flexget - tvnamer - subsonic - owncloud - crashplan - plex media server

User avatar
alexfax
Starter
Starter
Posts: 15
Joined: 14 Nov 2012 16:02
Status: Offline

Re: ZFS HDD online mentre il pool è UNAVAIL (missing device)

Post by alexfax »

Infatti, solo che sono bloccato.
Credo che se riuscisimo a trovare la soluzione (o l'adattamento di questo script) potrebbe essere molto interessante per NAS4FREE e FREENAS.
Non riesco ad andare avanti....
I need your help...
MB: Abit IP35 ; CPU: Quad CPU Q6600 @ 2.40GHz ; RAM: 8 GB Kingston ddr2
Case: Bravo chieftec ; Ali: 460W Maxima ; System: Transcend flash card ide 4GB (FreeNAS - 9.2.1.6 )
Storage: 8x2TB WD20EARS/EARX (in raid-z 12TB)

User avatar
misterredman
Forum Moderator
Forum Moderator
Posts: 184
Joined: 25 Jun 2012 13:31
Location: Switzerland
Status: Offline

Re: ZFS HDD online mentre il pool è UNAVAIL (missing device)

Post by misterredman »

alexfax wrote:Infatti, solo che sono bloccato.
Credo che se riuscisimo a trovare la soluzione (o l'adattamento di questo script) potrebbe essere molto interessante per NAS4FREE e FREENAS.
Non riesco ad andare avanti....
I need your help...

Puoi essere più preciso? Dove incontri problemi?
NAS1: Pentium E6300 - Abit IP35Pro - 4GB RAM - Backup of NAS2
NAS2: Core 2 Quad Q9300 - Asus P5Q-EM - 8GB RAM
pyload - flexget - tvnamer - subsonic - owncloud - crashplan - plex media server

ku-gew
Advanced User
Advanced User
Posts: 172
Joined: 29 Nov 2012 09:02
Location: Den Haag, The Netherlands
Status: Offline

Re: ZFS HDD online mentre il pool è UNAVAIL (missing device)

Post by ku-gew »

Salve, spero tutto si risolva nel migliore dei modi, ma per il futuro vorrei sottolineare come RAIDZ1 non sia affatto adatto a pool così grossi, si deve sempre usare RAIDZ2 per evitare che durante la ricostruzione un secondo disco rotto (... capita!) faccia perdere tutto.
http://www.zdnet.com/blog/storage/why-r ... n-2009/162

Torno ora a leggere i vostri tentativi, molto interessanti (non essendoci io dentro!).
HP Microserver N40L, 8 GB ECC, 2x 3TB WD Red, 2x 4TB WD Red
XigmaNAS stable branch, always latest version
SMB, rsync

User avatar
alexfax
Starter
Starter
Posts: 15
Joined: 14 Nov 2012 16:02
Status: Offline

Re: ZFS HDD online mentre il pool è UNAVAIL (missing device)

Post by alexfax »

Allora eccoci..
il primo problema riscontrato sta nell'installazione di python
ho trovato questo
http://code.blog.idiomatic.org/2010/02/ ... edded.html
che suggeriva

Code: Select all

mkdir /mnt/tank1/local
cd /mnt/tank1/local
mkdir -p etc tmp usr var/db/pkg var/run
cp -p /etc/resolv.conf /etc/passwd /etc/group /etc/spwd.db etc
mkdir bin lib usr/bin usr/lib sbin usr/sbin dev
cp -p /usr/bin/tar usr/bin/
cp -rp /libexec .
cp -p /usr/lib/libarchive.so.4 /usr/lib/libbz2.so.3 /usr/lib/libfetch.so.5 /usr/lib/libssl.so.5 usr/lib/
cp -p /lib/libz.so.4 /lib/libc.so.7 /lib/libedit.so.6 /lib/libncurses.so.7 /lib/libmd.so.4 /lib/libutil.so.7 /lib/libcrypto.so.5 lib/
cp -p /bin/sh /bin/mkdir /bin/rm /bin/chmod /bin/mv /bin/cat bin/
cp -p /sbin/ldconfig sbin/
cp -p /usr/sbin/mtree /usr/sbin/pkg_add usr/sbin/
mount -t devfs dev dev
pkg_add -C `pwd` -r python26
umount dev
ma funziona tutto fino a

Code: Select all

cp -p /lib/libz.so.4 /lib/libc.so.7 /lib/libedit.so.6 /lib/libncurses.so.7 /lib/libmd.so.4 /lib/libutil.so.7 /lib/libcrypto.so.5 lib/
sono fermo ben prima dello script... insomma..

P.S. Grazie dell'augurio ku-gew, Hai perfettamente ragione sul raid5 o raidz1 in base alle tecnologie.
C'è sempre di meglio.. cosa vogolio dire..
con il raid 6 andrei a perndere n-2 dischi (in cui n è il numero di dischi totali) riducendo molto il rischio.
Vero è che sarebbe comunque meglio avere un disco dormiente di hot swap sempre pronto (n-3)... e ancora meglio che tutti gli hdd fossero di partite produttive differenti dunque senza numeri di serie consequenziali......

perchè ti ho fatto questo esempio.
Sono sicuro che c'è sempre un modo migliore di tenere i dati, sono che con la mia professione so per cero che tantissima gente tieni i dati in un solo hdd oppure in una chiavetta usb.
La cosa che mi fa.. incaz..re è che tutto sto macello è solo colpa mia, ma non perchè non sapessi che correvo un rischio ma perchè sono stato pollo!
1. perchè ho fatto un "taglia" dei dati e non un "copia" (se stai testando una nas nuova non fai mai un taglia!!)
2. Quando sono riusito a sistemare il primo dico dovevo salvare tutto (invece ho detto ... io sono capace e non sbaglio mai)

adesso ho combinato il danno.. e sono qua .. con gli script forensi...
Per carità i pc si rompono, si rompono anche i dischi.... ma nel 90% dei casi... se si pendono dati... è colpa dell'utente
in questo caso mia.... :D :D :D

Mi è rimasto solo misterredman .... vediamo se mi salva le chiap... anche questa volta ;)
MB: Abit IP35 ; CPU: Quad CPU Q6600 @ 2.40GHz ; RAM: 8 GB Kingston ddr2
Case: Bravo chieftec ; Ali: 460W Maxima ; System: Transcend flash card ide 4GB (FreeNAS - 9.2.1.6 )
Storage: 8x2TB WD20EARS/EARX (in raid-z 12TB)

ku-gew
Advanced User
Advanced User
Posts: 172
Joined: 29 Nov 2012 09:02
Location: Den Haag, The Netherlands
Status: Offline

Re: ZFS HDD online mentre il pool è UNAVAIL (missing device)

Post by ku-gew »

alexfax wrote:P.S. Grazie dell'augurio ku-gew, Hai perfettamente ragione sul raid5 o raidz1 in base alle tecnologie.
C'è sempre di meglio.. cosa vogolio dire..
con il raid 6 andrei a perndere n-2 dischi (in cui n è il numero di dischi totali) riducendo molto il rischio.
Vero è che sarebbe comunque meglio avere un disco dormiente di hot swap sempre pronto (n-3)... e ancora meglio che tutti gli hdd fossero di partite produttive differenti dunque senza numeri di serie consequenziali......
Attenzione! questo è FALSO! Meglio avere RAID6/Z2 piuttosto che lo stesso numero di dischi in RAID5/Z1 con uno dormiente! Attenzione! Il disco dormiente riduce il tempo prima che cominci la ricostruzione, ma non aiuta affatto durante la ricostruzione! Solo RAID6/Z2 ti protegge da una seconda rottura (o errore di lettura! ASSAI probabile) durante la ricostruzione.
Se hai un RAID5 3+1 con dischi da 3 TB hai il 51% di probabilità di incorrere durante la ricostruzione in un errore di lettura *irrecuperabile*, anche se il disco spare fa partire subito la ricostruzione.

Ci tenevo a precisare per evitare false aspettative e false scelte pagate amaramente troppo tardi, non voglio però distogliere oltre il tema della discussione.
HP Microserver N40L, 8 GB ECC, 2x 3TB WD Red, 2x 4TB WD Red
XigmaNAS stable branch, always latest version
SMB, rsync

User avatar
alexfax
Starter
Starter
Posts: 15
Joined: 14 Nov 2012 16:02
Status: Offline

Re: ZFS HDD online mentre il pool è UNAVAIL (missing device)

Post by alexfax »

Stra quoto quello che hai detto
ma solo per dovere di cronaca intendevo un raid6/z2 con un disco di hot swap da cuoi il (n-3)
Vero è che sarebbe comunque meglio avere un disco dormiente di hot swap sempre pronto (n-3)
ma è stata una mia mancanza di precisione.....

Torniamo allo script.... ;)
anzi se volessi cimentarti anche tu....
più cervelli... più idee... più soluzioni!!
ciao
MB: Abit IP35 ; CPU: Quad CPU Q6600 @ 2.40GHz ; RAM: 8 GB Kingston ddr2
Case: Bravo chieftec ; Ali: 460W Maxima ; System: Transcend flash card ide 4GB (FreeNAS - 9.2.1.6 )
Storage: 8x2TB WD20EARS/EARX (in raid-z 12TB)

User avatar
misterredman
Forum Moderator
Forum Moderator
Posts: 184
Joined: 25 Jun 2012 13:31
Location: Switzerland
Status: Offline

Re: ZFS HDD online mentre il pool è UNAVAIL (missing device)

Post by misterredman »

alexfax wrote:Allora eccoci..
il primo problema riscontrato sta nell'installazione di python
ho trovato questo
http://code.blog.idiomatic.org/2010/02/ ... edded.html
che suggeriva

Code: Select all

mkdir /mnt/tank1/local
cd /mnt/tank1/local
mkdir -p etc tmp usr var/db/pkg var/run
cp -p /etc/resolv.conf /etc/passwd /etc/group /etc/spwd.db etc
mkdir bin lib usr/bin usr/lib sbin usr/sbin dev
cp -p /usr/bin/tar usr/bin/
cp -rp /libexec .
cp -p /usr/lib/libarchive.so.4 /usr/lib/libbz2.so.3 /usr/lib/libfetch.so.5 /usr/lib/libssl.so.5 usr/lib/
cp -p /lib/libz.so.4 /lib/libc.so.7 /lib/libedit.so.6 /lib/libncurses.so.7 /lib/libmd.so.4 /lib/libutil.so.7 /lib/libcrypto.so.5 lib/
cp -p /bin/sh /bin/mkdir /bin/rm /bin/chmod /bin/mv /bin/cat bin/
cp -p /sbin/ldconfig sbin/
cp -p /usr/sbin/mtree /usr/sbin/pkg_add usr/sbin/
mount -t devfs dev dev
pkg_add -C `pwd` -r python26
umount dev
Ma al momento stai utilizzando FreeNAS 8 oppure NAS4Free? Ho poca esperienza con FreeNAS 8.

Di solito per FreeNAS 7 e per NAS4Free embedded si salvavano i pacchetti su un disco dati, che ha spazio sufficiente e non viene cancellato al riavvio.
alexfax wrote:ma funziona tutto fino a

Code: Select all

cp -p /lib/libz.so.4 /lib/libc.so.7 /lib/libedit.so.6 /lib/libncurses.so.7 /lib/libmd.so.4 /lib/libutil.so.7 /lib/libcrypto.so.5 lib/
Che errore riporta il comando?

Se possibile dovresti sempre riportare l'output dei comandi che non funzionano, così che possiamo procedere un po' più spediti. ;)
NAS1: Pentium E6300 - Abit IP35Pro - 4GB RAM - Backup of NAS2
NAS2: Core 2 Quad Q9300 - Asus P5Q-EM - 8GB RAM
pyload - flexget - tvnamer - subsonic - owncloud - crashplan - plex media server

Post Reply

Return to “Italiano”