FreeNASのzpoolの不良ディスクを交換する必要があります。
zpool status
番組
pool: raid-5x3
state: ONLINE
scrub: scrub completed after 15h52m with 0 errors on Sun Mar 30 13:52:46 2014
config:
NAME STATE READ WRITE CKSUM
raid-5x3 ONLINE 0 0 0
raidz1 ONLINE 0 0 0
ada5p2 ONLINE 0 0 0
gptid/a767b8ef-1c95-11e2-af4c-f46d049aaeca ONLINE 0 0 0
ada8p2 ONLINE 0 0 0
ada10p2 ONLINE 0 0 0
ada7p2 ONLINE 0 0 0
errors: No known data errors
pool: raid2
state: DEGRADED
status: One or more devices could not be opened. Sufficient replicas exist for
the pool to continue functioning in a degraded state.
action: Attach the missing device and online it using 'zpool online'.
see: http://www.Sun.com/msg/ZFS-8000-2Q
scrub: none requested
config:
NAME STATE READ WRITE CKSUM
raid2 DEGRADED 0 0 0
raidz1 DEGRADED 0 0 0
gptid/5f3c0517-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0
gptid/5fe33556-3ff2-11e2-9437-f46d049aaeca UNAVAIL 0 0 0 cannot open
gptid/60570005-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0
gptid/60ebeaa5-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0
gptid/61925b86-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0
errors: No known data errors
glabel status
番組
Name Status Components
ufs/FreeNASs3 N/A da0s3
ufs/FreeNASs4 N/A da0s4
ufsid/4fa405ab96518680 N/A da0s1a
ufs/FreeNASs1a N/A da0s1a
ufs/FreeNASs2a N/A da0s2a
gptid/5f3c0517-3ff2-11e2-9437-f46d049aaeca N/A ada1p2
gptid/60570005-3ff2-11e2-9437-f46d049aaeca N/A ada3p2
gptid/60ebeaa5-3ff2-11e2-9437-f46d049aaeca N/A ada4p2
gptid/a767b8ef-1c95-11e2-af4c-f46d049aaeca N/A ada6p2
gptid/61925b86-3ff2-11e2-9437-f46d049aaeca N/A ada9p2
gptid/4599731b-8f15-11e1-a14c-f46d049aaeca N/A ada10p2
camcontrol devlist
番組
<Hitachi HDS723030BLE640 MX6OAAB0> at scbus0 target 0 lun 0 (pass0,ada0)
<ST3000VX000-9YW166 CV13> at scbus4 target 0 lun 0 (pass1,ada1)
<ST3000VX000-9YW166 CV13> at scbus6 target 0 lun 0 (pass3,ada3)
<Hitachi HDS723030BLE640 MX6OAAB0> at scbus7 target 0 lun 0 (pass4,ada4)
<ST3000DM001-9YN166 CC4C> at scbus8 target 0 lun 0 (pass5,ada5)
<WDC WD30EZRX-00MMMB0 80.00A80> at scbus8 target 1 lun 0 (pass6,ada6)
<WDC WD30EZRX-00MMMB0 80.00A80> at scbus9 target 0 lun 0 (pass7,ada7)
<ST3000DM001-9YN166 CC4C> at scbus9 target 1 lun 0 (pass8,ada8)
<Hitachi HDS723030BLE640 MX6OAAB0> at scbus10 target 0 lun 0 (pass9,ada9)
<Hitachi HDS5C3030ALA630 MEAOA580> at scbus11 target 0 lun 0 (pass10,ada10)
< USB Flash Memory 1.00> at scbus12 target 0 lun 0 (pass11,da0)
ada2
が不良ディスクであると確信しています。
そこに予備を置いたようです-ada-最後に箱に入ったとき。リモートでada2をadaに置き換えることはできますか?誰かがオフィスに来るまで?どのコマンドで?
私が理解できないことは次のとおりです。
glabel status
に表示されないのはなぜですか?zpool status
にこれらの長いgptidが表示され、他のディスクには「ada」名が表示されるのはなぜですか?zpool replace raid2
を使用する場合、デバイス名と新しいデバイス名には何を使用しますか?FreeNASはNASソリューションなので、いくつかの技術的な選択肢は、ファームウェア、システム、GUIなどのアプライアンスの背後に隠されています使える。
FreeNAS(small VMの例)で作成されたZFSプール内の特定のディスクで使用されるパーティションスキーマを取得する場合:
$ glabel status
Name Status Components
gptid/a699226f-bcc4-11e3-952d-0800271cd34d N/A ada4p2
gptid/a6cfc072-bcc4-11e3-952d-0800271cd34d N/A ada5p2
gptid/a707f034-bcc4-11e3-952d-0800271cd34d N/A ada6p2
ディスクを詳しく見るada4
:
$ gpart show ada4
=> 34 62914493 ada4 GPT (30G)
34 94 - free - (47k)
128 4194304 1 freebsd-swap (2.0G)
4194432 58720095 2 freebsd-zfs (28G)
FreeNASは、追加された各ディスクに小さなswapパーティションを追加し、残りのディスク領域は2番目にありますパーティション(別名p2
ために ada4p2
)。
なぜ?
何故なの。私見、それは パーティションアライメント と関係があるかもしれませんが、FreeNASが通常、 swapのないUSBキーまたは小さなCFドライブ(または一方が他方の言い訳になっている)。
ご質問について:
ada0、ada2、ada5、ada7、ada8がglabelステータスに表示されないのはなぜですか?
glabel
はGEOMラベル付けの略です。そのため、サポートされるパーティション/ fsに関する情報のみが表示されます(サポートされるパーティションのより完全なリストについては、 man glabel を参照してください)。この場合、ディスク自体とスワップパーティションは表示されません。
なぜzpool status
一部のディスクではこれらの長いgptidを表示し、他のディスクでは「ada」名を表示しますか?
質問1と同じ:GEOMのラベル付け、またはその特定のケースではそれがないため。
パーティションがglabelで開始/ラベル付けされていない場合があります(または、この情報が失われます)。すべての場合:あまり心配しないでください。これは名前を付けるだけのものです。したがって、一方のパーティションにgptidがあり、もう一方のパーティションに単純なデバイス名があれば、それは世界の終わりではありません。
もちろん、パーティションがzpool(使用済みパーティションを変更できないようにするシステム-理にかなっている)に入ったら、ラベルを変更することはできません。
zpool replace raid2
-デバイスと新しいデバイスの名前には何を使用しますか?
ご覧のように、FreeNASにディスクのパーティション分割に関する設定をさせた方がよい場合があります。 故障したドライブをFreeNAS 。
ただし、パーティショニングを心配せずに手動で行うこともできます(再シルバー化は自動的に開始され、スクラブの実行中に使用された時間程度続きます-マグニチュードの順序を与えるため)。
$ zpool replace raid2 gptid/5fe33556-3ff2-11e2-9437-f46d049aaeca /dev/ada0
再シルバーが完了すると、次のようになります。
$ zpool status raid2
pool: raid2
state: ONLINE
scan: resilvered ...G in ?h?m with 0 errors on Sun Apr 6 17:17:25 2014
config:
NAME STATE READ WRITE CKSUM
NAME STATE READ WRITE CKSUM
raid2 ONLINE 0 0 0
raidz1 ONLINE 0 0 0
gptid/5f3c0517-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0
replacing-0
gptid/5fe33556-3ff2-11e2-9437-f46d049aaeca UNAVAIL 0 0 0 cannot open
ada0 ONLINE 0 0 0
gptid/60570005-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0
gptid/60ebeaa5-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0
gptid/61925b86-3ff2-11e2-9437-f46d049aaeca ONLINE 0 0 0
次にzpool detach raid2 gptid/5fe33556-3ff2-11e2-9437-f46d049aaeca
zpoolから障害のあるデバイスを削除します。
障害のあるディスクと新しいディスクを交換する場合は、より優れた/より多くの「インライン」交換を計画できます。 VMに物事を注意深く設定し、すべてを準備することをお勧めします(これは初めてのようです)。
ZFSは素晴らしい機能を備えた素晴らしいファイルシステムです[〜#〜] [〜#〜]計画が必要です。
詳細: