私はこれをインターネットの他の場所にも投稿しました。適切な解決策が見つかった場合は、明らかに両方の場所で返信します。
Ds2413 +に4TBドライブを追加して、SHRボリューム(2x4TB、1x2TB)を拡張しようとしています。 4TBドライブはWDRed、2TBはWDGreenです。
拡張は約4時間30分で12%完了しました。これを外挿すると、さらに36時間かかることがわかります。その後、他の3つの古い2TBドライブをこの新しいNASに移行する必要があります(最初にデータを移動し、次にこれら3つの追加ドライブでボリュームを再度拡張します)。
NASは1週間近く展開できないようです。
プロセスをスピードアップする方法はありますか?
いくつかの事実/情報:
デバイスはSynologyds2413 +です
DSM 5.0、アップデート1
必要に応じて、拡張中にデバイスをそのままにしておくことができます。
CPUは約14%でホバリングしています
RAMは5%(2GBの)
/ proc/sys/dev/raid/speed_limit_maxは200000を示します
/ proc/sys/dev/raid/speed_limit_minは10000を示します
これまで拡張している間、誰もデバイスを使用していません。
/ proc/mdstat :(非常に遅い速度に注意してください)
そして、これがcat /proc/mdstat
の出力です。
cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4]
md3 : active raid5 sde6[2] sda6[1] sdc6[0]
1953494784 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
resync=DELAYED
md2 : active raid5 sde5[3] sda5[0] sdc5[2] sdb5[1]
3897559296 blocks super 1.2 level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
[=====>...............] reshape = 26.9% (525738624/1948779648) finish=1007.8min speed=23531K/sec
md1 : active raid1 sde2[3] sda2[0] sdb2[1] sdc2[2]
2097088 blocks [12/4] [UUUU________]
md0 : active raid1 sde1[3] sda1[0] sdb1[1] sdc1[2]
2490176 blocks [12/4] [UUUU________]
私の即時グーグルの結果は数年前のものであり、DSMの古いバージョンの場合です。私が見たのはspeed_limit_max
とspeed_limit_min
を上げることだけでしたが、拡張プロセス中にそれを実行できるかどうかについては言及されていませんでした。
この拡張の速度を上げるにはどうすればよいですか?
Speed_limit_maxとspeed_limit_minの値を上げるだけで何か問題がありますか?
支援するために他の詳細が必要ですか?
どんな助けでも大歓迎です。
編集:誰かがグーグルを使ってこれを見つけて、拡張が実際にどれくらいの時間がかかるのか疑問に思っていた場合に備えて、これを追加します。
拡張プロセスのために何も調整することになりませんでした。
初期設定は2x4TB、SHR-1では1x2TBでした。
最初の拡張は、追加の1x4TBドライブでした。ボリュームには最大3TBのデータがありました。これには約35時間30分かかりました。
2番目の拡張は、追加の3x2TBドライブでした。ボリュームには約6,5TBのogデータがありました。これには約18時間15分かかりました。
4TBドライブはすべてWDRedで、2TBドライブはWDGreenでした。
念のために言っておきますが、ボリュームの作成後にSHR-1からSHR-2に移動することはできません。セットアップ中にそれを選択する必要があります(振り返ってみます。ドライブに障害が発生した場合の再構築時間が長くなる可能性があり、再構築プロセス中に追加の障害が発生するリスクがあるため)
はい、再構築プロセス中に設定を微調整できます。それは何も傷つけません。
root
を使用し、パスワードは管理者アカウントと同じです次のコマンドを入力します。
echo 50000 >/proc/sys/dev/raid/speed_limit_min
再構築の速度が大幅に向上するはずです。
より高速にしたい場合は、これも試してください。
echo 16384 >/sys/block/md2/md/stripe_cache_size
私も同じ問題を抱えていましたが、これを入れて、今では再構築が速くなっています。
DS2413 +はこれで構築されています。
3時間41分で0.0%から0.78%になりましたが、この2つのコマンドラインを使用すると、再構築の速度と使用しているITシステムをtweekする必要があることを覚えておいてください。
DS2413 +にログインするとき、この2つのコマンドを入力するだけです
echo 500000 /proc/sys/raid/speed_limit_max
echo 250000 /proc/sys/raid/speed_limit_min
ここで、最後の12分間で、0.78%から1.02%にジャンプしたため、構築が速くなりました。
どなたでもご利用いただければ幸いです。