私はSamsung1.5TBハードディスク(EcoGreen F2)を使用していますが、最近かなり整理されています。つまり、500GBが書き込まれ、残りは無料です。今、いくつかの巨大なファイル(ギガバイトサイズ)をコピーしているとき、ハードディスクは最大100MB /秒のフルスピードを示しますが、速度が2〜5MB /秒に大幅に低下する単一のスポットがあります。
データはドライブに正常に書き込まれる可能性があり、正常に書き込まれる予定です。確認しました。しかし、これらのスポットではかなり遅いです。私がファイルを書いたとき、10、20GBのフルスピードエリア、そして再び遅いスピードの範囲がある可能性があります。問題は、不良セクタがないことです(SMART dataによる)。データは実際に正しく書き込まれているため、ハードドライブがその領域を不良セクタとしてマークする可能性は低いです。
次のコピープロセスが高速になるように、全体的な速度を上げたり、ドライブにスポットをエラーとしてマークさせたりする可能性はありますか?現在、Windows7でHDTuneを使用してエラーチェックを実行していますが、何かが変わるとは確信していません。
ここではいくつかの要因が関係しています...ドライブのメカニズム、ステータス、およびディスクに既にあるものに関する詳細情報がなければ、私はいくつかのことを推測することしかできません。
まず、大きなファイルをディスクにコピーするときに、500GB(連続)の単一のチャンクを取得する可能性はほとんどありません。ディスク全体に、断片化されたいくつかのセグメント(多くはないにしても)のスペースが発生する可能性が高くなります。したがって、ファイルが書き込まれている間、ディスクのさまざまな領域で前後に動作する必要があります。
第二に、今日のほとんどのドライブには、ディスクの一部にアクセスするために軸を共有する必要がある複数のプラッターとヘッドがあります。つまり、ファイルが最初の数ブロックで第1プラッターの上面に書き込まれている場合、次のブロックはディスクの中央近くの第2プラッターに割り当てられます...ディスクのヘッドは両方のセグメント間を行き来する必要があり(これにより、セクター間の「シーク」に多くの時間が追加されます)、その問題は、スマートで利用可能なすべてのバス帯域幅を埋めようとする「バスマスタリング」などのテクノロジーによって悪化します。 ..「マルチスレッド」方式で読み取り/書き込みを試みることによって。つまり、書き込み操作は同時に5つの書き込み操作に分割されます... 1番目の書き込みブロック1〜10、2番目の書き込み11〜20 ...など。残念ながら、Platterベースのハードドライブは、書き込みを試みる各セクター間を移動するのに時間を費やす必要があります。 &データを検証します...したがって、そのようなテクノロジーは実際には修正するよりも多くの問題を引き起こす可能性があります。一方、SSDにはシーク時間がほとんどないので、かなり良くなります。
第三に、これは「グリーン」ドライブです...電力効率を高めようとします。設計上、電力消費を削減するために時々「スリープ状態」になり、何かがディスクにアクセスするとすぐにスピンバックします。ドライブが(ランダムな未知の理由で)スリープ状態になり、その後ウェイクアップしなければならないという問題がありました。スピンダウン時間とスピンアップ時間は、読み取り/書き込みジョブで大きな遅延を引き起こす可能性があります。この問題を修正するためのハードドライブ用のファームウェアがある可能性があります...または、製造元に連絡して問題に対処するように依頼する必要があるかもしれません。 (これは、「個人/消費者」が行うことはほぼ不可能かもしれません)
第四に、はい、プラッターは悪くなる可能性があります...しかし、セクターを悪いものとしてマークするのに十分なほど悪くはありません。ほとんどのドライブには、ディスクに書き込むファジーロジックが組み込まれています...戻って、書き込まれたことを読み取り、正しく書き込まれたことを確認します...そうでない場合は...もう一度書き込みます...そしてもう一度確認してください...そしてそれが何度も失敗した場合、それは最終的にセクターを不良としてマークします。しかし、2回目の試行で成功した場合は、まだ「不良」としてマークされていません。
これが少しお役に立てば幸いです...しかし、私は認めます、これは完全にはほど遠いです。 Platterベースのディスクがパフォーマンスの「ボトルネック」になる原因となる理由は他にもたくさんあります。
ハードディスク全体にたくさんの緩いアイテムを取り除くと、それは全体に非連続的な穴を残します。シーケンシャル書き込みとシーケンシャルアクセスは、ハードドライブでのランダムよりも何倍も高速です。 MFTリザーブは使用されていない可能性があり、certianプログラムやシステムが書き込む非連続的な混乱も、それを混乱させる可能性があります。
フルスペース統合デフラグを最小限に実行するか、船外に出て再注文デフラグ全体を実行すると、大きなオープンスペースが残ります。それらのプログラムに応じて(再び)、彼らはただ穴を見つけてそれを埋め、別の非連続的な混乱を引き起こします。しばらくの間、一晩デフラグするのが最善です。フルデフラグの優れた点は、データのリカバリを実行する必要がある場合、シーケンシャルであることが非常に便利なことです。だから痛みには目的があります:-)
不良ブロックでシークエラーの場合、S.M.A.R.Tテストで問題が発生していることが示されます。
2〜5MB /秒まで低くなることは、CompWizsの回答も参照してください。
他のすべてには「役に立たない」デフラグがあります。デフラグを行う人なら誰でも知っているように、最高速度を目指しているときは、それについて無駄なことは何もありません。これはシーケンシャルであり、先読みに役立ち、回復能力を向上させることができます。これにより、非常に時間のかかるプロセスが残り、そこにいなくても実行するのが最適です。
解決策:本当にはるかにデフラグすることには、fsutilを使用してジャーナリングとリソースの混乱を更新/クリアすることも含まれます。