これは大変なことだと聞いています。どうしてこれなの?私はほとんどUbuntuを実行しているので、影響はありませんが、ただ疑問に思っていました。
デフラグを行うと、セクターが互いに近くなり、回転するディスクに役立ちます。ただし、これは、任意のセクターへのアクセス時間が一定のSSDでは役に立たない。デフラグを実行すると、ディスクに余分な書き込みが発生するだけです(SSDの設計により、書き込みの数は限られています)。
デフラグツールプログラムを起動してドライブに対して実行できるという意味で、「ソリッドステートドライブをデフラグできる」という理由がないことに注意してください。
ただし、クラスターを一緒に移動しても実際にはドライブの速度が向上しないため、これを行っても非ソリッドステートドライブに影響はありません。
一方、ドライブで不必要な書き込みを大量に実行すると、ドライブの寿命がわずかではありますが短くなります。
さらに、多くのソリッドステートドライブは、同じ領域への繰り返し書き込みを減らすことでこの問題を軽減するために最適化を行い、これは外部システムに対して透過的です。この場合、クラスターはまったく一緒に移動されず、代わりにドライブ全体に広がる可能性があります。 。この手法は通常、「ウェアレベリング」です。
デフラグツールプログラムがソリッドステートドライブの最適化を拒否した場合(または、選択可能なドライブとしてそれを一覧表示した場合でも)、上記の問題を回避するために、基本的にはソフトウェアによる拒否を拒否します。
ドライブの最適化に使用される基本的なプロトコルについては十分に理解していないため、そのような場合、最適化コマンドを受け入れるためのソリッドステートドライブからのハードブロックが十分にある可能性があります。ただし、この理由は、ここで説明されているものです。
デフラグは、ドライブの寿命が限られているドライブに対して不必要なパスを実行することにより、ドライブの寿命を縮めます。
それはいつも悪いことではありません。完全なデフラグを手動で実行することは望ましくありません ただし、ボリュームスナップショットが有効になっている場合、Windows 8/10は月に1回SSDをデフラグします :
これは仕様によるものであり、断片化されたSSDボリュームでの書き込みパフォーマンスのvolsnapコピーが遅いために必要です。また、SSDではフラグメンテーションが問題にならないというのも誤解です。 SSDが断片化しすぎると、ファイルの断片化が最大になり(メタデータがそれ以上のファイルフラグメントを表すことができない場合)、ファイルを書き込んだり拡張したりしようとしたときにエラーが発生する可能性があります。さらに、ファイルフラグメントが多いほど、ファイルの読み取り/書き込み中に処理するメタデータが増えるため、パフォーマンスが低下する可能性があります。
結論
いいえ、Windowsは愚かにも盲目的にSSDで毎晩デフラグを実行していませんし、いいえ、WindowsデフラグはSSDの寿命を不必要に短くしていません。最新のSSDは、従来のハードドライブで使用されている方法とは異なります。
はい、SSDのファイルシステムは一種のデフラグを必要とする場合があり、適切な場合、Windowsによってデフォルトで毎月デフォルトで処理されます。その目的は、パフォーマンスと長寿命を最大化することです。 デフラグを完全に無効にすると、ファイルシステムのメタデータが最大のフラグメンテーションに達し、問題が発生する可能性があるというリスクを冒しています。
ドライブに何があるかによります。 SSDをデフラグしてもパフォーマンスは向上しませんが、はデータの回復に影響を与えます。
一方で、フラッシュメモリには 書き込みサイクルの数に制限があります があるため、大量の書き込みを行うと、最終的には消耗します。フラッシュドライブ、メモリカード、SSDは wear-leveling および [〜#〜] trim [〜#〜] のようなトリックを使用して、メディアの寿命を延ばしますが、デフラグ大量の書き込みが発生する傾向があり、これにより摩耗が速くなります。
一方、断片化されたファイルは、誤って削除したり、ウイルスに感染したりすると、復元が非常に難しくなるため、ファイルを連続した状態(たとえば、デフラグ)に維持すると、復元の可能性が大幅に高まります。
したがって、最初に言ったように、ドライブに保存されているもの、ファイルの重要性、データ回復を実行する必要がある可能性、およびファイルが変更される頻度(頻繁な削除とコピーにより、断片化をより速くし、より多くの書き込みサイクルを消費します)。
実際にできます。デフラグはファイルシステムレベルのことであり、下位のブロックレベルが何であるかは問題ではありません。
しかし、SSDの場合、動きを最小限に抑える必要のあるディスクヘッドはありません。したがって、少しも速くはありません。
一部のOSとツールはこれだけを禁じています。開発会社の決定は、「必要ない」と「できない」という意味を混ぜることを好むからです。しかし、これらは異なるものです。
おそらく、この禁止を回避できるハッキングが複数あります(再編集、またはドライブをiSCSIとしてエクスポートして、同じマシンに再インポートするなど)。この場合、デフラグが非常に長くなるvery断片化ドライブが見つかります。これは、OSがケースの断片化を気にしないためです。そして、他の回答でも述べられているように、このデフラグはシステムを高速化しませんが、寿命を縮めます。
Condusiv Technologiesによると:
SSDは非常に高速で起動し、その後すぐに速度を失い始め、時間の経過とともに破損します。 SSDでは、ハードドライブのように古い情報を上書きするだけでなく、新しいデータが上書きされる前に古いデータを消去する必要があります。これにより、摩耗が2倍になり、大きな問題が発生する可能性があります。
主な問題は、空き領域の断片化による書き込み速度の低下です。 SSD全体に小さな空きスペースが散在していると、ファイルシステムはそれらの小さな利用可能な空きスペースに断片化された断片でファイルを書き込みます。これにより、ソリッドステートドライブへの書き込みパフォーマンスが最大80%低下します。
SSDは、実行できる書き込み回数に制限があるため、ドライブに何度でも書き込むことができます。再度書き込む前に読み取りと消去を行う必要があるという2倍の効果により、SSDの使用量は2倍になります。
SSDが限界に近づくと、断片化と書き込みエラーがさらに発生し、SSDの速度が低下します。空き領域の断片化が増えると、それに比例して書き込みパフォーマンスが低下します。 HyperFastを使用してソリッドステートドライブを最適化しない限り、すべてのSSDでこの問題が発生します。
したがって、彼らはDiskeeperと呼ばれる自社製品の使用を推奨しています。
Diskeeper for HyperFastは、SSDの空き容量を最適化することにより、購入時と同じ速さでシステムを稼働させます。 Diskeeper 12に含まれているHyperFast機能は、パフォーマンスをインテリジェントに排除することでこれらの問題を解決し、より効率的なシーケンシャルライトの発生よりもランダムライトを促進するフリースペースの断片化を低下させます。このテクノロジーとIntelliWriteテクノロジーは、ランダム書き込みよりも効率的で有益な順次書き込みを促進します。
彼らの製品に関する詳細情報が利用可能です: