無料重複ファイルファインダー/リムーバーアプリが必要です。重複ファイル/フォルダー名前でまたはサイズでを検索して削除できます。重複の1つ。
このDuplicate File Finderはしばらくの間利用可能でしたが、現在は次のようにセカンダリサイトにのみ存在します Softpediaの参照 。
Wareseekerサイトは正しいリファレンスを示していますhttp://dff.nazrashid.com/
もう存在しません。ただし、このようなサイトから実行可能ファイルを取得する場合は注意が必要です。
に基づいて、複数のディレクトリツリー内の重複を検索できます。
また、最小ファイルサイズと最大ファイルサイズで検索をフィルター処理できます(境界がわかっている場合はスピードアップします)。
非常に思慮深いソフトウェア。最近、無料で無料で紹介されているものがあるかどうかはわかりません。
コメントは Doubles と呼ばれる同様のSourceforgeツールを参照しています
文字通り何十もの重複したファイルファインダーを試しました(そのうちの約20のインストーラー/ Zipファイルがまだ残っています)。 CloneMaster 2.19は、完璧ではありませんが、見つけることができる最高のものだったので、しばらく使用しました(タグを無視して、オーディオコンテンツによって重複したMP3を検出できるものも必要でした)。それらすべてに問題があり、自分で書いて、DFFに要求する機能のリストを作成することにした。
そして、私は AllDup を見つけました。これは、実際にプロジェクトを中止させた最初で唯一のプロジェクトです(技術的には、私のものは完全に中止されたわけではありません。AllDupがやりたいことをすべて行うので、もう書く必要がないため、もう作業は行われていません)。とにかく、AllDupは重複ファイルを検索しますが、他のファイルとは異なり、自分のDFFで使用しようとしていた多くのトリックとテクニックを使用します。そのため、非常に高速です:たとえば、1Bから5GBまでの250,000を超えるサイズを30分以内にスキャンできます(システムで実行しました)数回)。
AllDupのもう1つの優れた(そして何らかの理由でまれな)機能は、タグを無視しながら実際のオーディオデータによって重複したMP3をスキャンできるため、同じであるが異なるタグを持つ2つのMP3(ダウンロード時に非常に一般的)がスキャンできることです重複として検出されます。 (もちろん、2つの異なるCDから2つの同一の曲をリッピングしたときに、もちろん異なるタグで検出することもできます。)もちろん、ファイル名、日付など、バイト単位のコンテンツ以外の要因に基づいて重複を検出することもできます。
AllDupのその他の優れた機能には、ファイル名やフォルダー名、ファイルサイズ、またはその両方に基づいてフィルター処理(包含または除外)する機能があります。結果画面も非常に用途が広く、日付、パス、名前、これ、その他、に基づいてファイルを選択するオプションがあります。また、検出された重複の処理方法もさまざまです。
Michael Thummererも非常に受容的です。私は彼にバグを報告し、機能を数回提案しましたが、彼は非常に迅速に対処しました(同日、次のメールで更新を含むベータ版をダウンロードして試してみるように彼に言ったところまで)。
ああ、それは無料です。
HTH
Duplicate Cleaner は非常に高速で、結果セットフィルタリングの可能性が広がっています。
クローンスパイhttp://www.clonespy.com
これは非常に役立ち、doublekillerよりも便利だと思います。特に素晴らしい機能は「プール」機能です。この機能では、グループ内の重複を無視しながら、ディレクトリのグループを別のディレクトリのグループと比較できます。
たとえば、私のパートナーは、画像の操作中に重複する画像ファイルを保持することを好みます。ディレクトリにこれらのファイルのコピーがあるかどうかを確認したいと思います。
プール1-パートナーホームディレクトリプール2-マイホームディレクトリ。
見つかった唯一の重複は、ファイルが私のディレクトリと私のパートナーのディレクトリの両方に存在する場合です。パートナーのディレクトリにのみ複製されたファイルは無視されます。
しばらくの間、次のバッチファイルを使用しています。
@ECHO OFF
REM TODO: Help when run with /? and switch for recursion
REM Furthermore check whether we might have enough files to hit the envvar length limit
REM and switch strategies accordingly (slower but finds all dupes then)
SETLOCAL ENABLEEXTENSIONS ENABLEDELAYEDEXPANSION
REM This method speeds up comparison but suffers from long file lists
REM as environment variables have a length limit
SET FILELIST=
FOR %1 %%i IN (*) DO (
FOR %%j IN (!FILELIST!) DO (
IF %%~zi EQU %%~zj (
fc /b "%%~i" "%%~j">NUL && echo "%%~i" = "%%~j"
)
)
SET FILELIST=!FILELIST! "%%~i"
)
ENDLOCAL
GOTO :EOF
/r
を引数として実行すると、ディレクトリツリー全体を再帰的に実行できます。
Total Commander には、見事な重複ファイルファインダーユーティリティがあります。残念ながら無料ではありません。
Nikが述べたように、オープンソースでクロスプラットフォームのDuplicate File Finderがあります。 SourceForgeから入手できます here
DoubleKillerは優れた無料(プロバージョンもある)複製ファイルFinder/removerです。私は何年もそれを使用しており、徹底的にそれをお勧めします。
Winmergehttp://winmerge.org/
「ドキュメント」フォルダと、数週間前に「念のため」に作成した即席の「バックアップ」、「ドキュメントのコピー」フォルダとの間で、非常によく似たディレクトリを比較します。
どのファイルがまだ同一であるか、どのファイルが最新(または問題が発生した場合は最も古い)であるか、および1つの場所にしか存在しないファイルを特定できます。次に、ディレクトリを「マージ」して、重複を削除できます。
デュプロケーター 。クロスプラットフォームの重複検索pythonスクリプト。
Advanced system care free には、プログラムにクローンファイルファインダーが付属しています。私はそれを使用し、それは正常に動作します。
高速複製ファイルファインダー:
http://www.mindgems.com/products/Fast-Duplicate-File-Finder/Fast-Duplicate-File-Finder-About.htm
別のユーティリティ:
* Comparison to other duplicate finding utilities:
+ Very fast
+ Comparing directories too.
+ Often, two directories contain, let's say, 4 equal files and 5th file is different.
We handle it too and output these as "common files in directories"
+ Absence of unnecessary switches.
- Win32 only
- Command-line only
私がWindowsでテストした最良のソリューションは、すでに言及した Alldup でした。 Synetech株式会社への小道具それを共有するため。華麗で非常にプロフェッショナルなフリーウェアツール。
投稿では、Cygwin、Linux、OS X(またはbashのようなシェルを使用するもの)で動作するテスト済みのbashソリューションを提供します。
私はいつも古いプログラムを使用してきました Find Duplicates ですが、Geocitiesが削除されたため、もう存在しないと思います ファイルのコピー 。
ファイルを色分けして見やすいグループで表示します。ファイルのすべてのコピーに削除のマークを付けた場合、それらに自動マークを付けることができる、ディレクトリ内のすべてのファイルを選択的に自動マークできる(私はこれを頻繁に使用した)、削除後に空になるディレクトリを削除できる、などの警告を表示します。 Wineで使用する場合はリンクに注意してください。リンクであることを認識せずに、ファイルのすべてのコピーを削除します。
私は Yet Another Duplicate File Remover が素晴らしいとわかりました。それはかなり新しく、非常に使いやすいです。私はそれを使用して、ハードドライブ回復プロジェクトからの50,000を超えるファイルを比較したので、大量のファイルを処理できます。