私はこれをフォローアップしています:
大きなファイルをリモートサーバーにコピーすると、物理メモリが不足します
しかし、私はこれを別に投稿すると考えました。
14GBのメモリを搭載した64ビットサーバーのXeon5405と、バックアップ、NMS、およびテストに使用するAreca 1680SATAストレージコントローラーがあります。 Intel Pro/1000EBおよびPLNICを搭載しています。 VMWareサーバー2.0を実行していますが、アプリケーションのサービスパックをテストできるように、P2V変換を実行したいと考えています。
44GBのVMDKファイルをサーバーにコピーする過程で、メモリが不足していることを発見しました。 VMWare Converterのメモリリークだと思いましたが、Server 2008を実行している別の32ビットサーバーで変換を行っても、32ビットサーバーのローカルディスクに変換する限り問題はありません。次に、Windowsファイル共有を介して44GB VMDKファイルをサーバーにコピーしようとすると、サーバーは最終的にすべてのメモリをバックグラウンドで消費し、ファイル転送が遅くなります。
そこで、リモートサーバーからFTPを試しました。残念ながら、Windows FTPclientは、C:\のTempファイルを使用したいと考えていますが、あまり多くないため、機能しません。 Cの空き領域:。そのため、クライアントとしてFilezillaを使用しましたが、同様の高いメモリ使用量が見られ(99%ではなく75%まで上昇します)、転送は高速で開始され、その後非常に遅くなります。 FTPクライアントの転送速度の数値にこの速い/遅い/速い/遅い動作が見られ、ネットワークでも同様の動作が見られます
これは多くの問題を説明しています:
http://blogs.technet.com/askperf/archive/2007/05/08/slow-large-file-copy-issues.aspx
ESEUtilを試しましたが、メモリの処理は行いませんが、それほど高速ではありません。
この時点でTeraCopyを使用しています。それは16MB /秒を取得します。これはかなりくだらないですが、少なくとも一貫性があります。
マルチGBファイルをサーバー上で問題なくローカルにコピーしたので、ストレージコントローラーについては考えていません。
私より賢い人がこれをなくす魔法の答えを知っているかどうか疑問に思います。 64ビットWindowsが登場するまで、私はこのことについて心配することはありませんでした。 SQL Serverのメモリ使用量で仮想コピーを作成しているサーバーにも問題がありますが、それは安定しているようです。
田丸健のRichCopy4を使ってみてください。
http://technet.Microsoft.com/en-us/magazine/2009.04.utilityspotlight.aspx?pr=blog
「システムバッファをオフにする」オプションを指定して実行してみてください。
HTH。
Windows 2003 32ビットで30〜40ギガのファイルをコピーする場合にも同様のメモリ不足の問題が発生しました。
TeraCopyを使用すると問題が解決し、ギガビットで約55mb /秒が得られます(バッファーを2メガにアップ)。
VMwareの問題を調べているときにこの投稿にぶつかっただけですが、とにかくWindows 2008 Standardx86でこの問題が発生しました。 NICで「フロー制御」をオンにすると問題が解決したことがわかりました。これについてMSサポートと話し合っていましたが、何もありませんでした。ランダムな投稿でこの修正を見つけました。
それが私のようにあなたの頭痛を取り除くことを願っています!幸運を!