私はグーグルで検索しましたが、これまでに見つけた最も近いものは、ここにある別のSFの質問です: Azureストレージの制限
目標:
約50TBのストレージをクラウドに移動し、そのストレージを標準のWindowsファイル共有として提示し、拡張が進むにつれて比較的簡単に拡張できるようにします。
問題:
1つのVHDのサイズは1TBしかないようですが、これは明らかに良くありません。
私はここの誰かが彼らが提供できる解決策を持っているとは思いませんか?
読んでくれてありがとう、
ザビエル。
Microsoft DFS名前空間を調査し、Azure内でデータの分離を開始してみてください-私は同様のプロジェクトを実行しました。小さな個別のVHDを追加してから、最初のドライブの下にマウントポイントとしてさらに1TBのVHDをマウントします。
Dとして100GBディスクマウント:
次に、N番目の1TB VHDがD:\ Disk1 ... D:\ Disk50の下にマウントされ、DFS名前空間を使用してデータを共有できます。\DOMAIN\SHARES\Financeは\ NEWFILESERVER\DISK43 $\Financeなどにマップされます。
最も理想的ではありませんが、Azureの現在の技術的な制限内で機能します。
始めるのに十分な説明ができたと思います。さらにサポートが必要な場合は、お気軽にご連絡ください。
このデータをAzureに保存する方が、オフィスに保存するよりも費用効果が高いが、WAN /インターネットリンクを増やす場合は、50TBをアップロードすることを検討する価値があります。そうすれば、新しいハードウェアなどについて心配する必要はありません。上記のソリューションは、私が想像する非常にうまくスケーリングします。
Azureファイルサービス はあなたに役立つかもしれません。また、上記のHBrujnが指摘しているように、1TBはあなたが探している50GBをはるかに超えています。
Azure File Storageサービスを使用すると、最大5TBのサイズのファイル共有を作成できます。各ファイルのサイズは最大1TBです。これは事実上SMBボリュームであり、基盤となるREST APIを備えています。この共有にはAzureリソースとオンプレミスリソースの両方からアクセスできます。
50TBを扱っているので、複数のファイルサービスボリュームを作成する必要があります。 Azure Storageは、ストレージアカウントごとに最大500 TBをサポートしますが、単一のファイル共有としてはサポートしません。 canファイルを個別のblobにアップロードして、500 TB全体にアクセスできるようにしますが、これではSMBインターフェース;代わりに、選択した言語固有のSDK(.net、Java、Python、ノード、Ruby、php)、または直接REST)のいずれかに依存する必要があります=これらの個別のオブジェクトを操作するための呼び出し。
コンテンツをクラウドに移動する場合は、独自のアプリで行うか(ファイル共有に接続した後)、ソース/宛先としてファイルサービスをサポートするようになったAzCopyなどのツールを使用できます。 この記事 を参照してください。AzCopyと、それを使用してファイルサービスに転送する方法について説明しています。