DjangoアプリケーションとS3で非常に大きなファイルのアップロード機能をどのように実装しますか?
写真家としての副業で、問題のあるイベントの元の画像と処理された画像を含むマルチギガバイトのアーカイブ(Zip、tar)ファイルを共有する必要があるクライアントがいくつかいます。これまでは、これにGoogleドライブを使用してきました。ファイルをGdにアップロードし、ローカルストレージドライブに取得して保存していました。そこにアップロードされたファイルはMacのGoogleドライブクライアントを介して自分のコンピューターにミラーリングされるため、時々Gdフォルダーをクリーンアップします。私のMacには256GBのオンボードドライブしかないので、スペースは非常に貴重です。
過去4か月間に1つのクライアントで2つのハードドライブ障害が発生しました。過去10年間、私が彼らに雇われていたのはゼロでした。彼らはより良いソリューションを望んでおり、私はすでに開発者です。
さて、問題は、ブラウザに12ギガバイト以上のアーカイブファイルをキューに入れてサーバーに転送することをお勧めするかどうかです。このファイルは、S3に移動する前に属性のスキャンを行います。
これには2つのオプションがあります。
個人的に、私はオプション2に傾いていますが、可能であれば他のアイデアが欲しいです。
このトピックに関する他の人との会話を通じて、私は解決策をまとめたと思います:
これを達成するには、次のことを行う必要があります。
POST
edしてREST APIエンドポイントにできます。