私はmongodbを使用して、40,000,000項目近くある非常に大きなサイズ(90G)を永続化しています。このファイルを読み取って解析し、すべてのアイテムをmongodbに挿入します(私のプログラミング言語はPerl、batch_insertで、1つのアイテムを1つのmongodbドキュメントにマップします)。
挿入する前に、インデックスを事前に作成しました(約10のインデックスキー)。挿入速度が私のニーズ(200から400アイテム/秒)を満たせないことがわかりました。特にコレクションのサイズが非常に大きくなると、インデックスキーが多すぎると挿入が確実に遅くなります。したがって、すべてのデータをdbにダンプした後で、それらにインデックスを付けることができるかどうか疑問に思います。
この方法が利用できるかどうか、そしてそれが私の時間を確実に節約できるかどうか誰かに教えてもらえますか?
はい、インポートした後でインデックスを作成できます(コレクションのデフォルトの_id
インデックスのみが存在します)。結果のインデックスがよりコンパクトで効率的になるため、これもお勧めします(同様の理由で 前景と背景のインデックス付けが推奨されます 余裕がある場合)。ただし、特に10個のインデックスを作成する場合は、完了するまでに少し時間がかかります。
インポート後にビルドするには、インポートが完了するまでインデックスを定義せず、次に ensureIndex() コマンドを使用して必要なインデックスを作成します(通常、このようなインデックスの作成は次のようになります)リソース集中型)。詳細については:
大きなコレクションでも同じ問題がありました。 2日以上のデータの大量インポートプロセスの後、次のステップは、コレクションをできるだけ早く稼働させるためです。