私はcephにかなり慣れていないので、cephがハードウェアレベルのRAID HBAをサポートしているかどうか調べてみます。
悲しいことに、情報を見つけることができませんでした。私が見つけたのは、OSDにはプレーンディスクを使用することをお勧めすることです。しかし、これにより、PCIe、ディスクのインターフェイスの帯域幅が高くなり、CPUの要件が非常に高くなります。ハードウェアRAIDコントローラーはすでにこれらの要件を解決しており、PCIe、CPU、その他のリソースを消費することなく、セットアップに基づいて高い冗長性を提供します。
したがって、私が望むセットアップは、必要なRAIDレベルが何であれ、コントローラレベル(RAID 5、RAID 6)でディスクの冗長性を処理するローカルRAIDコントローラを使用することです。どのRAID LUNに加えて、ホスト、シャーシ、ラック、行、データセンター、またはCRUSHで可能なまたは計画可能なものの間でより高いレベルのレプリケーションを行うためにcephを使用したいか
そのセットアップでの経験はありますか?
推奨設定ですか?
このハードウェアRAID統合に関する詳細なドキュメントはありますか?
するべきだという意味ではありません。 RAID LUNをCephにマッピングすることは可能ですが、抽象化の1つの追加レイヤーを注入し、Ceph機能の少なくとも一部を役に立たないようにレンダリングします。
メーリングリストの同様のスレッド:
http://lists.ceph.com/pipermail/ceph-users-ceph.com/2017-September/021159.html
しかし、これにより、PCIe、ディスクのインターフェイスの帯域幅が高くなり、CPUの要件が非常に高くなります。
実際のところ、多くのストレージワークロードは、最新の汎用CPUと相互接続で適切に処理されます。
はい、RAIDコントローラーは、1つのシャーシ内の少数のディスクで冗長性を処理します。しかし、Cephのようなすでに冗長なマルチノード分散ストレージソリューションを実行する場合、それはコストと複雑さです。 Cephがすでに複数のコピーを持っているのに、なぜ物理ディスクをミラーリングする必要があるのですか?
このようなソリューションのビルディングブロックは、単なるディスクの束です。 Open Compute Storage's Open Vaultなど。エンクロージャー内の30個のスピンドル、おそらく数十のCPUコアの計算ノードに接続されています。スケールアウトに必要な数のノードを追加します。スループットを最大化したい場合は、そのコンピューティングをCeph専用にしておくことができます。