インフラストラクチャがどのように見えるかの簡単な例:
4台のサーバーがiscsiターゲットとして機能し、それぞれ1x2TBを公開します(これらのサーバーはすべて、ストレージ用のraid10を備えているため、2TBの使用可能容量があります)
8 TB(上記の公開ディスクで構成:4x2TB)ディスクを接続する必要があるn台のサーバーでは、同時書き込みが必要です。すべてのサーバーが実際にストレージを共有します。
さて、それを達成する方法は?私はクラスター化されたfsに関して何の好みもありません。
よろしく、パトリック
同じ論理ブロックデバイスへのiSCSIターゲットとして機能する2つのサーバーにまたがるDRBDは非常にうまく機能し、比較的単純です。このようなシンプルで安価なソリューションは、DRBDが優れている点であり、しばらくの間、ストックLinuxカーネルソースに含まれています。
目的に応じて[〜#〜] ocfs [〜#〜]を使用することをお勧めします。構成で理解できないこと:1つのサーバーに障害が発生した場合はどうしますか?そのための冗長性はどこにありますか?
私は昨日、このニーズに似たものを実装しました。私たちの状況も同様でした。合計3台のマシン、1台は「ヘッド」、2台はiSCSIターゲットを介してデータを提供するだけでした。ヘッドとしてopenfilerを使用しました。これらは、iSCSIのマウントとネイティブNFS/CIFSとしての再予約を公式にはサポートしていませんが、ssh経由でログインしてマウントし、openfilerGUI内で通常どおりにボリュームに追加するのは簡単でした。用途の広いファイルシステム(XFS)を使用している場合、それらすべてを組み合わせて、時間をかけて拡張するのは非常に簡単です。
内部的には、これはopeniscsi + lvm + samba/nfsにすぎませんが、かなりうまく機能する傾向があります。
ただし、a)サポートされていない、b)少し扱いにくいため、いくつかの問題がありました。ダウンストリームiSCSIターゲットをマウントし、再起動から適切に機能させるなど、再起動時にすべてを正しく開始することができましたが、個々のSANが残りのユーザーに利用できなくなった場合は、問題が発生することが予想されます。キット。
幸運を