VMwareおよび多くのネットワークエバンジェリストは、洗練された(高価な)ファイバーSANがVMware ESXおよびESXiサーバーの「唯一の」ストレージオプションであると告げようとしています。はい、もちろんです。 SANを使用すると、高速で信頼性が高く、vMotionが可能になります。ただし、すべてのESX/ESXiユーザーは本当にSANを購入できますか?
私の理論では、この地球上のすべてのVMware ESXインストールの20%未満が実際にファイバーまたはiSCS SANを使用しています。これらのインストールのほとんどは、これを購入できる大企業で行われます。ほとんどのVMwareインストールは「接続ストレージ」を使用すると予測します(vmdkはサーバー内部のディスクに格納されます)。それらのほとんどは中小企業で実行されており、非常に多くあります!
ストレージが接続された2台のESX 3.5サーバーと、iSCS sanが接続された2台のESX 4サーバーを実行します。そして、両者の「実際のライブの違い」はほとんど注目に値しません:-)
この質問の公式統計を知っていますか?記憶媒体として何を使用していますか?
私は多くのVMwareコンサルティング業務を行っており、その割合はインストールベースの80%に近い高可用性共有ストレージ(FC、iSCSI、またはハイエンドNAS)を使用しており、私のクライアントの多くはSMEです。私が見つけた重要な要素は、今日のほとんどのビジネスにとって、サーバーの稼働時間を重要なものとして扱うかどうかです。
直接接続されたストレージから非常に高性能なVMを実行できます(RAID 10アレイに16の内部ドライブを備えたHP DL380 G6はかなり高速なディスクIOを持っています)が、VMwareまたはその他の仮想化環境を構築して数十、数百を置き換える場合、または何千ものサーバーを使用している場合、堅牢なストレージアーキテクチャに多くの労力(およびおそらくはお金)を費やさなければ、気が狂います。
ハイエンドを購入する必要はありませんSANクラスタリング機能用-かなり安いNAS(または仮想化されたSAN HP\Lefthand's VSAのような)まだ認定済みのストレージを使用しています。ただし、共有ストレージを使用していて、SAN\NASインフラストラクチャのすべてのポイントで冗長性がない場合は、テストよりもはるかに多く使用します。冗長性は、サーバーのデュアル(独立)HBAのストレージNIC、デュアル独立ファブリック、SANの冗長コントローラー、バッテリーバックアップキャッシュ\キャッシュのデステージング、冗長ホットスワップ可能なファンと電源など、RAID 5\6\10\50、適切な数のホットスペア。
システム間の実際の違いは、スタンドアロンシステムの1つに致命的な障害が発生した場合、システムを回復するために多くの作業を行う必要があり、パッチを適用し続けるだけでダウンタイムが発生することです。クラスター化されたSAN接続されたシステムでは、ハイパーバイザーにパッチを適用するか、ハイパーバイザーハードウェアをアップグレードするだけでも、ダウンタイムはゼロになります。致命的なサーバー障害は、再起動に必要な時間だけサービスを停止しますVM別のノード上(最悪))、またはこれらのVMにフォールトトレランスを適用している場合、ダウンタイムはまったくありません。
高パフォーマンスの書き込みと読み取りの場合、FCのパフォーマンスは無敵であり、価格は高いですが...機能します...ありふれたパフォーマンスの期待のために、iSCSIは実際にはかなりうまく機能しているので、通常はFCディスクサブシステム上のサーバーメールボックスファイルとiSCSIインターフェイスディスク上の実際のブートドライブを交換し、DNSサーバーとActive DirectoryマシンもiSCSIから実行します。
ESXをSAN、NAS、DASで実行しました。それは完全に依存します:
信頼性と速度の点で、SANに勝るものはないと思います。
信頼性とコストの面から、私はNASを使用します。
そして、スピードとコストのために、DAS。
個々のオプションが重複していないわけではありませんが、それらは私が目にした強みです。
1000を超えるホストを持つ会社として、FCから始めてしばらくiSCSIを試してみましたが、パフォーマンスの問題によりFCに後退しました。 NFSを真剣に検討していますが、まだ結論はありません。ああ、私たちはHP XP/EVAと一部のNetAppを使用しています。ローカルストレージバーデスクトップ/開発ホストはありません。
ご覧のとおり、1つのサイズですべてに対応できるわけではなく、単一クラスのストレージソリューションである必要はありません。可用性とパフォーマンスの要件に応じて、複数のストレージクラスを持つことができます
すべてに長所と短所があります...一番下の行はSLA、アプリケーションの負荷、およびスケールです。したがって、小規模な導入(1-5ホスト)で高性能のストレージが必要な場合は、おそらくNFSでそれを引き出すことができます(実際には、NFSでSAN using = RAMディスク)。今度はそれをスケーリングしてみてください。セットアップを大規模に複製するコストは、ニースに非常に匹敵することがわかりますSAN FCを唯一の論理にする熟読するオプション...ほとんどの場合、ニーズに応じてコストを最適化するために、単一のプラットフォームではなく、さまざまなサービス(アプリ、DB、バックアップ、アーカイブ)の組み合わせを使用します。
4つのESX 4サーバーを実行し、EqualLogic iSCSI SANを使用しています。
小規模なインストールでは、まともなディスクがある限り、ローカルストレージは完全に許容されます。つまり、10000 RPM + SASドライブです。共有ディスクを使用する必要があるのは、このときだけです(意図的には言っていません)共有ディスクをオフにして、NFS共有にすることができます)ソリューションは、クラスタリングを実行する必要があるときです-VMWare HAおよびDRS。
現在、3層のストレージがあります。FibreChannelSAN、ハイエンドのEqualogix SAN、ローエンドのMD3000i SANです。最後の2つはiSCSIです。また、一部のサーバーは、ESXサーバーのローカルストレージから実行します。ほとんどがユーティリティサーバーで、1〜2時間ダウンしても問題がなく、すべてが正常に機能している場合は問題を修正します。
また、自家製のNAS 7.2k SATAドライブとiSCSIエンタープライズターゲットを使用してテスト環境を実行しています(パフォーマンスはそれほど良くありませんが、それでうまくいきます)。
多くの人々が、より大きな環境でもNFS共有に反対する傾向にあります。私はしばらくこれで遊びたかったが、時間を見つけられなかった。
コモディティスイッチから構築されたiSCSIファブリックを備えた4つ(まあ、4つのライブ、1つはテスト用)のESXiホストを実行し、ローエンドのHitachi SAN-SMS-100。
そのレベルでも、SASバックプレーンにツインポートを備えたツインコントローラーがあり、どちらのコントローラーもディスクとツインnicsを捕捉できます。 ESXホストのツインNIC。
各vfsボリュームには4つの可視パスがあるため、かなり許容範囲があります。私たちはファブリックにDell poweredgeスイッチングを使用しています-それらには確かに潜在的な問題があります(少なくとも、冗長なPSUはありません)。
明らかに、より多くのナインが必要な場合は、より多くの費用をかける必要がありますが、iSCSI、ESXi、およびコモディティギガビットイーサネットキットの優れた点は、復元力とパフォーマンスの点であなたの体重を超えることができることです。