2つのZFSファイルシステムを共有するOpenSolarisボックスがあります。 1つは、VMwareサーバーを実行しているCentOSボックスへのNFS接続です(ディスクイメージはZFSに保存されます)。もう1つは、Windows 2008サーバーへのiSCSI接続で、ZFSの上にNTFSフォーマットが設定されています。どちらの接続もgig-Eを介して直接行われます(スイッチなし)。
ボックスを監視するためにmuninを実行していますが、どのような数値を期待するべきかわかりません。誰かが私と比較するためのいくつかのベースライン番号を与えたり、どこからチューニングを始めるかについて何か提案をすることはできますか?
ここに私が見ているNFS統計があります、solarisボックスでmuninを修正したらiSCSIを投稿します:P
結合されたGigEとiSCSIを介したSun X4100の書き込みを、Sun X4500に280MB/sにプッシュしました。
TCPスタックを調整するために実行できることがたくさんあります。これは私の私の在庫調整構成です(Sunのホワイトペーパーのコレクションから取得):
$ cat /etc/rc3.d/S99ndd
#!/bin/bash
NDD=/usr/sbin/ndd
$NDD -set /dev/tcp tcp_xmit_hiwat 1048576
$NDD -set /dev/tcp tcp_recv_hiwat 8388608
$NDD -set /dev/tcp tcp_max_buf 8388608
$NDD -set /dev/udp udp_xmit_hiwat 1048576
$NDD -set /dev/udp udp_recv_hiwat 8388608
$NDD -set /dev/udp udp_max_buf 8388608
$NDD -set /dev/tcp tcp_conn_req_max_q 65536
$NDD -set /dev/tcp tcp_conn_req_max_q0 65536
$NDD -set /dev/tcp tcp_fin_wait_2_flush_interval 67500
また、OpenSolarisマシンを調べる価値があるのは、fsflush間隔の変更、割り込み調整の「マジック」、ソフトリングの無効化です。以下を/ etc/systemに追加します(再起動が必要です):
* "fsflush" tuning
set tune_t_fsflushr = 5
set autoup = 300
* Disable the Automatic Interrupt Adjustment
set dld:dld_opt = 2
* Disable "soft rings"
set ip:ip_squeue_fanout = 0
set ip:ip_soft_rings_cnt = 0
言及する価値があることは、OpenSolarisではなく、Solaris 10でこれを行うことですが、調整パラメータは同じように機能するはずです。
私はFilebenchの大ファンで、チューニングオプションをいじったり、スループットテストを行ったりしています。
(最近名前が変更された)OpenSolaris 2009.06リリースは、iSCSIとZFSの世界で非常にエキサイティングなようです。
これが一部に役立つことを願っています!
1 GBイーサネット上のiSCSIを介してEMC AX150iアレイに約90 MB /秒を取得します。
単一のddまたはbonnie ++(生の速度、線形書き込み)の場合は、ワイヤ速度にかなり近づく必要があります。
しかし、ボトルネックはディスクアレイになり、ランダムなIOが複数のVMのロードを開始すると、トランスポートよりもはるかに多くなります。
また、大量のRAMを備えたバッテリバックアップ式書き込みキャッシュがない場合、他のIOが続いている状態で大量の書き込みを開始するとすぐに、パフォーマンスがクレーターになります。
1Gイーサネット上のISCSI経由でWindowsサーバーに約80 MB/Sを取得します。ターゲット:KernSafe iStorageサーバー http://www.kernsafe.com/Product.aspx?id=5 イニシエーター:Microsoftイニシエーターwww.Microsoft.com/downloads/details.aspx?familyid=12cb3c1a-15d6 -4585-b385-befd1319f825&displaylang = en
Hardisk:ATA 7200
1GBのリンクを介して、iSCSI経由でデータを約200メガビット/秒にプッシュできました。しかし、当時はキャッシュをほとんど使用していなかったEMC CX4-240によってホストされた14ディスクRAID 6がありました。
最大のボトルネックはおそらく、コントローラーキャッシュの量とディスクの速度(キャッシュがいっぱいになった場合)です。
(プロではなく)セミプロの終わりに近い方のために、draytekマネージドスイッチを介してチーム化されたW2012サーバーデュアル1GB NICから一定で一貫した150MBの読み取り120MBの書き込みをRJ45銅線を介してblackarmorsnasに接続し、20GBファイルを1回転送します。テスト中、他の同時操作はありません。これを達成するために、私はジャンボフレーム9k、rx&txフロー、つまりすべての通常のドライバー最適化を使用していますが、オンにしてジャンボフレームを最大に上げる以外の微調整はありません。