新しいNVMeドライブからの大きな利益を期待して、ハードウェアビルドを終了しました。以前のパフォーマンスは予想よりも低かった(〜3GB転送)ので、マザーボード/ CPU /メモリ/ HDDを交換しました。パフォーマンスは2倍だったが、それでもhalf3歳のときのパフォーマンスSATA6ドライブを搭載したmacbook pro。
Ubuntu(16.04.1 LTS
でも確認済み):
Release: 15.10
Codename: wily
4.2.0-16-generic
$ Sudo blkid
[Sudo] password for kross:
/dev/nvme0n1p4: UUID="2997749f-1895-4581-abd3-6ccac79d4575" TYPE="swap"
/dev/nvme0n1p1: LABEL="SYSTEM" UUID="C221-7CA5" TYPE="vfat"
/dev/nvme0n1p3: UUID="c7dc0813-3d18-421c-9c91-25ce21892b9d" TYPE="ext4"
私のテスト結果は次のとおりです。
sysbench --test=fileio --file-total-size=128G prepare
sysbench --test=fileio --file-total-size=128G --file-test-mode=rndrw --max-time=300 --max-requests=0 run
sysbench --test=fileio --file-total-size=128G cleanup
Operations performed: 228000 Read, 152000 Write, 486274 Other = 866274 Total
Read 3.479Gb Written 2.3193Gb Total transferred 5.7983Gb (19.791Mb/sec)
1266.65 Requests/sec executed
Test execution summary:
total time: 300.0037s
total number of events: 380000
total time taken by event execution: 23.6549
per-request statistics:
min: 0.01ms
avg: 0.06ms
max: 4.29ms
approx. 95 percentile: 0.13ms
Threads fairness:
events (avg/stddev): 380000.0000/0.00
execution time (avg/stddev): 23.6549/0.00
スケジューラーはnone
に設定されます。
# cat /sys/block/nvme0n1/queue/scheduler
none
lspci
情報は次のとおりです。
# lspci -vv -s 02:00.0
02:00.0 Non-Volatile memory controller: Samsung Electronics Co Ltd Device a802 (rev 01) (prog-if 02 [NVM Express])
Subsystem: Samsung Electronics Co Ltd Device a801
Physical Slot: 2-1
Control: I/O+ Mem+ BusMaster+ SpecCycle- MemWINV- VGASnoop- ParErr- Stepping- SERR+ FastB2B- DisINTx+
Status: Cap+ 66MHz- UDF- FastB2B- ParErr- DEVSEL=fast >TAbort- <TAbort- <MAbort- >SERR- <PERR- INTx-
Latency: 0, Cache Line Size: 32 bytes
Interrupt: pin A routed to IRQ 45
Region 0: Memory at fb610000 (64-bit, non-prefetchable) [size=16K]
Region 2: I/O ports at e000 [size=256]
Expansion ROM at fb600000 [disabled] [size=64K]
Capabilities: [40] Power Management version 3
Flags: PMEClk- DSI- D1- D2- AuxCurrent=0mA PME(D0-,D1-,D2-,D3hot-,D3cold-)
Status: D0 NoSoftRst+ PME-Enable- DSel=0 DScale=0 PME-
Capabilities: [50] MSI: Enable- Count=1/8 Maskable- 64bit+
Address: 0000000000000000 Data: 0000
Capabilities: [70] Express (v2) Endpoint, MSI 00
DevCap: MaxPayload 128 bytes, PhantFunc 0, Latency L0s unlimited, L1 unlimited
ExtTag- AttnBtn- AttnInd- PwrInd- RBE+ FLReset+
DevCtl: Report errors: Correctable- Non-Fatal- Fatal- Unsupported-
RlxdOrd- ExtTag- PhantFunc- AuxPwr- NoSnoop+ FLReset-
MaxPayload 128 bytes, MaxReadReq 512 bytes
DevSta: CorrErr+ UncorrErr- FatalErr- UnsuppReq+ AuxPwr+ TransPend-
LnkCap: Port #0, Speed 8GT/s, Width x4, ASPM L1, Exit Latency L0s <4us, L1 <64us
ClockPM+ Surprise- LLActRep- BwNot- ASPMOptComp+
LnkCtl: ASPM Disabled; RCB 64 bytes Disabled- CommClk+
ExtSynch- ClockPM- AutWidDis- BWInt- AutBWInt-
LnkSta: Speed 8GT/s, Width x4, TrErr- Train- SlotClk+ DLActive- BWMgmt- ABWMgmt-
DevCap2: Completion Timeout: Not Supported, TimeoutDis+, LTR+, OBFF Not Supported
DevCtl2: Completion Timeout: 50us to 50ms, TimeoutDis-, LTR-, OBFF Disabled
LnkCtl2: Target Link Speed: 8GT/s, EnterCompliance- SpeedDis-
Transmit Margin: Normal Operating Range, EnterModifiedCompliance- ComplianceSOS-
Compliance De-emphasis: -6dB
LnkSta2: Current De-emphasis Level: -6dB, EqualizationComplete+, EqualizationPhase1+
EqualizationPhase2+, EqualizationPhase3+, LinkEqualizationRequest-
Capabilities: [b0] MSI-X: Enable+ Count=9 Masked-
Vector table: BAR=0 offset=00003000
PBA: BAR=0 offset=00002000
Capabilities: [100 v2] Advanced Error Reporting
UESta: DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
UEMsk: DLP- SDES- TLP- FCP- CmpltTO- CmpltAbrt- UnxCmplt- RxOF- MalfTLP- ECRC- UnsupReq- ACSViol-
UESvrt: DLP+ SDES+ TLP- FCP+ CmpltTO- CmpltAbrt- UnxCmplt- RxOF+ MalfTLP+ ECRC- UnsupReq- ACSViol-
CESta: RxErr- BadTLP- BadDLLP- Rollover- Timeout- NonFatalErr+
CEMsk: RxErr- BadTLP- BadDLLP- Rollover- Timeout- NonFatalErr+
AERCap: First Error Pointer: 00, GenCap+ CGenEn- ChkCap+ ChkEn-
Capabilities: [148 v1] Device Serial Number 00-00-00-00-00-00-00-00
Capabilities: [158 v1] Power Budgeting <?>
Capabilities: [168 v1] #19
Capabilities: [188 v1] Latency Tolerance Reporting
Max snoop latency: 0ns
Max no snoop latency: 0ns
Capabilities: [190 v1] L1 PM Substates
L1SubCap: PCI-PM_L1.2+ PCI-PM_L1.1+ ASPM_L1.2+ ASPM_L1.1+ L1_PM_Substates+
PortCommonModeRestoreTime=10us PortTPowerOnTime=10us
Kernel driver in use: nvme
hdparm
:
$ Sudo hdparm -tT --direct /dev/nvme0n1
/dev/nvme0n1:
Timing O_DIRECT cached reads: 2328 MB in 2.00 seconds = 1163.98 MB/sec
Timing O_DIRECT disk reads: 5250 MB in 3.00 seconds = 1749.28 MB/sec
hdparm -v
:
Sudo hdparm -v /dev/nvme0n1
/dev/nvme0n1:
SG_IO: questionable sense data, results may be incorrect
multcount = 0 (off)
readonly = 0 (off)
readahead = 256 (on)
geometry = 488386/64/32, sectors = 1000215216, start = 0
fstab
UUID=453cf71b-38ca-49a7-90ba-1aaa858f4806 / ext4 noatime,nodiratime,errors=remount-ro 0 1
# /boot/efi was on /dev/sda1 during installation
#UUID=C221-7CA5 /boot/efi vfat defaults 0 1
# swap was on /dev/sda4 during installation
UUID=8f716653-e696-44b1-8510-28a1c53f0e8d none swap sw 0 0
UUID=C221-7CA5 /boot/efi vfat defaults 0 1
fio
これには、いくつかの 比較可能なベンチマーク があります。 fioでテストしてsync
を無効にしたとき、それは別の話です:
sync=1
1 job - write: io=145712KB, bw=2428.5KB/s, iops=607, runt= 60002msec
7 jobs - write: io=245888KB, bw=4097.9KB/s, iops=1024, runt= 60005msec
sync=0
1 job - write: io=8157.9MB, bw=139225KB/s, iops=34806, runt= 60001msec
7 jobs - write: io=32668MB, bw=557496KB/s, iops=139373, runt= 60004msec
1つのジョブと7つのジョブの完全なsync
の結果は次のとおりです。
$ Sudo fio --filename=/dev/nvme0n1 --direct=1 --sync=1 --rw=write --bs=4k --numjobs=1 --iodepth=1 --runtime=60 --time_based --group_reporting --name=journal-test
journal-test: (g=0): rw=write, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=1
fio-2.1.11
Starting 1 process
Jobs: 1 (f=1): [W(1)] [100.0% done] [0KB/2368KB/0KB /s] [0/592/0 iops] [eta 00m:00s]
journal-test: (groupid=0, jobs=1): err= 0: pid=18009: Wed Nov 18 18:14:03 2015
write: io=145712KB, bw=2428.5KB/s, iops=607, runt= 60002msec
clat (usec): min=1442, max=12836, avg=1643.09, stdev=546.22
lat (usec): min=1442, max=12836, avg=1643.67, stdev=546.23
clat percentiles (usec):
| 1.00th=[ 1480], 5.00th=[ 1496], 10.00th=[ 1512], 20.00th=[ 1528],
| 30.00th=[ 1576], 40.00th=[ 1592], 50.00th=[ 1608], 60.00th=[ 1608],
| 70.00th=[ 1608], 80.00th=[ 1624], 90.00th=[ 1640], 95.00th=[ 1672],
| 99.00th=[ 2192], 99.50th=[ 6944], 99.90th=[ 7328], 99.95th=[ 7328],
| 99.99th=[ 7520]
bw (KB /s): min= 2272, max= 2528, per=100.00%, avg=2430.76, stdev=61.45
lat (msec) : 2=98.44%, 4=0.58%, 10=0.98%, 20=0.01%
cpu : usr=0.39%, sys=3.11%, ctx=109285, majf=0, minf=8
IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued : total=r=0/w=36428/d=0, short=r=0/w=0/d=0
latency : target=0, window=0, percentile=100.00%, depth=1
Run status group 0 (all jobs):
WRITE: io=145712KB, aggrb=2428KB/s, minb=2428KB/s, maxb=2428KB/s, mint=60002msec, maxt=60002msec
Disk stats (read/write):
nvme0n1: ios=69/72775, merge=0/0, ticks=0/57772, in_queue=57744, util=96.25%
$ Sudo fio --filename=/dev/nvme0n1 --direct=1 --sync=1 --rw=write --bs=4k --numjobs=7 --iodepth=1 --runtime=60 --time_based --group_reporting --name=journal-test
journal-test: (g=0): rw=write, bs=4K-4K/4K-4K/4K-4K, ioengine=sync, iodepth=1
...
fio-2.1.11
Starting 7 processes
Jobs: 6 (f=6): [W(2),_(1),W(4)] [50.4% done] [0KB/4164KB/0KB /s] [0/1041/0 iops] [eta 01m:00s]
journal-test: (groupid=0, jobs=7): err= 0: pid=18025: Wed Nov 18 18:15:10 2015
write: io=245888KB, bw=4097.9KB/s, iops=1024, runt= 60005msec
clat (usec): min=0, max=107499, avg=6828.48, stdev=3056.21
lat (usec): min=0, max=107499, avg=6829.10, stdev=3056.16
clat percentiles (usec):
| 1.00th=[ 0], 5.00th=[ 2992], 10.00th=[ 4512], 20.00th=[ 4704],
| 30.00th=[ 5088], 40.00th=[ 6176], 50.00th=[ 6304], 60.00th=[ 7520],
| 70.00th=[ 7776], 80.00th=[ 9024], 90.00th=[10048], 95.00th=[12480],
| 99.00th=[15936], 99.50th=[18048], 99.90th=[22400], 99.95th=[23936],
| 99.99th=[27008]
bw (KB /s): min= 495, max= 675, per=14.29%, avg=585.60, stdev=28.07
lat (usec) : 2=4.41%
lat (msec) : 2=0.57%, 4=4.54%, 10=80.32%, 20=9.92%, 50=0.24%
lat (msec) : 250=0.01%
cpu : usr=0.14%, sys=0.72%, ctx=173735, majf=0, minf=63
IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued : total=r=0/w=61472/d=0, short=r=0/w=0/d=0
latency : target=0, window=0, percentile=100.00%, depth=1
Run status group 0 (all jobs):
WRITE: io=245888KB, aggrb=4097KB/s, minb=4097KB/s, maxb=4097KB/s, mint=60005msec, maxt=60005msec
Disk stats (read/write):
nvme0n1: ios=21/122801, merge=0/0, ticks=0/414660, in_queue=414736, util=99.90%
位置合わせ
私はparted
とのアライメントをチェックし、 http://www.intel.com/content/dam/www/public/us/en/documents/technology-briefs/ssd- partition-alignment-tech-brief.pdf
kross@camacho:~$ Sudo parted
GNU Parted 3.2
Using /dev/nvme0n1
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) unit s
(parted) print all
Model: Unknown (unknown)
Disk /dev/nvme0n1: 1000215216s
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:
Number Start End Size File system Name Flags
1 2048s 206847s 204800s fat32 EFI system partition boot, esp
2 206848s 486957055s 486750208s ntfs msftdata
3 486957056s 487878655s 921600s ntfs hidden, diag
4 590608384s 966787071s 376178688s ext4
5 966787072s 1000214527s 33427456s linux-swap(v1)
kross@camacho:~$ Sudo parted /dev/nvme0n1
GNU Parted 3.2
Using /dev/nvme0n1
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) align-check opt 1
1 aligned
(parted) align-check opt 2
2 aligned
(parted) align-check opt 3
3 aligned
(parted) align-check opt 4
4 aligned
(parted) align-check opt 5
5 aligned
TLDR;
私の研究では何も判明していませんが、根本的に間違ったものが設定されているように感じます。スループットは、3年前のmacbook pro w/SATA6の約4倍で、NVMeで半分になります。 noatime,nodiratime
を追加しましたが、これは非常に小さな改善をもたらしましたが、私が期待している4xのようなものはありませんでした。残っているものが何もないことを確認するために、新しい15.10サーバーを再パーティション化/再インストールし、同じ結果を得ました。
fio
の結果が上記の同期/同期なしの問題を示していますか?
だから私はきれいなスレートを持っており、何でも試すことができます。パフォーマンスを標準に近づけるにはどうすればよいですか?すべての参照は大歓迎です。
注意:この答えは古い。 Linux 4.19の時点では、blk_mqは デフォルトスケジューラ です。遅いステムを実行しているPCIe NVMe SSDの問題は、他の場所で発生する可能性が最も高くなります。
元の答え:
追加してください
scsi_mod.use_blk_mq=1
それ以外の場合は、NVMeのコマンドキューとキューごとのコマンドの増加によるメリットはないと思います。
注:Arch向けであることは知っていますが、I/Oの調整に関する詳細については、 Wiki もご覧ください。
ご質問ありがとうございます。私にとって非常に役に立ちました。
私は非常に似たような経験をしており、ハードウェアのセットアップが異なります(Intel NVMe SSDを使用しています)。しかし、私はUbuntu 16.04も実行しています。あなたの証拠と この記事 で見つかった同様の結果を考えると、問題はUbuntuがNVMeドライブをセットアップする方法にあると確信しました。
Ubuntuを完全にgivingめずに問題を解決することにしました。しかし、私が何をしたとしても、hdparmを使用してテストしたとき、正確に2000 MB /秒を超える速度を得ることができませんでした。
それで、掘り下げてみると、Intelから提供されている ガイド が見つかりました。このガイドで提案されていることをすべて試したところ、1つの部分が異なっていることがわかりました。下部近くで、ドライブパーティションを正しく調整する方法について説明します。これは、私のインストールと一致しなかった部分です。私の開始ブロックは4096バイトで割り切れませんでした。 4kセクターサイズの代わりに512バイトセクターサイズを使用していました。
案の定、ディスクをフォーマットして4096で割り切れる値でパーティションを開始し、最終的に2000 MB/sの速度を破ることができました。
少し高くなると予想される場合、現在は平均2.3 GB/sです。これは、Sudo fdisk -l
を実行したときに、NVMeドライブが512バイトの物理セクターサイズでまだ表示されているという事実のせいです。調査を続ける予定ですが、これがあなたのお役に立てば幸いです!
このスレッドは1年前(2016年10月)です。最も高い賛成の回答の1つは、2年前(2015年)のIntel NVMeドライバーを推奨しています。
2017年2月に、サムスンはLinuxベースのブートISOインストーラーを使用する ファームウェアアップデート をリリースしました。同じリンクに、Windows 7/8/10用にインストールできるドライバーがあります。すぐに新しいSamsung 960 Proと新しいDellベースのi7-6700ラップトップの両方にインストールします。 BIOSのフラッシュおよびその他のDellベースのドライバーの更新。
これらの古いスレッドを再検討し、新しいユーザーに最新のリンク(2017年10月11日現在)を提供して、すべてのオプションを開くことが重要だと思います。
LinuxでのSamsung 960 ProのパフォーマンスがWindowsの半分であるため、多くのGoogle検索が返されるため、できるだけ多くのオプションを検索することをお勧めします。
scsi_mod.use_blk_mq=1
カーネルパラメーターを実装した後:
$ systemd-analyze
Startup finished in 7.052s (firmware) + 6.644s (loader) + 2.427s (kernel) + 8.440s (userspace) = 24.565s
カーネルパラメーターを削除して再起動します。
$ systemd-analyze
Startup finished in 7.060s (firmware) + 6.045s (loader) + 2.712s (kernel) + 8.168s (userspace) = 23.986s
そのため、scsi_mod.use_blk_mq=1
はシステムslowerをより速くしないように見えます。かつては有益だったかもしれません。
興味深い情報を次に示します。Windowsでは、キャッシュフラッシュが無効になるまで、ドライブはレビューベンチマークに従って動作しません。通常、これは直接行われません。代わりに、ベンダーのドライバー(この場合はSamsung NVMeドライバー)がインストールされます。
ベンダーのドライバーでベンチマークを実行し、Windowsでキャッシュフラッシュを無効にすると、同じ数値が得られます。ベンダーがキャッシュのフラッシュを無視していなかった場合、これはほとんどありません。
つまり、Windowsでは、すべてのレビューに表示される大きなベンチマーク値を取得するには、fsync
を無効にする必要があります。信頼性を確保するためのすべての手段(fsyncなし、具体的には書き込みなし)バリアは、実装に応じて、間違った時間での電力損失がFS全体を破壊する可能性があることを意味します-書き直された書き込みは「不可能な」状況を作り出します)。
サムスンの「データセンター」SSDには、キャッシュされたデータが正しくフラッシュされるようにするためのコンデンサが付属しています。これは、消費者のドライブには当てはまりません。
昨日、新しいビルドに1TB NVMeを追加して、最初の原則からこれを解決しました。私は特に満足しているわけではなく、サムスンのサポートと連絡を取り、彼らの言うことを確認しました-しかし、私は返事がないと思います。
ほとんどのSSDは、sync = 1(D_SYNC)フラグの場合、平らになります。残念ながら、これはCephジャーナルでよく知られている問題です。詳細については、このページを参照してください。同期が有効になっている場合は、パフォーマンスの高いドライブのリストをご覧ください。
私はまだコメントできないので、答えなければなりません。 :-(
同等のドライブはありませんが、hdparmの値は問題ないと思います。その場合、sysbenchを次善の方法で使用すると仮定します。パラメーター--num-threadsを試してみて、ドライブにさらに負荷をかけます。少なくとも私のコンピューターでは、標準のSATA SSDでは1スレッド(デフォルト)と16スレッドの違いは約1:4でした。私の理解では、NVMeドライブはより多くの並列タスクが負荷をかけているので輝き始めています。
私のM.2スロットの上限は10Mbpsです。この制限を回避するためにPCIeアダプターを使用しました: https://www.Amazon.com/Lycom-DT-120-M-2-PCIe-to-PCIe-3-0-x4-Adapter-Support -M-2-PCIe-2280-2260-2242/dp/B00MYCQP38 /
あなたのマザーボードsaysそれは両方の方法でフル32Mbpsであり、それは本当かもしれませんが、それは私のために働いたので、私はアダプターについて言及したいと思いましたオンボードM.2スロットに差し込む速度を2倍にします)。私はそれが25ドルだったと思うし、あなたがすでにいじるのに十分な時間を費やしているなら、これは試してみる価値があるかもしれません。
Amazonレビューでの私の経験について書きました: https://www.Amazon.com/gp/customer-reviews/R21BXILGXW4D9C/ref=cm_cr_arp_d_rvw_ttl?ie=UTF8&ASIN=B01639694M