C++コードは次のとおりです。
#define ARR_SIZE_TEST ( 8 * 1024 * 1024 )
void cpp_tst_add( unsigned* x, unsigned* y )
{
for ( register int i = 0; i < ARR_SIZE_TEST; ++i )
{
x[ i ] = x[ i ] + y[ i ];
}
}
これがネオンバージョンです:
void neon_assm_tst_add( unsigned* x, unsigned* y )
{
register unsigned i = ARR_SIZE_TEST >> 2;
__asm__ __volatile__
(
".loop1: \n\t"
"vld1.32 {q0}, [%[x]] \n\t"
"vld1.32 {q1}, [%[y]]! \n\t"
"vadd.i32 q0 ,q0, q1 \n\t"
"vst1.32 {q0}, [%[x]]! \n\t"
"subs %[i], %[i], $1 \n\t"
"bne .loop1 \n\t"
: [x]"+r"(x), [y]"+r"(y), [i]"+r"(i)
:
: "memory"
);
}
テスト機能:
void bench_simple_types_test( )
{
unsigned* a = new unsigned [ ARR_SIZE_TEST ];
unsigned* b = new unsigned [ ARR_SIZE_TEST ];
neon_tst_add( a, b );
neon_assm_tst_add( a, b );
}
私は両方の亜種をテストしました、そしてここにレポートがあります:
add, unsigned, C++ : 176 ms
add, unsigned, neon asm : 185 ms // SLOW!!!
他のタイプもテストしました:
add, float, C++ : 571 ms
add, float, neon asm : 184 ms // FASTER X3!
質問:32ビット整数型ではネオンが遅いのはなぜですか?
Android NDKにGCCの最後のバージョンを使用しました。NEON最適化フラグがオンになりました。分解されたC++バージョンは次のとおりです。
MOVS R3, #0
Push {R4}
loc_8
LDR R4, [R0,R3]
LDR R2, [R1,R3]
ADDS R2, R4, R2
STR R2, [R0,R3]
ADDS R3, #4
CMP.W R3, #0x2000000
BNE loc_8
POP {R4}
BX LR
これがネオンの分解バージョンです:
MOV.W R3, #0x200000
.loop1
VLD1.32 {D0-D1}, [R0]
VLD1.32 {D2-D3}, [R1]!
VADD.I32 Q0, Q0, Q1
VST1.32 {D0-D1}, [R0]!
SUBS R3, #1
BNE .loop1
BX LR
これがすべてのベンチテストです:
add, char, C++ : 83 ms
add, char, neon asm : 46 ms FASTER x2
add, short, C++ : 114 ms
add, short, neon asm : 92 ms FASTER x1.25
add, unsigned, C++ : 176 ms
add, unsigned, neon asm : 184 ms SLOWER!!!
add, float, C++ : 571 ms
add, float, neon asm : 184 ms FASTER x3
add, double, C++ : 533 ms
add, double, neon asm : 420 ms FASTER x1.25
質問:32ビット整数型ではネオンが遅いのはなぜですか?
Cortex-A8のNEONパイプラインは順番に実行され、ヒットアンダーミス(名前の変更なし)が制限されているため、メモリレイテンシによって制限されます(L1/L2を超えるキャッシュサイズを使用しているため)。コードはメモリからロードされた値に即座に依存するため、常にメモリを待機して停止します。これは、NEONコードが非NEONよりもわずかに(わずかに)遅い理由を説明します。
アセンブリループを展開し、ロードと使用の間の距離を増やす必要があります。例:
vld1.32 {q0}, [%[x]]!
vld1.32 {q1}, [%[y]]!
vld1.32 {q2}, [%[x]]!
vld1.32 {q3}, [%[y]]!
vadd.i32 q0 ,q0, q1
vadd.i32 q2 ,q2, q3
...
ネオンレジスターがたくさんあるので、たくさん広げることができます。整数コードでも同じ問題が発生しますが、A8整数の方がストールするよりもヒットアンダーミスの方が優れているため、それほどではありません。ボトルネックは、L1/L2キャッシュと比較して非常に大きいベンチマークのメモリ帯域幅/レイテンシーになります。データが完全にL1またはL2、あるいはその両方にキャッシュされている場合の影響を確認するために、より小さなサイズ(4KB..256KB)でベンチマークを実行することもできます。
この場合、メインメモリへの遅延によって制限されますが、NEONバージョンがASMバージョンよりも遅いことは明確ではありません。
ここでサイクル計算機を使用する:
http://pulsar.webshaker.net/ccc/result.php?lng=en
キャッシュがペナルティを逃すまで、コードは7サイクルかかるはずです。調整されていないロードを使用しているため、および追加とストアの間の遅延のため、予想よりも遅くなります。
一方、コンパイラによって生成されたループには6サイクルかかります(一般的に、スケジュールも最適化もされていません)。しかし、それは4分の1の仕事をしています。
スクリプトからのサイクルカウントは完全ではないかもしれませんが、露骨に間違っているように見えるものは見当たらないので、少なくとも近いと思います。フェッチ帯域幅を最大にすると(ループが64ビットに整列されていない場合も)、ブランチで余分なサイクルが発生する可能性がありますが、この場合、それを隠すためのストールがたくさんあります。
答えは、Cortex-A8の整数がレイテンシーを隠す機会が多いということではありません。実際、NEONのパイプラインと発行キューがずらされているため、通常は少なくなります。もちろん、これはCortex-A8にのみ当てはまります。Cortex-A9では状況が逆転する可能性があります(NEONは整数と並行して順番にディスパッチされますが、整数には順不同の機能があります)。このCortex-A8にタグを付けたので、それがあなたが使用しているものだと思います。
これはさらなる調査を要求します。これが発生する可能性がある理由は次のとおりです。
このような場合にNEONが優れているかどうかを尋ねましたが、実際には、メモリとの間でストリーミングを行う場合にNEONが特に適しています。秘訣は、メインメモリの待ち時間をできるだけ隠すためにプリロードを使用する必要があるということです。プリロードは、メモリをL2(L1ではなく)キャッシュに事前に取得します。ここで、NEONは、パイプラインと発行キューがずらされているため、また直接パスがあるため、L2キャッシュのレイテンシーの多くを隠すことができるため、整数よりも大きな利点があります。依存関係が少なく、ロードキューを使い果たしていない場合は、0〜6サイクル以下の有効なL2レイテンシが見られると思いますが、整数では、回避できない良好な最大16サイクルでスタックする可能性があります(おそらくただし、Cortex-A8に依存します)。
したがって、配列をキャッシュラインサイズ(64バイト)に調整し、ループを展開して一度に少なくとも1つのキャッシュラインを実行し、調整されたロード/ストアを使用して(アドレスの後に:128を配置)、複数のキャッシュラインをロードするpld命令。何行離れているかについては、小さく始めて、メリットが見られなくなるまで増やし続けます。
C++コードも最適化されていません。
#define ARR_SIZE_TEST ( 8 * 1024 * 1024 )
void cpp_tst_add( unsigned* x, unsigned* y )
{
unsigned int i = ARR_SIZE_TEST;
do
{
*x++ += *y++;
} (while --i);
}
このバージョンは、2サイクル/反復を消費しません。
その上、あなたのベンチマーク結果は私をまったく驚かせません。
32ビット:
この機能はNEONには単純すぎます。最適化の余地を残している十分な算術演算がありません。
はい、それは非常に単純なので、C++バージョンとNEONバージョンの両方が、二重発行機能の恩恵を受ける本当のチャンスなしに、ほぼ毎回パイプラインの危険に苦しんでいます。
NEONバージョンは、一度に4つの整数を処理することでメリットが得られる可能性がありますが、あらゆる危険からもはるかに苦しんでいます。それで全部です。
8ビット:
ARMは、メモリからの各バイトの読み取りが非常に遅いです。つまり、NEONは32ビットと同じ特性を示しますが、ARMは大幅に遅れています。
16ビット:ここでも同じです。 ARMの16ビット読み取りを除いて、それほど悪くはありません。
float:C++バージョンはVFPコードにコンパイルされます。また、Coretex A8には完全なVFPはありませんが、VFP liteは、何もパイプラインを実行しません。
NEONが32ビットを奇妙に処理しているわけではありません。理想的な条件を満たすのはARMです。関数は単純であるため、ベンチマークの目的には非常に不適切です。YUV-RGB変換などのより複雑なものを試してください。
参考までに、完全に最適化されたNEONバージョンは、完全に最適化されたCバージョンの約20倍、完全に最適化されたARMアセンブリバージョンの8倍の速度で実行されます。強力なNEONができます。
最後になりましたが、ARM命令PLDはNEONの親友です。適切に配置すると、少なくとも40%のパフォーマンス向上がもたらされます。
コードを改善するためにいくつかの変更を試すことができます。
可能な場合:-3番目のバッファーを使用して結果を保存します。 -データを8バイトに揃えてみてください。
コードは次のようになります(gccインライン構文がわかりません)
.loop1:
vld1.32 {q0}, [%[x]:128]!
vld1.32 {q1}, [%[y]:128]!
vadd.i32 q0 ,q0, q1
vst1.32 {q0}, [%[z]:128]!
subs %[i], %[i], $1
bne .loop1
Exophaseが言うように、パイプラインのレイテンシーがあります。あなたが試すことができるかもしれません
vld1.32 {q0}, [%[x]:128]
vld1.32 {q1}, [%[y]:128]!
sub %[i], %[i], $1
.loop1:
vadd.i32 q2 ,q0, q1
vld1.32 {q0}, [%[x]:128]
vld1.32 {q1}, [%[y]:128]!
vst1.32 {q2}, [%[z]:128]!
subs %[i], %[i], $1
bne .loop1
vadd.i32 q2 ,q0, q1
vst1.32 {q2}, [%[z]:128]!
最後に、メモリ帯域幅が飽和することは明らかです
あなたは小さなを追加しようとすることができます
PLD [%[x], 192]
あなたのループに。
それが良いかどうか教えてください...
8msの違いは[〜#〜] so [〜#〜]小さいので、おそらくキャッシュまたはパイプラインのアーティファクトを測定しています。
[〜#〜] edit [〜#〜]:floatやshortなどのタイプについて、このようなものと比較してみましたか?コンパイラーがそれをさらに最適化し、ギャップを狭めることを期待しています。また、テストでは、最初にC++バージョンを実行してからASMバージョンを実行します。これはパフォーマンスに影響を与える可能性があるため、より公平にするために2つの異なるプログラムを作成します。
for ( register int i = 0; i < ARR_SIZE_TEST/4; ++i )
{
x[ i ] = x[ i ] + y[ i ];
x[ i+1 ] = x[ i+1 ] + y[ i+1 ];
x[ i+2 ] = x[ i+2 ] + y[ i+2 ];
x[ i+3 ] = x[ i+3 ] + y[ i+3 ];
}
最後に、関数のシグネチャでは、unsigned*
の代わりにunsigned[]
を使用します。コンパイラーは配列がオーバーラップせず、アクセスを並べ替えることができると想定しているため、後者が推奨されます。エイリアシングに対する保護をさらに強化するためにも、restrict
キーワードを使用してみてください。