負荷テストを実行すると、次の結果が得られます。レポートを読むのを手伝ってくれる人はいますか?
the number of thread = '500 '
ramp up period = '1'
Sample = '500'
Avg = '20917'
min = '820'
max = '48158'
Std Deviation = '10563.178194669255'
Error % = '0.046'
throughput = '10.375381295262601'
KB/Sec = `247.05023046315702`
Avg. Bytes = '24382.664'
Sample:送信されたリクエストの数。
Throughput:は、テスト中にサーバーに送信される単位時間(秒、分、時間)あたりのリクエスト数です。
応答時間:指定されたリクエストがサーバーに送信されてから情報の最後のビットが返されるまでの経過時間クライアント。
throughputは、実行中にサーバーによって処理される実際の負荷ですが、この同じ実行中のサーバーのパフォーマンスについては何も伝えません。これが、実行中のサーバーのパフォーマンスに関する本当のアイデアを得るために両方の手段が必要な理由です。 応答時間は、サーバーが特定の負荷を処理する速度を示します。
Average:これは平均(算術平均μ= 1/n *Σi= 1…n xi)合計サンプルの応答時間です。
MinおよびMaxは最小および最大応答時間です。
重要なことは、平均値が非常に誤解を招く可能性があることです値が平均からどれだけ近い(または遠い)かを示していないため、この目的のためには、Deviation値が必要ですサンプルの異なる応答時間で同じである!!
偏差:標準偏差(σ)は、平均値(μ)への値:平均値に対する測定値の分散または変動性の良いアイデアを提供します。
次の式は、標準偏差(σ)の計算方法を示しています。
σ= 1/n *√Σi= 1…n(xi-μ)2
詳細については、 こちら !!を参照してください
したがって、deviation値がlow比較値と平均値である場合、メジャーが分散していない(またはほとんど平均値に近い)こと、および平均値が有意であることを示します。
Kb/sec:キロバイト/秒で測定されるスループット。
エラー%:エラーのあるリクエストの割合。
例は常に理解した方が良いです!!!これは 記事 に役立つと思います。
要約レポートは、テスト内の異なる名前のリクエストごとにテーブル行を作成します。これは、より少ないメモリを使用することを除いて、集計レポートに似ています。スループットは、サンプラーターゲット(HTTPサンプルの場合はリモートサーバーなど)の観点から計算されます。 JMeterは、リクエストが生成された合計時間を考慮します。他のサンプラーとタイマーが同じスレッドにある場合、これらは合計時間を増加させるため、スループット値が低下します。したがって、異なる名前の2つの同一のサンプラーは、同じ名前の2つのサンプラーのスループットの半分になります。サンプラーラベルを正しく選択して、レポートから最良の結果を得ることが重要です。
時間はミリ秒単位です。
Jmeterの概要については多くの説明があります。関連するデータを含むパフォーマンステストレポートを生成するために、かなり以前からこのツールを使用しています。以下のリンクで利用可能な説明は、現場での経験からのものです。
Jmeter:概要レポートの理解
これは、負荷テストの結果を理解するためにJmeterによって生成される最も有用なレポートの1つです。
#ラベル:サーバーに送信するHTTPサンプルリクエストの名前
#サンプル:サーバーにプッシュされたサンプルの総数をキャプチャします。この特定の要求を5回実行するループコントローラーを配置し、2回の反復(スレッドグループ内の呼び出しループカウント)を設定し、負荷テストを100ユーザーに対して実行し、ここに表示されるカウントを想定すると.... 1 * 5 * 2 * 100 = 1000。合計=実行中にサーバーに送信されるサンプルの合計数。
#平均:特定のhttpリクエストの平均応答時間です。この応答時間はミリ秒単位で、100ユーザーの場合、2回の反復で5ループの平均です。合計=サンプルの合計平均の平均。すべてのサンプルのすべての平均を加算し、サンプル数で割ることを意味します
#Min:このラベルに送信するサンプルリクエストごとの最小時間。合計は、すべてのサンプルの最小時間に等しくなります。
#Max:このラベルに対して送信するサンプルリクエストごとの最大タイ費合計は、すべてのサンプルの最大時間に等しくなります。
#標準開発者:データセットの標準偏差を知ることは、データポイントが平均の周りにどれだけ密集しているかを示します。標準偏差が小さいほど、データの一貫性が高まります。標準偏差は、ラベルの平均時間の半分以下にする必要があります。それ以上の場合は、何かが間違っていることを意味します。問題を把握して修正する必要があります。 https://en.wikipedia.org/wiki/Standard_deviation 合計は、すべてのサンプルで最高の偏差に対するユーカリです。
#エラー:特定のサンプルリクエストで検出されたエラーの合計割合。 0.0%は、すべての要求が正常に完了したことを示します。合計は、すべてのサンプルのエラーサンプルの割合に等しい(合計サンプル)
#スループット:ヒット/秒、またはテスト中にサーバーに送信される単位時間(秒、分、時間)ごとのリクエストの総数。
endTime = lastSampleStartTime + lastSampleLoadTime startTime = firstSampleStartTime converstion = unit time conversion value Throughput = Numrequests / ((endTime - startTime)*conversion)
#KB/sec:キロバイト/秒単位の測定スループットレート。
#平均バイト:サーバーからダウンロードされたデータの総バイト数の平均。合計は、すべてのサンプルの平均バイト数です。
Jmeterテスト計画には、パフォーマンステストの実行結果を表示するリスナーが必要です。
リスナーは、Jmeterの実行中にサーバーから返される応答をキャプチャし、ツリー、テーブル、グラフ、ログファイルの形式で紹介します。
また、今後の参照用に結果をファイルに保存することもできます。 Jmeterが提供するリスナーには多くの種類があります。それらのいくつかは次のとおりです。要約レポート、集計レポート、集計グラフ、結果ツリーの表示、表内の結果の表示など。
概要レポートの各パラメーターの詳細を以下に示します。
図を参照して:
Label:特定のHTTP要求の名前/ URLです。 「ラベルにグループ名を含める」オプションを選択した場合、スレッドグループの名前が各ラベルのプレフィックスとして適用されます。
Samples:これは、リクエストごとの仮想ユーザーの数を示します。
Average:すべてのサンプルが特定のラベルを実行するのにかかる平均時間です。この例では、ラベル1の平均時間は942ミリ秒であり、合計平均時間は584ミリ秒です。
Min:特定のラベルのサンプルにかかった最短時間。ラベル1の最小値を見ると、20個のサンプルのうち最短の応答時間のうち、サンプルの1つが584ミリ秒でした。
Max:特定のラベルのサンプルにかかった最長時間。ラベル1の最大値を見ると、20個のサンプルのうち最長の応答時間の1つが2867ミリ秒でした。
標準Dev。:これは、サンプル応答時間の平均値から逸脱していた例外的なケースのセットを示しています。この値が小さいほど、データの一貫性が高まります。標準偏差は、ラベルの平均時間の半分以下にする必要があります。
Error%:ラベルごとの失敗したリクエストの割合。
Throughput:スループットは、サーバーによって時間単位(秒、分、時間)ごとに処理される要求の数です。この時間は、最初のサンプルの開始から最後のサンプルの終了まで計算されます。スループットが大きいほど優れています。
KB/Sec:これは、パフォーマンステストの実行中にサーバーからダウンロードされたデータの量を示します。つまり、キロバイト/秒で測定されるスループットです。
詳細: http://www.testingjournals.com/understand-summary-report-jmeter/