1 、 2 、およびの作成者によると、Recallは、リポジトリ内のすべての関連アイテムから選択された関連アイテムのパーセンテージですが、Precisionは、クエリ。
したがって、ユーザー[〜#〜] u [〜#〜]が上位kの推奨アイテムリストを取得すると仮定すると、次のようなものになります:
Recall=(Relevant_Items_Recommended in top-k)/(関連アイテム)
Precision=(Relevant_Items_Recommended in top-k)/(k_ Items_Recommended)
その部分まですべてが明確ですが、それらとRecall rate @ kの違いは理解できません。 recall rate @ kを計算する式はどうでしょうか?
最後に、ユリ・マルヘイロス教授から説明を受けました( 論文1 )。質問で引用された論文で引用されているAlthougthリコール率@kは通常のリコールメトリックであるように見えましたが、トップ-k、それらは同じではありません。このメトリックは paper 2 、 paper および paper でも使用されます
再現率@kは、行われたテストに依存するパーセンテージです。つまり、推奨の数であり、各推奨はアイテムのリスト、いくつかのアイテムです正しく、一部は正しくありません。 50の異なる推奨事項を作成した場合、それを[〜#〜] r [〜#〜]と呼びます(各推奨事項のアイテム数に関係なく) )、リコール率を計算するには、50の推奨事項のそれぞれを調べる必要があります。各推奨事項について、少なくとも1つの推奨項目が正しい場合は、値を増やすことができます。この場合、それを呼び出します[〜#〜] n [〜#〜]。再現率を計算するには、@[〜#〜] r [〜#〜]にするために、[〜#〜] n [〜#〜]/[〜#〜] r [〜#〜]。