numpy.average()
には重みオプションがありますが、numpy.std()
にはありません。回避策の提案はありますか?
次の短い「手動計算」はどうですか?
def weighted_avg_and_std(values, weights):
"""
Return the weighted average and standard deviation.
values, weights -- Numpy ndarrays with the same shape.
"""
average = numpy.average(values, weights=weights)
# Fast and numerically precise:
variance = numpy.average((values-average)**2, weights=weights)
return (average, math.sqrt(variance))
statsmodels
には、加重統計の計算を容易にするクラスがあります。 statsmodels.stats.weightstats.DescrStatsW
。
このデータセットと重みを仮定:
import numpy as np
from statsmodels.stats.weightstats import DescrStatsW
array = np.array([1,2,1,2,1,2,1,3])
weights = np.ones_like(array)
weights[3] = 100
クラスを初期化します(この時点で補正係数、デルタ 自由度 を渡す必要があることに注意してください)。
weighted_stats = DescrStatsW(array, weights=weights, ddof=0)
次に、計算することができます:
.mean
加重平均:
>>> weighted_stats.mean
1.97196261682243
.std
加重標準偏差:
>>> weighted_stats.std
0.21434289609681711
.var
加重分散:
>>> weighted_stats.var
0.045942877107170932
>>> weighted_stats.std_mean
0.020818822467555047
標準誤差と標準偏差の関係に関心がある場合に備えて、標準誤差は(ddof == 0
)重み付き標準偏差を重みの合計の平方根から1を引いたもので割った値として計算されます( GitHubのstatsmodels
バージョン0.9の対応するソース ):
standard_error = standard_deviation / sqrt(sum(weights) - 1)
Numpy/scipyにはそのような関数はまだないようですが、この追加機能を提案する ticket があります。そこに含まれているのは、加重標準偏差を実装する Statistics.py です。
もう1つのオプションを次に示します。
np.sqrt(np.cov(values, aweights=weights))
gaborous によって提案された非常に良い例があります:
import pandas as pd
import numpy as np
# X is the dataset, as a Pandas' DataFrame
mean = mean = np.ma.average(X, axis=0, weights=weights) # Computing the
weighted sample mean (fast, efficient and precise)
# Convert to a Pandas' Series (it's just aesthetic and more
# ergonomic; no difference in computed values)
mean = pd.Series(mean, index=list(X.keys()))
xm = X-mean # xm = X diff to mean
xm = xm.fillna(0) # fill NaN with 0 (because anyway a variance of 0 is
just void, but at least it keeps the other covariance's values computed
correctly))
sigma2 = 1./(w.sum()-1) * xm.mul(w, axis=0).T.dot(xm); # Compute the
unbiased weighted sample covariance