例 DBSCANクラスタリングアルゴリズムのデモ Scikit Learningの==各クラスタリングクラスのx、yを配列に格納しようとしています
import numpy as np
from sklearn.cluster import DBSCAN
from sklearn import metrics
from sklearn.datasets.samples_generator import make_blobs
from sklearn.preprocessing import StandardScaler
from pylab import *
# Generate sample data
centers = [[1, 1], [-1, -1], [1, -1]]
X, labels_true = make_blobs(n_samples=750, centers=centers, cluster_std=0.4, random_state=0)
X = StandardScaler().fit_transform(X)
xx, yy = Zip(*X)
scatter(xx,yy)
show()
db = DBSCAN(eps=0.3, min_samples=10).fit(X)
core_samples = db.core_sample_indices_
labels = db.labels_
n_clusters_ = len(set(labels)) - (1 if -1 in labels else 0)
print n_clusters_
3
Scikit-learnでDBSCANの実装を理解しようとしていますが、この時点で問題が発生します。クラスターの数は3(n_clusters_)であり、各クラスターのx、yを配列に格納したい
最初のクラスターはX[labels == 0]
など:
clusters = [X[labels == i] for i in xrange(n_clusters_)]
そして外れ値は
outliers = X[labels == -1]
「各クラスターの」とはどういう意味ですか?
DBSCANでは、クラスターはk平均法のように重心として表現されないため、メンバーを除いてクラスターの明確な表現はありません。クラスターメンバーは入力データであるため、xとyの位置は既にあります。
だから私は質問が何であるかわかりません。