マルチクラス分類の問題があり、データセットが歪んでいて、特定のクラスのインスタンスが100個あり、いくつかの異なるクラスのインスタンスが10個あるため、特定のクラスのインスタンスが100個ある場合、データセットの保持率をクラス間で分割します。そして、30%のレコードをトレーニングセットに入れたい100個のレコードで表現されたクラスのインスタンスが30個、10個のレコードで表現されたクラスのインスタンスが3個必要です。
オンラインドキュメントからsklearnの StratifiedKFold
を使用できます。
層別K折り交差検証イテレータ
トレーニング/テストインデックスを提供して、データをトレーニングテストセットに分割します。
この交差検証オブジェクトは、層状の折り畳みを返すKFoldのバリエーションです。フォールドは、各クラスのサンプルのパーセンテージを保持することによって作成されます。
_>>> from sklearn import cross_validation
>>> X = np.array([[1, 2], [3, 4], [1, 2], [3, 4]])
>>> y = np.array([0, 0, 1, 1])
>>> skf = cross_validation.StratifiedKFold(y, n_folds=2)
>>> len(skf)
2
>>> print(skf)
sklearn.cross_validation.StratifiedKFold(labels=[0 0 1 1], n_folds=2,
shuffle=False, random_state=None)
>>> for train_index, test_index in skf:
... print("TRAIN:", train_index, "TEST:", test_index)
... X_train, X_test = X[train_index], X[test_index]
... y_train, y_test = y[train_index], y[test_index]
TRAIN: [1 3] TEST: [0 2]
TRAIN: [0 2] TEST: [1 3]
_
これにより、クラス比率が保持されるため、分割はクラス比率を保持します。これは、pandas dfs。
@ALi_mで提案されているように、分割比パラメーターを受け入れる StratifiedShuffledSplit
を使用できます。
sss = StratifiedShuffleSplit(y, 3, test_size=0.7, random_state=0)
70%の分割を生成します。
単純な :
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y,
stratify=y,
test_size=0.25)