NaN
の数を調べたいデータがあるので、それがあるしきい値より小さければ、この列を削除します。私は見ましたが、このための機能を見つけることができませんでした。 value_counts
がありますが、値がほとんど異なっていてNaN
のみのカウントが欲しいので、私にとっては遅いでしょう。
isna()
メソッド(または別名isnull()
(旧バージョンのパンダバージョン<0.21.0との互換性もあります))を使用してから、sumを使用してNaN値をカウントすることができます。 1列の場合:
In [1]: s = pd.Series([1,2,3, np.nan, np.nan])
In [4]: s.isna().sum() # or s.isnull().sum() for older pandas versions
Out[4]: 2
いくつかの列では、それはまた働きます:
In [5]: df = pd.DataFrame({'a':[1,2,np.nan], 'b':[np.nan,1,np.nan]})
In [6]: df.isna().sum()
Out[6]:
a 1
b 2
dtype: int64
count からnon-nan値の合計長を引くことができます。
count_nan = len(df) - df.count()
あなたはそれをあなたのデータに合わせるべきです。小さなシリーズでは、isnull
ソリューションと比較して3倍のスピードアップを得ました。
DfがパンダのDataFrameであると仮定しましょう。
その後、
df.isnull().sum(axis = 0)
これは各列のNaN値の数を与えます。
必要に応じて、NaNはすべての行に値を入れます。
df.isnull().sum(axis = 1)
最も投票された回答に基づいて、各列の欠損値と欠損値の割合をプレビューするためのデータフレームを提供する関数を簡単に定義できます。
def missing_values_table(df):
mis_val = df.isnull().sum()
mis_val_percent = 100 * df.isnull().sum() / len(df)
mis_val_table = pd.concat([mis_val, mis_val_percent], axis=1)
mis_val_table_ren_columns = mis_val_table.rename(
columns = {0 : 'Missing Values', 1 : '% of Total Values'})
mis_val_table_ren_columns = mis_val_table_ren_columns[
mis_val_table_ren_columns.iloc[:,1] != 0].sort_values(
'% of Total Values', ascending=False).round(1)
print ("Your selected dataframe has " + str(df.shape[1]) + " columns.\n"
"There are " + str(mis_val_table_ren_columns.shape[0]) +
" columns that have missing values.")
return mis_val_table_ren_columns
パンダ0.14.1から私の提案 ここ value_countsメソッドにキーワード引数を持たせることが実装されました:
import pandas as pd
df = pd.DataFrame({'a':[1,2,np.nan], 'b':[np.nan,1,np.nan]})
for col in df:
print df[col].value_counts(dropna=False)
2 1
1 1
NaN 1
dtype: int64
NaN 2
1 1
dtype: int64
dataset.isnull().sum()
これはうまくいくでしょう!
jupyter Notebookをお使いの場合はどうですか。
%%timeit
df.isnull().any().any()
または
%timeit
df.isnull().values.sum()
または、データ内のどこかにNaNがありますか。
df.isnull().any()
ここでパンダ列のnanの値を数えるだけの簡単な方法であれば
import pandas as pd
## df1 as an example data frame
## col1 name of column for which you want to calculate the nan values
sum(pd.isnull(df1['col1']))
Value_countsメソッドを使用してnp.nanの値を印刷することができます。
s.value_counts(dropna = False)[np.nan]
ゼロをカウントするには:
df[df == 0].count(axis=0)
NaNをカウントするには:
df.isnull().sum()
または
df.isna().sum()
df1.isnull().sum()
これでうまくいくでしょう。
2017年7月から、NaN値を要約するさまざまな方法を詳述したNice Dzoneの記事があります。それをチェックしてください ここ 。
私が引用した記事には、次のような付加価値があります。(1)各列のNaN数を数えて表示する方法を示して、それらの列を破棄するかどうかを簡単に決めることができる。それらが選択的に捨てられるか、または帰属されるようにNaNを持っている特定のもの。
これがアプローチの有用性を実証するための簡単な例です - ほんの少しのコラムでおそらくその有用性は明白ではありません、しかし、私はそれがより大きなデータフレームのために役立つことがわかりました。
import pandas as pd
import numpy as np
# example DataFrame
df = pd.DataFrame({'a':[1,2,np.nan], 'b':[np.nan,1,np.nan]})
# Check whether there are null values in columns
null_columns = df.columns[df.isnull().any()]
print(df[null_columns].isnull().sum())
# One can follow along further per the cited article
これはNull
値を列方向に数えるためのコードです:
df.isna().sum()
NaNを数えるための、まだ提案されていないもう1つの単純なオプションは、NaNを使用して行数を返す形状を追加することです。
df[df['col_name'].isnull()]['col_name'].shape
与えられた答えといくつかの改善に基づいてこれは私のアプローチです
def PercentageMissin(Dataset):
"""this function will return the percentage of missing values in a dataset """
if isinstance(Dataset,pd.DataFrame):
adict={} #a dictionary conatin keys columns names and values percentage of missin value in the columns
for col in Dataset.columns:
adict[col]=(np.count_nonzero(Dataset[col].isnull())*100)/len(Dataset[col])
return pd.DataFrame(adict,index=['% of missing'],columns=adict.keys())
else:
raise TypeError("can only be used with panda dataframe")
あなたがgroupbyによって引き出された異なるグループにわたって非NA(non-None)とNA(None)のカウントを得る必要がある場合:
gdf = df.groupby(['ColumnToGroupBy'])
def countna(x):
return (x.isna()).sum()
gdf.agg(['count', countna, 'size'])
これは、非NA、NA、およびグループごとのエントリ総数を返します。
import numpy as np
import pandas as pd
raw_data = {'first_name': ['Jason', np.nan, 'Tina', 'Jake', 'Amy'],
'last_name': ['Miller', np.nan, np.nan, 'Milner', 'Cooze'],
'age': [22, np.nan, 23, 24, 25],
'sex': ['m', np.nan, 'f', 'm', 'f'],
'Test1_Score': [4, np.nan, 0, 0, 0],
'Test2_Score': [25, np.nan, np.nan, 0, 0]}
results = pd.DataFrame(raw_data, columns = ['first_name', 'last_name', 'age', 'sex', 'Test1_Score', 'Test2_Score'])
results
first_name last_name age sex Test1_Score Test2_Score
0 Jason Miller 22.0 m 4.0 25.0
1 NaN NaN NaN NaN NaN NaN
2 Tina NaN 23.0 f 0.0 NaN
3 Jake Milner 24.0 m 0.0 0.0
4 Amy Cooze 25.0 f 0.0 0.0
あなたはデータフレームであなたに出力を与えるだろう以下の関数を使うことができます
以下の関数をコピーして貼り付け、あなたのパンダDataframeを渡してそれを呼び出します
def missing_zero_values_table(df):
zero_val = (df == 0.00).astype(int).sum(axis=0)
mis_val = df.isnull().sum()
mis_val_percent = 100 * df.isnull().sum() / len(df)
mz_table = pd.concat([zero_val, mis_val, mis_val_percent], axis=1)
mz_table = mz_table.rename(
columns = {0 : 'Zero Values', 1 : 'Missing Values', 2 : '% of Total Values'})
mz_table['Total Zero Missing Values'] = mz_table['Zero Values'] + mz_table['Missing Values']
mz_table['% Total Zero Missing Values'] = 100 * mz_table['Total Zero Missing Values'] / len(df)
mz_table['Data Type'] = df.dtypes
mz_table = mz_table[
mz_table.iloc[:,1] != 0].sort_values(
'% of Total Values', ascending=False).round(1)
print ("Your selected dataframe has " + str(df.shape[1]) + " columns and " + str(df.shape[0]) + " Rows.\n"
"There are " + str(mz_table.shape[0]) +
" columns that have missing values.")
# mz_table.to_Excel('D:/sampledata/missing_and_zero_values.xlsx', freeze_panes=(1,0), index = False)
return mz_table
missing_zero_values_table(results)
出力
Your selected dataframe has 6 columns and 5 Rows.
There are 6 columns that have missing values.
Zero Values Missing Values % of Total Values Total Zero Missing Values % Total Zero Missing Values Data Type
last_name 0 2 40.0 2 40.0 object
Test2_Score 2 2 40.0 4 80.0 float64
first_name 0 1 20.0 1 20.0 object
age 0 1 20.0 1 20.0 float64
sex 0 1 20.0 1 20.0 object
Test1_Score 3 1 20.0 4 80.0 float64
あなたがそれを単純にしておきたいならば、あなたは%で欠損値を得るために次の関数を使うことができます
def missing(dff):
print (round((dff.isnull().sum() * 100/ len(dff)),2).sort_values(ascending=False))
missing(results)
Test2_Score 40.0
last_name 40.0
Test1_Score 20.0
sex 20.0
age 20.0
first_name 20.0
dtype: float64
Reviewsというデータフレームのpriceとして知られる列(系列)内の欠損値の数(NaN)を取得するとします。
#import the dataframe
import pandas as pd
reviews = pd.read_csv("../input/wine-reviews/winemag-data-130k-v2.csv", index_col=0)
変数としてn_missing_pricesを使用して欠損値を取得するには、単純に次のようにします。
n_missing_prices = sum(reviews.price.isnull())
print(n_missing_prices)
ここで重要な方法はsumです、sumがこのコンテキストで使用する正しい方法であることがわかった前にcountを使用しようとしました
import pandas as pd
import numpy as np
# example DataFrame
df = pd.DataFrame({'a':[1,2,np.nan], 'b':[np.nan,1,np.nan]})
# count the NaNs in a column
num_nan_a = df.loc[ (pd.isna(df['a'])) , 'a' ].shape[0]
num_nan_b = df.loc[ (pd.isna(df['b'])) , 'b' ].shape[0]
# summarize the num_nan_b
print(df)
print(' ')
print(f"There are {num_nan_a} NaNs in column a")
print(f"There are {num_nan_b} NaNs in column b")
出力として与えます:
a b
0 1.0 NaN
1 2.0 1.0
2 NaN NaN
There are 1 NaNs in column a
There are 2 NaNs in column b
私のコードで@sushmitによって提案された解決策を使用しました。
同じの可能な変形はまたある場合もあります
colNullCnt = []
for z in range(len(df1.cols)):
colNullCnt.append([df1.cols[z], sum(pd.isnull(trainPd[df1.cols[z]]))])
これの利点は、以降のdfの各列の結果を返すことです。
https://pandas.pydata.org/pandas-docs/stable/generated/pandas.Series.count.html#pandas.Series.count
pandas.Series.count Series.count(level = None)[ソース]系列内の非NA/null観測値の数を返します。
df.isnull()。sum()は、欠損値の列ごとの合計を提供します。
特定の列の欠損値の合計を知りたい場合、次のコードが機能しますdf.column.isnull()。sum()