パンダのいくつかの列の値に基づいてDataFrame
から行を選択する方法?
_ sql _ では、次のように使用します。
SELECT *
FROM table
WHERE colume_name = some_value
私はパンダのドキュメントを見ようとしましたが、すぐに答えを見つけませんでした。
列値がスカラーsome_value
と等しい行を選択するには、==
を使用します。
df.loc[df['column_name'] == some_value]
列値が反復可能なsome_values
にある行を選択するには、isin
を使用します。
df.loc[df['column_name'].isin(some_values)]
&
と複数の条件を組み合わせる:
df.loc[(df['column_name'] >= A) & (df['column_name'] <= B)]
括弧に注意してください。 Pythonの 演算子の優先順位規則 により、&
は<=
および>=
よりも緊密にバインドされます。したがって、最後の例の括弧は必要です。括弧なし
df['column_name'] >= A & df['column_name'] <= B
として解析されます
df['column_name'] >= (A & df['column_name']) <= B
列値 が some_value
と等しくない行を選択するには、!=
を使用します。
df.loc[df['column_name'] != some_value]
isin
はブール値のSeriesを返すので、some_values
で値が not である行を選択するには、~
を使用してブール値のSeriesを否定します。
df.loc[~df['column_name'].isin(some_values)]
例えば、
import pandas as pd
import numpy as np
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
'B': 'one one two three two two one three'.split(),
'C': np.arange(8), 'D': np.arange(8) * 2})
print(df)
# A B C D
# 0 foo one 0 0
# 1 bar one 1 2
# 2 foo two 2 4
# 3 bar three 3 6
# 4 foo two 4 8
# 5 bar two 5 10
# 6 foo one 6 12
# 7 foo three 7 14
print(df.loc[df['A'] == 'foo'])
収量
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
複数の値を含めたい場合は、それらをリスト(より一般的には反復可能なもの)にまとめて、isin
を使用します。
print(df.loc[df['B'].isin(['one','three'])])
収量
A B C D
0 foo one 0 0
1 bar one 1 2
3 bar three 3 6
6 foo one 6 12
7 foo three 7 14
ただし、これを何度も実行したい場合は、最初に索引を作成してからdf.loc
を使用する方が効率的です。
df = df.set_index(['B'])
print(df.loc['one'])
収量
A C D
B
one foo 0 0
one bar 1 2
one foo 6 12
または、インデックスから複数の値を含めるには、df.index.isin
を使用します。
df.loc[df.index.isin(['one','two'])]
収量
A C D
B
one foo 0 0
one bar 1 2
two foo 2 4
two foo 4 8
two bar 5 10
one foo 6 12
と同等のパンダ
select * from table where column_name = some_value
です
table[table.column_name == some_value]
複数の条件
table[(table.column_name == some_value) | (table.column_name2 == some_value2)]
または
table.query('column_name == some_value | column_name2 == some_value2')
import pandas as pd
# Create data set
d = {'foo':[100, 111, 222],
'bar':[333, 444, 555]}
df = pd.DataFrame(d)
# Full dataframe:
df
# Shows:
# bar foo
# 0 333 100
# 1 444 111
# 2 555 222
# Output only the row(s) in df where foo is 222:
df[df.foo == 222]
# Shows:
# bar foo
# 2 555 222
上記のコードでは、列値に基づいて行を返すのはdf[df.foo == 222]
行です。この場合は222
です。
複数の条件も可能です。
df[(df.foo == 222) | (df.bar == 444)]
# bar foo
# 1 444 111
# 2 555 222
しかし、その時点では、 query 関数を使用することをお勧めします。これは、冗長ではなく、同じ結果が得られるためです。
df.query('foo == 222 | bar == 444')
pandasデータフレームから行を選択するには、いくつかの方法があります。
df[df['col'] == value
])df.iloc[...]
)df.xs(...)
)df.query(...)
API以下に、特定のテクニックを使用するタイミングについてアドバイスしながら、それぞれの例を示します。基準が列'A'
== 'foo'
であると仮定します
(パフォーマンスに関する注意:基本タイプごとに、pandas APIを使用して物事をシンプルに保つか、APIの外部、通常はnumpy
name__に進出し、物事を高速化できます。)
セットアップ
最初に必要なことは、行を選択するための基準として機能する条件を識別することです。 OPのケースcolumn_name == some_value
から始め、他の一般的なユースケースを含めます。
@unutbuからの借用:
import pandas as pd, numpy as np
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
'B': 'one one two three two two one three'.split(),
'C': np.arange(8), 'D': np.arange(8) * 2})
...ブールインデックスを作成するには、各行の'A'
列の真の値を'foo'
と等しくし、それらの真理値を使用して保持する行を識別する必要があります。通常、このシリーズには、真理値の配列mask
name__と名前を付けます。ここでも同様に行います。
mask = df['A'] == 'foo'
次に、このマスクを使用して、データフレームをスライスまたはインデックス付けできます。
df[mask]
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
これは、このタスクを達成するための最も簡単な方法の1つであり、パフォーマンスや直感性が問題にならない場合は、これを選択する必要があります。ただし、パフォーマンスが懸念される場合は、mask
name__を作成する別の方法を検討することをお勧めします。
位置インデックス(df.iloc[...]
)にはユースケースがありますが、これはそれらの1つではありません。スライスする場所を特定するには、最初に上記で行ったのと同じブール解析を実行する必要があります。これにより、同じタスクを達成するために1つの追加ステップが実行されます。
mask = df['A'] == 'foo'
pos = np.flatnonzero(mask)
df.iloc[pos]
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
Labelインデックス作成は非常に便利ですが、この場合は、利益が得られないため、再び多くの作業を行っています。
df.set_index('A', append=True, drop=False).xs('foo', level=1)
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
df.query()
APIpd.DataFrame.query
は、このタスクを実行するための非常にエレガントで直感的な方法ですが、多くの場合遅くなります。 ただし、、以下のタイミングに注意を払うと、大きなデータの場合、クエリは非常に効率的です。標準的なアプローチよりも、私の最善の提案と同程度の規模です。
df.query('A == "foo"')
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
私の好みはBoolean
mask
name__を使用することです
Boolean
mask
name__の作成方法を変更することにより、実際の改善を行うことができます。
mask
name__代替1
基礎となるnumpy
name__配列を使用し、別のpd.Series
を作成するオーバーヘッドを無視します
mask = df['A'].values == 'foo'
最後に、より完全な時間テストを示しますが、サンプルデータフレームを使用して得られるパフォーマンスの向上を見てみましょう。最初に、mask
name__の作成の違いを見てみましょう
%timeit mask = df['A'].values == 'foo'
%timeit mask = df['A'] == 'foo'
5.84 µs ± 195 ns per loop (mean ± std. dev. of 7 runs, 100000 loops each)
166 µs ± 4.45 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)
mask
name__配列を使用したnumpy
name__の評価は、約30倍高速です。これは、部分的にnumpy
name__評価がより高速であることが原因の1つです。また、インデックスと対応するpd.Series
オブジェクトを構築するために必要なオーバーヘッドがないことも一部原因です。
次に、一方のmask
name__ともう一方をスライスするタイミングを見ていきます。
mask = df['A'].values == 'foo'
%timeit df[mask]
mask = df['A'] == 'foo'
%timeit df[mask]
219 µs ± 12.3 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
239 µs ± 7.03 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
パフォーマンスの向上はそれほど顕著ではありません。これがより堅牢なテストに耐えられるかどうかを確認します。
mask
name__代替2
データフレームも再構築できました。データフレームを再構築する場合、大きな注意点があります。再構築するときは、dtypes
name__に注意する必要があります。
df[mask]
の代わりにこれを行います
pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)
データフレームが混合型である場合、この例では、df.values
を取得すると、結果の配列はdtype
object
name__になり、その結果、新しいデータフレームのすべての列はdtype
object
name__になります。したがって、astype(df.dtypes)
を要求し、潜在的なパフォーマンスの向上を殺します。
%timeit df[m]
%timeit pd.DataFrame(df.values[mask], df.index[mask], df.columns).astype(df.dtypes)
216 µs ± 10.4 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
1.43 ms ± 39.6 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)
ただし、データフレームが混合型ではない場合、これは非常に便利な方法です。
与えられた
np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))
d1
A B C D E
0 0 2 7 3 8
1 7 0 6 8 6
2 0 2 0 4 9
3 7 3 2 4 3
4 3 6 7 7 4
5 5 3 7 5 9
6 8 7 6 4 7
7 6 2 6 6 5
8 2 8 7 5 8
9 4 7 6 1 5
%%timeit
mask = d1['A'].values == 7
d1[mask]
179 µs ± 8.73 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)
Versus
%%timeit
mask = d1['A'].values == 7
pd.DataFrame(d1.values[mask], d1.index[mask], d1.columns)
87 µs ± 5.12 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)
時間を半分に短縮しました。
mask
name__代替3
@ unutbuは、pd.Series.isin
を使用して、値のセットに含まれるdf['A']
の各要素を説明する方法も示しています。値のセットが1つの値のセット、つまり'foo'
である場合、これは同じものに評価されます。ただし、必要に応じてより大きな値のセットを含めることも一般化します。結局のところ、これはより一般的なソリューションであるにもかかわらず、これはまだかなり高速です。唯一の本当の損失は、概念に精通していない人にとって直観性にあります。
mask = df['A'].isin(['foo'])
df[mask]
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
ただし、以前と同様、numpy
name__を使用してパフォーマンスを向上させ、実質的に何も犠牲にすることはできません。 np.in1d
を使用します
mask = np.in1d(df['A'].values, ['foo'])
df[mask]
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
タイミング
参照用に、他の投稿で言及されている他の概念も含めます。
以下のコード
この表の各列は、各関数をテストする異なる長さのデータフレームを表します。各列は、1.0
のベースインデックスを指定した最速の関数で、相対的な時間を示しています。
res.div(res.min())
10 30 100 300 1000 3000 10000 30000
mask_standard 2.156872 1.850663 2.034149 2.166312 2.164541 3.090372 2.981326 3.131151
mask_standard_loc 1.879035 1.782366 1.988823 2.338112 2.361391 3.036131 2.998112 2.990103
mask_with_values 1.010166 1.000000 1.005113 1.026363 1.028698 1.293741 1.007824 1.016919
mask_with_values_loc 1.196843 1.300228 1.000000 1.000000 1.038989 1.219233 1.037020 1.000000
query 4.997304 4.765554 5.934096 4.500559 2.997924 2.397013 1.680447 1.398190
xs_label 4.124597 4.272363 5.596152 4.295331 4.676591 5.710680 6.032809 8.950255
mask_with_isin 1.674055 1.679935 1.847972 1.724183 1.345111 1.405231 1.253554 1.264760
mask_with_in1d 1.000000 1.083807 1.220493 1.101929 1.000000 1.000000 1.000000 1.144175
mask_with_values
とmask_with_in1d
の間で最速時間が共有されているように見えることに気付くでしょう。
res.T.plot(loglog=True)
関数
def mask_standard(df):
mask = df['A'] == 'foo'
return df[mask]
def mask_standard_loc(df):
mask = df['A'] == 'foo'
return df.loc[mask]
def mask_with_values(df):
mask = df['A'].values == 'foo'
return df[mask]
def mask_with_values_loc(df):
mask = df['A'].values == 'foo'
return df.loc[mask]
def query(df):
return df.query('A == "foo"')
def xs_label(df):
return df.set_index('A', append=True, drop=False).xs('foo', level=-1)
def mask_with_isin(df):
mask = df['A'].isin(['foo'])
return df[mask]
def mask_with_in1d(df):
mask = np.in1d(df['A'].values, ['foo'])
return df[mask]
テスト
res = pd.DataFrame(
index=[
'mask_standard', 'mask_standard_loc', 'mask_with_values', 'mask_with_values_loc',
'query', 'xs_label', 'mask_with_isin', 'mask_with_in1d'
],
columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],
dtype=float
)
for j in res.columns:
d = pd.concat([df] * j, ignore_index=True)
for i in res.index:a
stmt = '{}(d)'.format(i)
setp = 'from __main__ import d, {}'.format(i)
res.at[i, j] = timeit(stmt, setp, number=50)
特別なタイミング
データフレーム全体に対して単一の非オブジェクトdtype
name__がある場合の特殊なケースを見てください。 以下のコード
spec.div(spec.min())
10 30 100 300 1000 3000 10000 30000
mask_with_values 1.009030 1.000000 1.194276 1.000000 1.236892 1.095343 1.000000 1.000000
mask_with_in1d 1.104638 1.094524 1.156930 1.072094 1.000000 1.000000 1.040043 1.027100
reconstruct 1.000000 1.142838 1.000000 1.355440 1.650270 2.222181 2.294913 3.406735
結局、再構築は数百行を超える価値はありません。
spec.T.plot(loglog=True)
関数
np.random.seed([3,1415])
d1 = pd.DataFrame(np.random.randint(10, size=(10, 5)), columns=list('ABCDE'))
def mask_with_values(df):
mask = df['A'].values == 'foo'
return df[mask]
def mask_with_in1d(df):
mask = np.in1d(df['A'].values, ['foo'])
return df[mask]
def reconstruct(df):
v = df.values
mask = np.in1d(df['A'].values, ['foo'])
return pd.DataFrame(v[mask], df.index[mask], df.columns)
spec = pd.DataFrame(
index=['mask_with_values', 'mask_with_in1d', 'reconstruct'],
columns=[10, 30, 100, 300, 1000, 3000, 10000, 30000],
dtype=float
)
テスト
for j in spec.columns:
d = pd.concat([df] * j, ignore_index=True)
for i in spec.index:
stmt = '{}(d)'.format(i)
setp = 'from __main__ import d, {}'.format(i)
spec.at[i, j] = timeit(stmt, setp, number=50)
私は前の答えの構文は冗長で覚えがたいと思う。 Pandasはv0.13でquery()
メソッドを導入しました、そして私はそれが大好きです。あなたの質問のために、あなたはdf.query('col == val')
をすることができます
http://pandas.pydata.org/pandas-docs/version/0.17.0/indexing.html#indexing-queryからの複製
In [167]: n = 10
In [168]: df = pd.DataFrame(np.random.Rand(n, 3), columns=list('abc'))
In [169]: df
Out[169]:
a b c
0 0.687704 0.582314 0.281645
1 0.250846 0.610021 0.420121
2 0.624328 0.401816 0.932146
3 0.011763 0.022921 0.244186
4 0.590198 0.325680 0.890392
5 0.598892 0.296424 0.007312
6 0.634625 0.803069 0.123872
7 0.924168 0.325076 0.303746
8 0.116822 0.364564 0.454607
9 0.986142 0.751953 0.561512
# pure python
In [170]: df[(df.a < df.b) & (df.b < df.c)]
Out[170]:
a b c
3 0.011763 0.022921 0.244186
8 0.116822 0.364564 0.454607
# query
In [171]: df.query('(a < b) & (b < c)')
Out[171]:
a b c
3 0.011763 0.022921 0.244186
8 0.116822 0.364564 0.454607
@
を前に付けることによって、環境内の変数にアクセスすることもできます。
exclude = ('red', 'orange')
df.query('color not in @exclude')
より速い結果は numpy.where を使って達成できます。
例えば、 unubtuの設定で -
In [76]: df.iloc[np.where(df.A.values=='foo')]
Out[76]:
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
タイミング比較:
In [68]: %timeit df.iloc[np.where(df.A.values=='foo')] # fastest
1000 loops, best of 3: 380 µs per loop
In [69]: %timeit df.loc[df['A'] == 'foo']
1000 loops, best of 3: 745 µs per loop
In [71]: %timeit df.loc[df['A'].isin(['foo'])]
1000 loops, best of 3: 562 µs per loop
In [72]: %timeit df[df.A=='foo']
1000 loops, best of 3: 796 µs per loop
In [74]: %timeit df.query('(A=="foo")') # slowest
1000 loops, best of 3: 1.71 ms per loop
これは簡単な例です
from pandas import DataFrame
# Create data set
d = {'Revenue':[100,111,222],
'Cost':[333,444,555]}
df = DataFrame(d)
# mask = Return True when the value in column "Revenue" is equal to 111
mask = df['Revenue'] == 111
print mask
# Result:
# 0 False
# 1 True
# 2 False
# Name: Revenue, dtype: bool
# Select * FROM df WHERE Revenue = 111
df[mask]
# Result:
# Cost Revenue
# 1 444 111
私はこれを編集しようとしましたが、私はログインしていなかったので、自分の編集がどこに行われたのかわかりません。複数選択を取り入れようとしていました。だから私はより良い答えがあると思います:
単一の値の場合、最もわかりやすい(人間が判読できる)ものはおそらく:
df.loc[df['column_name'] == some_value]
値の一覧には、次のものも使用できます。
df.loc[df['column_name'].isin(some_values)]
例えば、
import pandas as pd
import numpy as np
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
'B': 'one one two three two two one three'.split(),
'C': np.arange(8), 'D': np.arange(8) * 2})
print(df)
# A B C D
# 0 foo one 0 0
# 1 bar one 1 2
# 2 foo two 2 4
# 3 bar three 3 6
# 4 foo two 4 8
# 5 bar two 5 10
# 6 foo one 6 12
# 7 foo three 7 14
print(df.loc[df['A'] == 'foo'])
収量
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
選択したい基準が複数ある場合は、それらをリストに入れて 'isin'を使用できます。
print(df.loc[df['B'].isin(['one','three'])])
収量
A B C D
0 foo one 0 0
1 bar one 1 2
3 bar three 3 6
6 foo one 6 12
7 foo three 7 14
ただし、これを何度も実行したい場合は、最初にAをインデックスにしてからdf.locを使用する方が効率的です。
df = df.set_index(['A'])
print(df.loc['foo'])
収量
A B C D
foo one 0 0
foo two 2 4
foo two 4 8
foo one 6 12
foo three 7 14
列内の整数に基づいて行を見つけた場合、
df.loc[df['column_name'] == 2017]
文字列に基づいて値を見つけている場合
df.loc[df['column_name'] == 'string']
両方に基づいている場合
df.loc[(df['column_name'] == 'string') & (df['column_name'] == 2017)]
パンダの特定の値に対して複数の列から特定の列のみを選択する場合
select col_name1, col_name2 from table where column_name = some_value.
オプション:
df.loc[df['column_name'] == some_value][[col_name1, col_name2]]
または
df.query['column_name' == 'some_value'][[col_name1, col_name2]]
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
'B': 'one one two three two two one three'.split(),
'C': np.arange(8), 'D': np.arange(8) * 2})
df[df['A']=='foo']
OUTPUT:
A B C D
0 foo one 0 0
2 foo two 2 4
4 foo two 4 8
6 foo one 6 12
7 foo three 7 14
この有名な質問に追加するには(少々手遅れですが):df.groupby('column_name').get_group('column_desired_value').reset_index()
を実行して、指定した列に特定の値を持つ新しいデータフレームを作成することもできます。例えば。
import pandas as pd
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
'B': 'one one two three two two one three'.split()})
print("Original dataframe:")
print(df)
b_is_two_dataframe = pd.DataFrame(df.groupby('B').get_group('two').reset_index()).drop('index', axis = 1)
#NOTE: the final drop is to remove the extra index column returned by groupby object
print('Sub dataframe where B is two:')
print(b_is_two_dataframe)
これを実行してください:
Original dataframe:
A B
0 foo one
1 bar one
2 foo two
3 bar three
4 foo two
5 bar two
6 foo one
7 foo three
Sub dataframe where B is two:
A B
0 foo two
1 foo two
2 bar two
列の値がいずれの値のリストでもない行を含めることによってデータフレームから行を選択しようとしているのであれば、上記の値のリストに対するunutbuの答えをひっくり返す方法は次のとおりです。
df.loc[~df['column_name'].isin(some_values)]
(単一の値を含まないようにするには、もちろん、通常は等しくない演算子!=
を使用します。)
例:
import pandas as pd
df = pd.DataFrame({'A': 'foo bar foo bar foo bar foo foo'.split(),
'B': 'one one two three two two one three'.split()})
print(df)
私たちに与える
A B
0 foo one
1 bar one
2 foo two
3 bar three
4 foo two
5 bar two
6 foo one
7 foo three
one
列でthree
またはB
が指定されていない行のみにサブセット化するには、次のようにします。
df.loc[~df['B'].isin(['one', 'three'])]
収量
A B
2 foo two
4 foo two
5 bar two
.query
をpandas >= 0.25.0
と組み合わせて使用すると、さらに柔軟性が高まります。2019年8月の回答を更新
pandas >= 0.25.0
なので、query
メソッドを使用して、pandasメソッドや、スペースを含む列名でもデータフレームをフィルタリングできます。通常、列名のスペースはエラーになりますが、バックティック( `)を使用してそれを解決できます GitHub を参照してください:
# Example dataframe
df = pd.DataFrame({'Sender email':['[email protected]', "[email protected]", "[email protected]"]})
Sender email
0 [email protected]
1 [email protected]
2 [email protected]
メソッド.query
でstr.endswith
を使用:
df.query('`Sender email`.str.endswith("@shop.com")')
出力
Sender email
1 [email protected]
2 [email protected]
また、クエリで@
をプレフィックスとして使用することにより、ローカル変数を使用できます。
domain = 'shop.com'
df.query('`Sender email`.str.endswith(@domain)')
出力
Sender email
1 [email protected]
2 [email protected]
df.loc[df['column_name'] == some_value]
.applyを使うこともできます。
df.apply(lambda row: row[df['B'].isin(['one','three'])])
実際には行方向に機能します(つまり、各行に関数を適用します)。
出力は
A B C D
0 foo one 0 0
1 bar one 1 2
3 bar three 3 6
6 foo one 6 12
7 foo three 7 14
結果は@unutbuで述べたのと同じです。
df[[df['B'].isin(['one','three'])]]