>>> timeit.timeit("'x' in ('x',)")
0.04869917374131205
>>> timeit.timeit("'x' == 'x'")
0.06144205736110564
複数の要素を持つタプルでも機能します。どちらのバージョンも線形に成長するようです:
>>> timeit.timeit("'x' in ('x', 'y')")
0.04866674801541748
>>> timeit.timeit("'x' == 'x' or 'x' == 'y'")
0.06565782838087131
>>> timeit.timeit("'x' in ('y', 'x')")
0.08975995576448526
>>> timeit.timeit("'x' == 'y' or 'x' == 'y'")
0.12992391047427532
これに基づいて、私は完全に==
の代わりにin
をどこでも使用し始めるべきだと思います!
David Woleverに述べたように、これには目を合わせる以上のものがあります。どちらのメソッドもis
にディスパッチします。あなたはこれを証明することができます
min(Timer("x == x", setup="x = 'a' * 1000000").repeat(10, 10000))
#>>> 0.00045456900261342525
min(Timer("x == y", setup="x = 'a' * 1000000; y = 'a' * 1000000").repeat(10, 10000))
#>>> 0.5256857610074803
最初のものは、アイデンティティによってチェックするため、非常に高速です。
一方が他方より長くかかる理由を見つけるために、実行をトレースしてみましょう。
これらは両方ともceval.c
で始まり、COMPARE_OP
から始まります。
TARGET(COMPARE_OP) {
PyObject *right = POP();
PyObject *left = TOP();
PyObject *res = cmp_outcome(oparg, left, right);
Py_DECREF(left);
Py_DECREF(right);
SET_TOP(res);
if (res == NULL)
goto error;
PREDICT(POP_JUMP_IF_FALSE);
PREDICT(POP_JUMP_IF_TRUE);
DISPATCH();
}
これにより、スタックから値がポップされます(技術的には1つだけポップされます)
PyObject *right = POP();
PyObject *left = TOP();
比較を実行します:
PyObject *res = cmp_outcome(oparg, left, right);
cmp_outcome
はこれです:
static PyObject *
cmp_outcome(int op, PyObject *v, PyObject *w)
{
int res = 0;
switch (op) {
case PyCmp_IS: ...
case PyCmp_IS_NOT: ...
case PyCmp_IN:
res = PySequence_Contains(w, v);
if (res < 0)
return NULL;
break;
case PyCmp_NOT_IN: ...
case PyCmp_EXC_MATCH: ...
default:
return PyObject_RichCompare(v, w, op);
}
v = res ? Py_True : Py_False;
Py_INCREF(v);
return v;
}
ここでパスが分割されます。 PyCmp_IN
ブランチは
int
PySequence_Contains(PyObject *seq, PyObject *ob)
{
Py_ssize_t result;
PySequenceMethods *sqm = seq->ob_type->tp_as_sequence;
if (sqm != NULL && sqm->sq_contains != NULL)
return (*sqm->sq_contains)(seq, ob);
result = _PySequence_IterSearch(seq, ob, PY_ITERSEARCH_CONTAINS);
return Py_SAFE_DOWNCAST(result, Py_ssize_t, int);
}
タプルは次のように定義されていることに注意してください
static PySequenceMethods Tuple_as_sequence = {
...
(objobjproc)tuplecontains, /* sq_contains */
};
PyTypeObject PyTuple_Type = {
...
&Tuple_as_sequence, /* tp_as_sequence */
...
};
ブランチ
if (sqm != NULL && sqm->sq_contains != NULL)
取得され、*sqm->sq_contains
(関数(objobjproc)tuplecontains
)が取得されます。
これは
static int
tuplecontains(PyTupleObject *a, PyObject *el)
{
Py_ssize_t i;
int cmp;
for (i = 0, cmp = 0 ; cmp == 0 && i < Py_SIZE(a); ++i)
cmp = PyObject_RichCompareBool(el, PyTuple_GET_ITEM(a, i),
Py_EQ);
return cmp;
}
...待ってください、それはPyObject_RichCompareBool
他のブランチが取ったものではなかったのですか?いいえ、それはPyObject_RichCompare
でした。
そのコードパスは短いため、これら2つの速度に帰着する可能性があります。比較してみましょう。
int
PyObject_RichCompareBool(PyObject *v, PyObject *w, int op)
{
PyObject *res;
int ok;
/* Quick result when objects are the same.
Guarantees that identity implies equality. */
if (v == w) {
if (op == Py_EQ)
return 1;
else if (op == Py_NE)
return 0;
}
...
}
PyObject_RichCompareBool
のコードパスはほとんどすぐに終了します。 PyObject_RichCompare
の場合、
PyObject *
PyObject_RichCompare(PyObject *v, PyObject *w, int op)
{
PyObject *res;
assert(Py_LT <= op && op <= Py_GE);
if (v == NULL || w == NULL) { ... }
if (Py_EnterRecursiveCall(" in comparison"))
return NULL;
res = do_richcompare(v, w, op);
Py_LeaveRecursiveCall();
return res;
}
Py_EnterRecursiveCall
/Py_LeaveRecursiveCall
コンボは前のパスでは使用されませんが、これらは比較的速いマクロであり、いくつかのグローバルをインクリメントおよびデクリメントした後に短絡します。
do_richcompare
は:
static PyObject *
do_richcompare(PyObject *v, PyObject *w, int op)
{
richcmpfunc f;
PyObject *res;
int checked_reverse_op = 0;
if (v->ob_type != w->ob_type && ...) { ... }
if ((f = v->ob_type->tp_richcompare) != NULL) {
res = (*f)(v, w, op);
if (res != Py_NotImplemented)
return res;
...
}
...
}
これは、v->ob_type->tp_richcompare
を呼び出すための簡単なチェックを行います。
PyTypeObject PyUnicode_Type = {
...
PyUnicode_RichCompare, /* tp_richcompare */
...
};
どちらが
PyObject *
PyUnicode_RichCompare(PyObject *left, PyObject *right, int op)
{
int result;
PyObject *v;
if (!PyUnicode_Check(left) || !PyUnicode_Check(right))
Py_RETURN_NOTIMPLEMENTED;
if (PyUnicode_READY(left) == -1 ||
PyUnicode_READY(right) == -1)
return NULL;
if (left == right) {
switch (op) {
case Py_EQ:
case Py_LE:
case Py_GE:
/* a string is equal to itself */
v = Py_True;
break;
case Py_NE:
case Py_LT:
case Py_GT:
v = Py_False;
break;
default:
...
}
}
else if (...) { ... }
else { ...}
Py_INCREF(v);
return v;
}
つまり、このショートカットはleft == right
...にありますが、
if (!PyUnicode_Check(left) || !PyUnicode_Check(right))
if (PyUnicode_READY(left) == -1 ||
PyUnicode_READY(right) == -1)
すべてのパスのすべては、このようになります(既知のブランチを手動で再帰的にインライン化、展開、およびプルーニングします)
POP() # Stack stuff
TOP() #
#
case PyCmp_IN: # Dispatch on operation
#
sqm != NULL # Dispatch to builtin op
sqm->sq_contains != NULL #
*sqm->sq_contains #
#
cmp == 0 # Do comparison in loop
i < Py_SIZE(a) #
v == w #
op == Py_EQ #
++i #
cmp == 0 #
#
res < 0 # Convert to Python-space
res ? Py_True : Py_False #
Py_INCREF(v) #
#
Py_DECREF(left) # Stack stuff
Py_DECREF(right) #
SET_TOP(res) #
res == NULL #
DISPATCH() #
対
POP() # Stack stuff
TOP() #
#
default: # Dispatch on operation
#
Py_LT <= op # Checking operation
op <= Py_GE #
v == NULL #
w == NULL #
Py_EnterRecursiveCall(...) # Recursive check
#
v->ob_type != w->ob_type # More operation checks
f = v->ob_type->tp_richcompare # Dispatch to builtin op
f != NULL #
#
!PyUnicode_Check(left) # ...More checks
!PyUnicode_Check(right)) #
PyUnicode_READY(left) == -1 #
PyUnicode_READY(right) == -1 #
left == right # Finally, doing comparison
case Py_EQ: # Immediately short circuit
Py_INCREF(v); #
#
res != Py_NotImplemented #
#
Py_LeaveRecursiveCall() # Recursive check
#
Py_DECREF(left) # Stack stuff
Py_DECREF(right) #
SET_TOP(res) #
res == NULL #
DISPATCH() #
PyUnicode_Check
とPyUnicode_READY
は、いくつかのフィールドのみをチェックするため、かなり安価ですが、一番上のコードパスが小さく、関数呼び出しが少なく、switchステートメントが1つだけであることは明らかです。ほんの少し薄くなっています。
どちらもif (left_pointer == right_pointer)
にディスパッチします。違いは、彼らがそこに到達するためにどれだけの仕事をするかです。 in
は、それだけではありません。
ここには、この驚くべき動作を生み出す3つの要因があります。
最初:in
演算子はショートカットを取得し、同一性(x is y
)をチェックする前にID(x == y
)をチェックします。
>>> n = float('nan')
>>> n in (n, )
True
>>> n == n
False
>>> n is n
True
2番目:Pythonの文字列インターンのため、"x" in ("x", )
の"x"
sは両方とも同一になります。
>>> "x" is "x"
True
(大きな警告:これは実装固有の動作です!is
はneverを使用して文字列を比較する必要がありますwill意外な答えを時々与える;例えば"x" * 100 is "x" * 100 ==> False
)
3番目: Veedracの素晴らしい答え で詳しく説明されているように、Tuple.__contains__
(x in (y, )
はroughlyは(y, ).__contains__(x)
と同等) str.__eq__
(再び、x == y
はroughlyx.__eq__(y)
)と同等よりも速くIDチェックを実行するポイント。
x in (y, )
は論理的に同等のx == y
よりもかなり遅いため、この証拠を見ることができます。
In [18]: %timeit 'x' in ('x', )
10000000 loops, best of 3: 65.2 ns per loop
In [19]: %timeit 'x' == 'x'
10000000 loops, best of 3: 68 ns per loop
In [20]: %timeit 'x' in ('y', )
10000000 loops, best of 3: 73.4 ns per loop
In [21]: %timeit 'x' == 'y'
10000000 loops, best of 3: 56.2 ns per loop
x in (y, )
の場合は、is
の比較が失敗した後、in
演算子が通常の等値チェック(つまり、==
を使用)にフォールバックするため、遅くなります。 ==
のように、タプルの作成、そのメンバーのウォークなどのオーバーヘッドのために、操作全体のレンダリングが遅くなります。
a is b
の場合、a in (b, )
はonlyより高速であることに注意してください。
In [48]: a = 1
In [49]: b = 2
In [50]: %timeit a is a or a == a
10000000 loops, best of 3: 95.1 ns per loop
In [51]: %timeit a in (a, )
10000000 loops, best of 3: 140 ns per loop
In [52]: %timeit a is b or a == b
10000000 loops, best of 3: 177 ns per loop
In [53]: %timeit a in (b, )
10000000 loops, best of 3: 169 ns per loop
(なぜa in (b, )
はa is b or a == b
よりも速いのでしょうか?推測では、仮想マシンの命令は少なくなります— a in (b, )
は〜3命令のみです。ここで_a is b or a == b
はVM命令よりもかなり多くなります)
Veedracの答え— https://stackoverflow.com/a/28889838/71522 —は、==
とin
のそれぞれの間に具体的に何が起こるかについてより詳細に説明し、読む価値が十分にあります。