新しいアプリケーションを開始し、ORM、特にSQLAlchemyの使用を検討しています。
データベースに列 'foo'があり、それをインクリメントしたいとします。ストレートsqliteでは、これは簡単です。
db = sqlite3.connect('mydata.sqlitedb')
cur = db.cursor()
cur.execute('update table stuff set foo = foo + 1')
SQLAlchemy SQLビルダーに相当するものを見つけました:
engine = sqlalchemy.create_engine('sqlite:///mydata.sqlitedb')
md = sqlalchemy.MetaData(engine)
table = sqlalchemy.Table('stuff', md, autoload=True)
upd = table.update(values={table.c.foo:table.c.foo+1})
engine.execute(upd)
これは少し遅いですが、それほど多くはありません。
SQLAlchemy ORMアプローチの最良の推測は次のとおりです。
# snip definition of Stuff class made using declarative_base
# snip creation of session object
for c in session.query(Stuff):
c.foo = c.foo + 1
session.flush()
session.commit()
これは正しいことを行いますが、他の2つの方法が近づく限り、50倍もかかりません。これは、すべてのデータをメモリに入れてからでないと動作しないからだと思います。
SQLAlchemyのORMを使用して効率的なSQLを生成する方法はありますか?または、他のpython ORMを使用していますか?または、手作業でSQLの記述に戻る必要がありますか?
SQLAlchemyのORMは、SQLレイヤーと一緒に使用するためのものであり、SQLレイヤーを非表示にするためのものではありません。ただし、同じトランザクションでORMとプレーンSQLを使用する場合は、1つまたは2つの点に留意する必要があります。基本的に、セッションから変更をフラッシュすると、一方からORMデータの変更がデータベースにヒットします。一方、SQLデータ操作ステートメントは、セッション内のオブジェクトには影響しません。
だからあなたが言うなら
for c in session.query(Stuff).all():
c.foo = c.foo+1
session.commit()
つまり、データベースからすべてのオブジェクトを取得し、すべてのオブジェクトを変更してから、データベースに変更をフラッシュするときに、行を1つずつ更新します。
代わりにこれを行う必要があります:
session.execute(update(stuff_table, values={stuff_table.c.foo: stuff_table.c.foo + 1}))
session.commit()
これは予想どおり1つのクエリとして実行され、少なくともデフォルトのセッション構成はコミット時にセッション内のすべてのデータを期限切れにするため、古いデータの問題はありません。
ほぼリリースされた0.5シリーズでは、このメソッドを使用して更新することもできます。
session.query(Stuff).update({Stuff.foo: Stuff.foo + 1})
session.commit()
これは基本的に前のスニペットと同じSQLステートメントを実行しますが、変更された行を選択し、セッション内の古いデータを失効させます。更新後にセッションデータを使用していないことがわかっている場合は、synchronize_session=False
を更新ステートメントに追加して、その選択を削除することもできます。
session.query(Clients).filter(Clients.id == client_id_list).update({'status': status})
session.commit()
これを試してください=)
Sqlalchemyを使用して更新する方法はいくつかあります
1) for c in session.query(Stuff).all():
c.foo += 1
session.commit()
2) session.query().\
update({"foo": (Stuff.foo + 1)})
session.commit()
3) conn = engine.connect()
stmt = Stuff.update().\
values(Stuff.foo = (Stuff.foo + 1))
conn.execute(stmt)
フィールドを手動でマッピングすることなく同じ問題を解決する方法の例を次に示します。
from sqlalchemy import Column, ForeignKey, Integer, String, Date, DateTime, text, create_engine
from sqlalchemy.exc import IntegrityError
from sqlalchemy.ext.declarative import declarative_base
from sqlalchemy.orm import sessionmaker
from sqlalchemy.orm.attributes import InstrumentedAttribute
engine = create_engine('postgres://postgres@localhost:5432/database')
session = sessionmaker()
session.configure(bind=engine)
Base = declarative_base()
class Media(Base):
__table= 'media'
id = Column(Integer, primary_key=True)
title = Column(String, nullable=False)
slug = Column(String, nullable=False)
type = Column(String, nullable=False)
def update(self):
s = session()
mapped_values = {}
for item in Media.__dict__.iteritems():
field_name = item[0]
field_type = item[1]
is_column = isinstance(field_type, InstrumentedAttribute)
if is_column:
mapped_values[field_name] = getattr(self, field_name)
s.query(Media).filter(Media.id == self.id).update(mapped_values)
s.commit()
したがって、Mediaインスタンスを更新するには、次のようなことができます。
media = Media(id=123, title="Titular Line", slug="titular-line", type="movie")
media.update()
十分なテストで、私は試してみます:
for c in session.query(Stuff).all():
c.foo = c.foo+1
session.commit()
(IIRC、commit()はflush()なしで機能します)。
大規模なクエリを実行してからpythonを反復処理すると、多くのクエリよりも最大で2桁高速になることがあります。クエリオブジェクトの繰り返しは、クエリオブジェクトのall()メソッドによって生成されたリストの繰り返しよりも効率が悪いと思います。
[以下のコメントに注意してください-これはまったくスピードアップしませんでした]。
オブジェクトの作成に関するオーバーヘッドが原因である場合は、おそらくSAでまったく高速化できません。
それが関連オブジェクトをロードしているためである場合、遅延ロードで何かをすることができるかもしれません。参照により多くのオブジェクトが作成されていますか? (IE、Companyオブジェクトを取得すると、関連するPeopleオブジェクトもすべて取得されます)。