关于批量插入:Python sqlite bult insert (mass-insertion) 【SQLObject vs sqlite3】

   个人遇到了一个需要互操作 Access 与 sqlite 的项目,其中涉及了诸多 join 和 relation。最重要的是数据的互相流动,这个项目使用了 pypyodbc 与 sqlobject,不免涉及了批量操作的问题。我将详细记录 sqlite 中的批量操作问题。


  • pypyodbc


   作为数据源的 access 我将不会在本文中讨论


  • SQLObject



   SQLObject 的操作速度一直是为人所诟病的,在官方的 FAQ 中对于其不支持 Lazy Insert 的原因,其解释道:

The reason for this limit is that each object needs a database ID,
不支持(lazy insert)的原因是每个对象都需要一个数据库标识(db id)
and in many databases you cannot attain an ID until you create a row.
而在很多数据库上只有插入一行后才能得到它(ID)


   它既然这么说也无可厚非,纯粹的架构问题。

   在随后的一个问题:How to do mass-insertion? 中它又提出使用 SQLBuilder(官方:lower but much faster API) 来进行批量操作,例如用 sqlbuilder.Insert 和 sqlrepr() 生成 query 后,在 connection.query() 中执行,类似的 queryAll() 调用相同的数据库方法,只是结果返回 fetchALL(),但是最终结果让我不能仍受,插入100行几乎就像无响应一样,代码如下:

from sqlobject.sqlbuilder import *
import sqlobject
sqlite_file = os.path.abspath('D:/db.sqlite')
conn = sqlobject.connectionForURI('sqlite:/'+sqlite_file)
_values = {}
for row in datas:
    # 在这里我设置了 _values 的内容,like:
    # _values[column] = data
    insert = Insert('records', values=_values)
    a_query = conn.sqlrepr(insert)
    conn.query(a_query)


   当时无论怎么看都是每次 query 都是 autocommit 的,果不其然非常之慢,执行了将近十秒,这开始让我怀疑可能是我误解的文档的意图,我在邮件列表上提问,目前还没有收到答复。


  • sqlite3


   

   随后我尝试了内置的 sqlite3,由于直接执行 sql 和手动提交,它的速度很少有人抱怨,我没有花太多力气就在官方文档中找到了批量操作的方法:

   

c = conn.cursor()
purchases = [('2006-03-28', 'BUY', 'IBM', 1000, 45.00),
             ('2006-04-05', 'BUY', 'MSFT', 1000, 72.00),
             ('2006-04-06', 'SELL', 'IBM', 500, 53.00),
            ]
c.executemany('INSERT INTO stocks VALUES (?,?,?,?,?)', purchases)


   插入947行用了2秒,虽然需要手动编写 insert SQL,但是这点代价可以接受

發表評論
所有評論
還沒有人評論,想成為第一個評論的人麼? 請在上方評論欄輸入並且點擊發布.
相關文章