【问题标题】:SQLAlchemy insert millions data inefficientlySQLAlchemy 插入数百万数据效率低下
【发布时间】:2012-02-14 03:15:45
【问题描述】:

完成 100000 次(用户、密码)元组插入需要很长时间。

def insertdata(db,name,val):
    i = db.insert()
    i.execute(user= name, password=val)
#-----main-------
tuplelist = readfile("C:/py/tst.txt")  #parse file is really fast
mydb = initdatabase()
for ele in tuplelist:
    insertdata(mydb,ele[0],ele[1])

哪个功能需要更多时间?有没有办法在 python 中测试瓶颈? 我可以通过缓存和稍后提交来避免这种情况吗?

【问题讨论】:

    标签: python sqlalchemy python-elixir


    【解决方案1】:

    让 DBAPI 句柄遍历参数。

    def insertdata(db,tuplelist):
        i = db.insert()
        i.execute([dict(user=elem[0], password=elem[1]) for elem in tuplelist])
    #-----main-------
    tuplelist = readfile("C:/py/tst.txt")  #parse file is really fast
    mydb = initdatabase()
    insertdata(mydb,tuplelist)
    

    【讨论】:

      猜你喜欢
      • 1970-01-01
      • 1970-01-01
      • 1970-01-01
      • 2018-08-07
      • 2013-11-27
      • 2023-01-31
      • 2019-01-18
      • 1970-01-01
      • 2018-12-22
      相关资源
      最近更新 更多