我有一个大约300000行(20mb)的pandas数据帧,并想写入一个sqlserver数据库。在
我有下面的代码,但执行起来非常慢。想知道有没有更好的方法?在
import pandas
import sqlalchemy
engine = sqlalchemy.create_engine('mssql+pyodbc://rea-eqx-dwpb/BIWorkArea?
driver=SQL+Server')
df.to_sql(name='LeadGen Imps&Clicks', con=engine, schema='BIWorkArea',
if_exists='replace', index=False)
如果要加快写入sql数据库的过程,可以按
pandas
DataFrame
的数据类型在数据库中设置表的数据类型那么
^{pr2}$相关问题 更多 >
编程相关推荐