我从每天收到的三个.csv
文件创建一个数据库。我用熊猫清理了它们,现在它们都在各自的熊猫数据框中。最大的大约是10万乘500,其他的大小差不多。我需要以最快的方式将每个数据帧上传到postgresql
中的3个不同的表中。这真的需要很快,因为我还需要上传大约10年的数据。在
我已经将sqlalchemy
和{df.to_sql
一起使用,并将数据帧转换为csv并批量上传。上传一个csv是最快的,但是会产生持续的类型错误,并且会崩溃。sqlalchemy
和{
如有任何帮助或建议,我们将不胜感激。在
目前没有回答
相关问题 更多 >
编程相关推荐