我试图使用s3fs库和pandas在S3上编写一个CSV文件作为一个数据帧。
尽管有文档,恐怕gzip压缩参数不能用于s3fs。在
def DfTos3Csv (df,file):
with fs.open(file,'wb') as f:
df.to_csv(f, compression='gzip', index=False)
这段代码将dataframe作为一个新对象保存在S3中,但以普通CSV格式保存,而不是gzip格式。
另一方面,使用这个压缩参数,读取功能正常。在
^{pr2}$
写作问题的建议/备选方案?
提前谢谢你!。在
Tags:
函数
to_csv()
的压缩参数在写入流时不起作用。你必须分别进行压缩和上传。在相关问题 更多 >
编程相关推荐