解压巨大的pickle文件

2024-09-29 18:44:13 发布

您现在位置:Python中文网/ 问答频道 /正文

我有一个巨大的pickle文件,大约6gb,为使用RainForestClassifer训练样本生成作业库转储(). 每次执行都必须使用作业库加载()用于处理输入数据。加载时间非常长,随后会影响脚本执行的性能。在

有没有一种方法可以在加载后将对象持久化到内存中,并使其在不调用的情况下可用于后续的python执行作业库加载(). 在

使用类似于sqlite的DB是否有助于更快地加载数据?在


Tags: 文件数据对象方法内存脚本dbsqlite

热门问题