2024-09-29 18:44:13 发布
网友
我有一个巨大的pickle文件,大约6gb,为使用RainForestClassifer训练样本生成作业库转储(). 每次执行都必须使用作业库加载()用于处理输入数据。加载时间非常长,随后会影响脚本执行的性能。在
有没有一种方法可以在加载后将对象持久化到内存中,并使其在不调用的情况下可用于后续的python执行作业库加载(). 在
使用类似于sqlite的DB是否有助于更快地加载数据?在
目前没有回答
目前没有回答
相关问题 更多 >
编程相关推荐