我从美国地质勘探局订购了一大堆陆地卫星照片,这些照片作为tar.gz档案馆提供。我正在编写一个简单的python脚本来解包它们。每个存档包含15个tiff图像,大小为60-120 mb,总计略超过2 gb。我可以使用以下代码轻松提取整个存档:
import tarfile
fileName = "LT50250232011160-SC20140922132408.tar.gz"
tfile = tarfile.open(fileName, 'r:gz')
tfile.extractall("newfolder/")
我只需要这15个tiff中的6个,在标题中被标识为“乐队”。这些是一些较大的文件,所以它们一起占了大约一半的数据。所以,我想我可以通过如下修改代码来加速这个过程:
fileName = "LT50250232011160-SC20140922132408.tar.gz"
tfile = tarfile.open(fileName, 'r:gz')
membersList = tfile.getmembers()
namesList = tfile.getnames()
bandsList = [x for x, y in zip(membersList, namesList) if "band" in y]
print("extracting...")
tfile.extractall("newfolder/",members=bandsList)
但是,在两个脚本中添加一个计时器并没有显示第二个脚本的显著效率提高(在我的系统中,两个脚本都在一个场景中大约一分钟内运行)。虽然提取速度稍快一些,但这一增益似乎被计算出哪些文件需要首先提取所需时间所抵消。
问题是,这种折衷是源于我正在做的事情,还是仅仅是我的代码效率低下的结果?我对python还比较陌生,直到今天才发现tarfile,所以如果后者是真的,我也不会感到惊讶,但是我还没有找到任何关于高效提取归档文件的建议。
谢谢!
问题是
tar
文件没有中央文件列表,而是在每个文件之前按a header顺序存储文件。然后通过gzip压缩tar
文件,得到tar.gz
。对于tar
文件,如果不想提取某个文件,只需跳过存档文件中的下一个header->size
字节,然后读取下一个头。如果存档文件被额外压缩,那么您仍然需要跳过这么多字节,不仅是在存档文件中,而且是在解压缩的数据流中,即for some compression formats works, but for others requires you to decompress everything in between。gzip属于后一类压缩方案。因此,虽然不将不需要的文件写入磁盘可以节省一些时间,但代码仍然会对它们进行解压缩。您可以通过重写非gzip存档的^{} class 来解决这个问题,但是对于您的
gz
文件,您无能为力。通过将tarfile作为流打开,可以更有效地执行此操作。(https://docs.python.org/2/library/tarfile.html#tarfile.open)
现在这样读:
注意open命令中的
|
。我们只读了file3
。如果我把
r|gz
改回r:gz
,我得到:大约快5倍(因为我们有5个大小相同的文件)。这是因为标准的打开方式允许向后搜索;它只能在压缩的tar文件中通过提取(我不知道确切的原因)。如果你以流的形式打开,你就不能再随机搜索了,但是如果你按顺序阅读,这在你的情况下是可能的,它会快得多。但是,您不能再提前到
getnames
。但在这种情况下这是不必要的。相关问题 更多 >
编程相关推荐