我有两个粘糊糊的蜘蛛,比如说spider1
和spider2
spider1
爬网一些页面并收集文件中的url。代码如下:
class FileWriterPipeline(object):
def __init__(self):
self.file = open('somefile.txt'), 'wb')
def process_item(self, item, spider):
if spider.name == 'spider1':
line = item['url'] + "\n"
self.file.write(line)
return item
问题是,只要我运行spider2
,somefile.txt
就会被擦干净。有人知道这里怎么了吗
不管你以后做什么,只要你打电话:
使用
'wb'
参数,file is erased completely。如果您想附加,应该改用'ab'
相关问题 更多 >
编程相关推荐