scrapy:这个简单的管道怎么了

2024-10-04 07:29:14 发布

您现在位置:Python中文网/ 问答频道 /正文

我有两个粘糊糊的蜘蛛,比如说spider1spider2spider1爬网一些页面并收集文件中的url。代码如下:

class FileWriterPipeline(object):

    def __init__(self):
        self.file = open('somefile.txt'), 'wb')

    def process_item(self, item, spider):
        if spider.name == 'spider1':
            line = item['url'] + "\n"
            self.file.write(line)
            return item

问题是,只要我运行spider2somefile.txt就会被擦干净。有人知道这里怎么了吗


Tags: 文件代码selftxturldefline页面