为什么我没有得到任何结果与这个破烂的爬虫?

2024-09-28 21:35:45 发布

您现在位置:Python中文网/ 问答频道 /正文

这是我的测试项目树:

├── test11
│   ├── __init__.py
│   ├── items.py
│   ├── pipelines.py
│   ├── settings.py
│   └── spiders
│       ├── __init__.py
│       ├── basic.py
│       ├── easy.py
├── scrapy.cfg

items.py文件中,我有:

从下脚料导入项,字段

^{pr2}$

easy.py文件中,我有:

^{3}$

basic.py文件中,我有:

import scrapy
import urlparse
from scrapy.loader import ItemLoader
from scrapy.loader.processors import MapCompose, Join
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from test11.items import Test11Item

class BasicSpider(scrapy.Spider):
    name = 'basic'
    allowed_domains = ['web']

    start_urls = ['https://www.amazon.cn/b?ie=UTF8&node=2127529051']

    def parse(self, response):
        l = ItemLoader(item = Test11Item(), response = response)

        l.add_xpath('name', '//*[@id="productTitle"]/text()', MapCompose(unicode.strip))
        l.add_xpath('//*[@id="priceblock_ourprice"]/text()', MapCompose(lambda i: i.replace(',', ''), float), re='[,.0-9]+')

        return l.load_item()

当我运行basic蜘蛛(scrapy crawl basic)时,我得到了我想要的结果。但是当我运行easyspider,scrapy crawl easy时,我根本没有得到任何结果!在

我错过了什么?在


Tags: 文件frompyimportbasicinitresponseeasy