基于css属性的网页html字符串片段解析

2024-10-03 06:28:53 发布

您现在位置:Python中文网/ 问答频道 /正文

我正在尝试根据CSS属性在网页上提取特定的URL。我可以拉第一个,但我有困难获得完整的网址添加,或获得一个以上的网址。在

我尝试过使用joinurl或parse时遇到很多问题。joinurl不断出现全局错误。在

有没有更简单的方法??在


我使用的是Centos 6.5和Python 2.7.5

下面的代码将提供第一个URL,但不提供http://www...inline

import scrapy

class PdgaSpider(scrapy.Spider):
name = "pdgavideos"  # Name of the Spider, required value

start_urls = ["http://www.pdga.com/videos/"]

# Entry point for the spiders
def parse(self, response):
    SET_SELECTOR = 'tbody'
    for brickset in response.css(SET_SELECTOR):

        HTML_SELECTOR = 'td.views-field.views-field-title a ::attr(href)'
        yield {
            'http://www.pdga.com': brickset.css(HTML_SELECTOR).extract()[0]
        }

电流输出

http://www.pdga.com
/视频/2017-glass-bould-open-fpo-rd-2-pt-2-pierce-fajkus-leatherman-c-allen-sexton-leatherman

预期输出

完整的url列表,没有任何分隔符

我没有足够的声誉点数来发布几个示例


Tags: thecomhttpurlforparseresponsewww
2条回答

你的代码返回一个字典,这就是为什么它是break:

{'http://www.pdga.com': u'/videos/2017-glass-blown-open-fpo-rd-2-pt-2-pierce-fajkus-leatherman-c-allen-sexton-leatherman'}

你能做的就是把这个字典变成这样:

^{pr2}$

这将给您一个新的dict值是no break href。在

{'href_link': u'http://www.pdga.com/videos/2017-glass-blown-open-fpo-rd-2-pt-2-pierce-fajkus-leatherman-c-allen-sexton-leatherman'}

注意:Spider必须返回Request、BaseItem、dict或None,引用parse function。在

为了从相对链接中获取绝对URL,可以使用Scrapyurljoin()方法,并按如下方式重写代码:

import scrapy

class PdgaSpider(scrapy.Spider):
    name = "pdgavideos"
    start_urls = ["http://www.pdga.com/videos/"]

    def parse(self, response):
        for link in response.xpath('//td[2]/a/@href').extract():
            yield scrapy.Request(response.urljoin(link), callback=self.parse_page)

        # If page contains link to next page extract link and parse
        next_page = response.xpath('//a[contains(., "next")]/@href').extract_first()
        if next_page:
            yield scrapy.Request(response.urljoin(next_page), callback=self.parse)

    def parse_page(self, response):
        link = response.xpath('//iframe/@src').extract_first()
        yield{
            'you_tube_link': 'http:' + link.split('?')[0]
        }

# To save links in csv format print in console: scrapy crawl pdgavideos -o links.csv
# http://www.youtube.com/embed/tYBF-BaqVJ8
# http://www.youtube.com/embed/_H0hBBc1Azg
# http://www.youtube.com/embed/HRbKFRCqCos
# http://www.youtube.com/embed/yz3D1sXQkKk
# http://www.youtube.com/embed/W7kuKe2aQ_c

相关问题 更多 >