我想要一个蜘蛛在多个URL上运行。然而,我希望从用户那里获取输入,将其连接到我的原始URL,然后让蜘蛛抓取它们。下面是我为其中一个URL所做的
class ProductsSpider(scrapy.Spider):
name = "gaming"
def start_requests(self):
product = input("Enter the item you are looking for")
yield scrapy.Request(
url=f'https://www.czone.com.pk/search.aspx?kw={product}',
callback=self.parse
)
def parse(self, response):
对于一个URL,上面的代码运行得非常好。有多个url的一种方法是将一个列表作为起始url,但即使是url,爬行器也会返回一个错误: “[scrapy.core.engine]错误:获取启动请求值时出错错误:请求url:h中缺少方案” 请帮忙
检查此代码:
在scrapy spider中获取输入的正确方法是在运行时使用
-a
选项,例如,要运行此spider,您应该使用:或
URL错误可能是由于格式错误,使用
没有给我任何问题
根据你的问题,解决办法如下:
我的代码:
与备选方案相同:
代码:
输出:
相关问题 更多 >
编程相关推荐