我是python的新手,正在尝试编写一个scraper来获取页面上具有多个分页的所有链接。在
page = urllib2.urlopen(givenurl,"",10000)
soup = BeautifulSoup(page, "lxml")
linktags = soup.findAll('span',attrs={'class':'paginationLink pageNum'})
page.close()
BeautifulSoup.clear(soup)
return linktags
它总是返回我传递的第一个url的结果。我做错什么了吗?在
@uncollected可能在评论中对你给出了正确的答案,但我想就此展开讨论。在
如果您调用的是精确的代码,但嵌套在
while
块中,它将立即返回第一个结果。你可以在这里做两件事。在我不确定您是如何在自己的上下文中使用
while
,所以我在这里使用for
循环。扩展结果列表,并返回整个列表
或者不返回,可以将其设为generator, using the ^{} keyword 。生成器将返回每个结果并暂停到下一个循环:
^{pr2}$相关问题 更多 >
编程相关推荐