我想解析来自此website的链接列表
我正试图用Python中的请求库来实现这一点。然而,当我尝试使用bs4阅读HTML时,没有任何链接。只需清空ul
:
< ul class="ais-Hits-list">< /ul >
如何获取这些链接
编辑:
到目前为止我尝试的代码:
link = "https://www.over-view.com/digital-index/"
r = requests.get(link)
soup = BeautifulSoup(r.content, 'lxml')
Tags:
还有一种更为奢侈的方式:不要过于苛刻,因为我第一次尝试了这种方法,但您可以向API发出与前端相同的请求。另外,由于asyncio+aiohttp,此代码可以异步执行
请记住,我使用任意数量的页面进行迭代,并且没有处理可能的错误(您需要对其进行微调)
没有Selenium WebDriver的代码
第一页的示例结果
对于将来的更改(因为有许多移动部件),您可以从浏览器中的Web控制台获取有关其API的信息👇
由于该网站上的信息是动态加载的,因此您可以使用
selenium
收集所需信息:输出示例:
相关问题 更多 >
编程相关推荐