2024-10-01 07:36:37 发布
网友
因此,有一些尝试,但我找不到一种方法来获得每一个网站的名称和内容
我在我的项目中使用lxml和beautysoup,但是我似乎找不到一种方法来找到我不知道的div。 有人能告诉我一个方法或任何提示如何做到这一点吗?你知道吗
提前谢谢。你知道吗
您可以使用find_all方法查找特定类型的所有标记,然后通过attrsdict查看它们的属性,例如:
find_all
attrs
soup = BeautifulSoup(html, 'lxml') for div in soup.find_all('div'): print(div.attrs)
您可以使用
find_all
方法查找特定类型的所有标记,然后通过attrs
dict查看它们的属性,例如:相关问题 更多 >
编程相关推荐