我试图从BeautifulSoup网站上提取不同的信息,例如产品名称和价格
我使用不同的URL来实现这一点,使用for...in...
循环遍历URL。在这里,我只提供一个没有循环的片段
from bs4 import BeautifulSoup
import requests
import csv
url= 'https://www.mediamarkt.ch/fr/product/_lg-oled65gx6la-1991479.html'
html_content = requests.get(url).text
soup = BeautifulSoup(html_content, "lxml")
price = soup.find('meta', property="product:price:amount")
title = soup.find("div", {"class": "flix-model-name"})
title2 = soup.find('div', class_="flix-model-name")
title3 = soup.find("div", attrs={"class": "flix-model-name"})
print(price['content'])
print(title)
print(title2)
print(title3)
因此,从这个URL https://www.mediamarkt.ch/fr/product/_lg-oled65gx6la-1991479.html我没有提取产品编号。我唯一能找到它的地方就是divclass="flix-model-name"
。然而,我完全无法达到它。我在title
、title2
、title3
中尝试了不同的方法来访问它,但我总是有输出none
我是一个初学者,所以我想我可能错过了一些基本的东西。。。如果是这样,请原谅我
欢迎任何帮助!非常感谢
仅供参考,对于每个url,我都想添加数据并将其写入CSV文件,如下所示:
for url in urls:
html_content = requests.get(url).text
soup = BeautifulSoup(html_content, "lxml")
row=[]
try:
# title = YOUR VERY WELCOMED ANSWER
prices = soup.find('meta', property="product:price:amount")
row = (title.text+','+prices['content']+'\n')
data.append(row)
except:
pass
file = open('database.csv','w')
i = 0
while i < (len(data)):
file.write(data[i])
i +=1
file.close()
非常感谢您的帮助
大卫
尝试下面使用python的方法-requests当涉及到请求时,需要简单、直接、可靠、快速和更少的代码。我在检查了谷歌chrome浏览器的网络部分后,从网站本身获取了API URL
下面的脚本到底在做什么:
首先,它将获取API URL,基于2个动态参数(产品和类别)创建URL,然后执行GET请求以获取数据
获取数据后,脚本将使用JSON.loads库解析JSON数据。 最后,它将逐一迭代所有产品列表,并打印分为两类的详细信息,如品牌、名称、产品编号和单价。同样,您可以通过查看API调用来添加更多细节
相关问题 更多 >
编程相关推荐