如何下载网站中所有可用的数据文件夹?

2024-09-30 01:32:47 发布

您现在位置:Python中文网/ 问答频道 /正文

一般来说,如果一个网站显示一系列指向包含文件夹的数据的链接(即包含经济数据的电子表格),我如何编写一个识别所有链接并下载数据的程序?你知道吗

特别是,我正在尝试下载这个网站https://www.ngdc.noaa.gov/eog/viirs/download_dnb_composites.html中从2012年到2018年的所有文件夹

我尝试了下面建议的方法,但是似乎没有下载到数据的链接。你知道吗

my_target='https://www.ngdc.noaa.gov/eog/viirs/download_dnb_composites.html'


import requests
from bs4 import BeautifulSoup

r  = requests.get(my_target)
data = r.text
soup = BeautifulSoup(data)

links=[]
for link in soup.find_all('a'):
    links.append(link.get('href'))
    print(link.get('href'))

在所有附加到链接的URL中,没有一个指向数据。你知道吗

最后,即使我有了正确的链接,如何使用它们来实际下载文件?你知道吗

非常感谢!;)


Tags: 数据https文件夹get网站链接downloadwww

热门问题