如何从网站上获取完整尺寸的图片?

2024-09-27 19:22:10 发布

您现在位置:Python中文网/ 问答频道 /正文

我试图从这两个网站获取银屑病患者的临床图像,用于研究目的:

http://www.dermis.net/dermisroot/en/31346/diagnose.htm

http://dermatlas.med.jhmi.edu/derm/

对于第一个站点,我尝试用firefox保存页面,但是它只保存了缩略图,而不是完整的图像。我可以使用一个名为“downloadthemall”的firefox插件访问完整大小的图像,但它将每个图像保存为新的html页面的一部分,我不知道任何方法来提取图像。在

我还试着在我大学的一台linux机器上使用wget来镜像网站,但我没能让它正常工作,我仍然不确定原因。在

因此,我想知道写一个简短的脚本(或任何最简单的方法)是否容易(a)获得链接到第一个网站的全尺寸图像,以及(b)在第二个网站上获取文件名为“牛皮癣”的所有全尺寸图像。在

我已经做了几年的编程工作,但对web开发没有任何经验,如果您能给我一些建议,我将不胜感激。在


Tags: 方法图像目的患者httpnet网站尺寸
2条回答

为什么不使用wget递归地从域下载图像?下面是一个例子:

wget -r -P /save/location -A jpeg,jpg,bmp,gif,png http://www.domain.com

以下是手册页:http://www.gnu.org/software/wget/manual/wget.html

试试HTTrack网站复制器-它将加载网站上的所有图像。您也可以尝试http://htmlparser.sourceforge.net/。如果你在网站上指定了资源,你也可以使用它org.htmlparser.parserapplications.SiteCapturer站点捕获器

相关问题 更多 >

    热门问题