我试图从这两个网站获取银屑病患者的临床图像,用于研究目的:
http://www.dermis.net/dermisroot/en/31346/diagnose.htm
http://dermatlas.med.jhmi.edu/derm/
对于第一个站点,我尝试用firefox保存页面,但是它只保存了缩略图,而不是完整的图像。我可以使用一个名为“downloadthemall”的firefox插件访问完整大小的图像,但它将每个图像保存为新的html页面的一部分,我不知道任何方法来提取图像。在
我还试着在我大学的一台linux机器上使用wget来镜像网站,但我没能让它正常工作,我仍然不确定原因。在
因此,我想知道写一个简短的脚本(或任何最简单的方法)是否容易(a)获得链接到第一个网站的全尺寸图像,以及(b)在第二个网站上获取文件名为“牛皮癣”的所有全尺寸图像。在
我已经做了几年的编程工作,但对web开发没有任何经验,如果您能给我一些建议,我将不胜感激。在
为什么不使用wget递归地从域下载图像?下面是一个例子:
以下是手册页:http://www.gnu.org/software/wget/manual/wget.html
试试HTTrack网站复制器-它将加载网站上的所有图像。您也可以尝试http://htmlparser.sourceforge.net/。如果你在网站上指定了资源,你也可以使用它org.htmlparser.parserapplications.SiteCapturer站点捕获器
相关问题 更多 >
编程相关推荐