如何使用python通过代理进行wget调用?

2024-10-03 11:20:40 发布

您现在位置:Python中文网/ 问答频道 /正文

我试图使用这个脚本pdfmeat从google scholar获取有关论文的数据。在

这个脚本在我的电脑上运行得很好,但是当我试图把这个脚本放到我的服务器上时,我没有结果。我看到很有可能我的服务器在谷歌学者的黑名单上,给我一个错误(重定向解决一个章节):

$ wget scholar.google.com
--2011-08-08 04:52:19--  http://scholar.google.com/
Resolving scholar.google.com... 72.14.204.147, 72.14.204.99, 72.14.204.103, ...
Connecting to scholar.google.com|72.14.204.147|:80... connected.
HTTP request sent, awaiting response... 302 Found
Location: http://www.google.com/sorry/?continue=http://scholar.google.com/ [following]
--2011-08-08 04:52:24--  http://www.google.com/sorry/?continue=http://scholar.google.com/
Resolving www.google.com... 74.125.93.147, 74.125.93.99, 74.125.93.103, ...
Connecting to www.google.com|74.125.93.147|:80... connected.
HTTP request sent, awaiting response... 503 Service Unavailable
2011-08-08 04:52:24 ERROR 503: Service Unavailable.

然后,我发现wget中有一个选项——执行“http_proxy=urltoproxy”。我做到了

^{pr2}$

我可以拯救索引.html从谷歌学者。在

然后我试着用pdfmeat.py我也没有结果。在

代码如下:

def getWebdata(self, link, referer='http://scholar.google.com'):
    useragent = 'Mozilla/5.0 (X11; U; Linux x86_64; en-US; rv:1.9.1.8) Gecko/20100214 Ubuntu/9.10 (karmic) Firefox/3.5.8'
    c_web = 'wget --execute "http_proxy=oneHttpProxy" -qO- --user-agent="%s" --load-cookies="%s" "%s" --referer="%s"' % (useragent, WGET_COOKIEFILE, link, referer) 
    c_out = os.popen(c_web)
    c_txt = c_out.read()
    c_out.close()
    if re.search("We're sorry", c_txt) or re.search("please type the characters", c_txt):
        self.logger.critical("scholar captcha")
        if not self.options.quiet:
            print "PDFMEAT: scholar captcha!"
        sys.exit()
    self.logger.debug("getwebdata excerpt: %s" % (re.sub("\n", " ", c_txt[0:255])))
    self.queryLog.append("getwebdata excerpt: %s" % (re.sub("\n", " ", c_txt[0:255])))
    return c_txt

脚本使用模块操作系统。原始函数没有wget的--execute选项。在

提前谢谢


Tags: selfre服务器txt脚本comhttpwww