擅长:python、mysql、java
<p>之所以会发生这种情况,是因为您让BeautifulSoup选择了自己最好的解析器,而您可能没有安装lxml</p>
<p>最好的选择是使用<code>html.parser</code>解析url</p>
<pre><code>from bs4 import BeautifulSoup
import urllib2
url = 'http://www.snapdeal.com/'
data = urllib2.urlopen(url).read()
page = BeautifulSoup(data,'html.parser')
for link in page.findAll('a'):
l = link.get('href')
print l
</code></pre>
<p>这对我有效。请确保安装依赖项</p>