我正在尝试为各种科学期刊网站构建一个基本的 HTML 抓取工具,特别是尝试获取摘要或介绍性段落。

我目前正在研究的期刊是《自然》,我用作样本的文章可以在以下位置查看 http://www.nature.com/nature/journal/v463/n7284/abs/nature08715.html.

然而,我无法从该页中获取摘要。我正在寻找之间的一切 <p class="lead">...</p> 标签,但我似乎不知道如何隔离它们。我以为这会是简单的事情

from BeautifulSoup import BeautifulSoup
import re
import urllib2

address="http://www.nature.com/nature/journal/v463/n7284/full/nature08715.html"
html = urllib2.urlopen(address).read()
soup = BeautifulSoup(html)

abstract = soup.find('p', attrs={'class' : 'lead'})
print abstract

使用 Python 2.5、BeautifulSoup 3.0.8,运行此命令将返回“None”。我无法选择使用任何其他需要编译/安装的东西(如lxml)。BeautifulSoup 很困惑,还是我很困惑?

有帮助吗?

解决方案

该 html 格式几乎不正确,并且 xml.dom.minidom 无法解析,并且 BeautiFulSoup 解析效果不佳。

我删除了一些 <!-- ... --> 部分并用 BeautiFulSoup 再次解析,那么它看起来更好并且能够运行 soup.find('p', attrs={'class' : 'lead'})

这是我尝试过的代码

>>> html =re.sub(re.compile("<!--.*?-->",re.DOTALL),"",html)
>>>
>>> soup=BeautifulSoup(html)
>>>
>>> soup.find('p', attrs={'class' : 'lead'})
<p class="lead">The class of exotic Jupiter-mass planets that orb  .....

其他提示

这是获取摘要的非废话方式。

address="http://www.nature.com/nature/journal/v463/n7284/full/nature08715.html"
html = urllib2.urlopen(address).read()
for para in html.split("</p>"):
    if '<p class="lead">' in para:
        abstract=para.split('<p class="lead">')[1:][0]
        print ' '.join(abstract.split("\n"))
许可以下: CC-BY-SA归因
不隶属于 StackOverflow
scroll top