总结一下cmets:
-
select 找到多个实例并返回一个列表,find 找到第一个,所以它们不会做同样的事情。 select_one 相当于 find。
- 在链接标签或使用 tag.classname 时,我几乎总是使用 css 选择器,如果要查找没有类的单个元素,我使用 find。本质上,这取决于用例和个人偏好。
- 就灵活性而言,我想你知道答案,
soup.select("div[id=foo] > div > div > div[class=fee] > span > span > a") 使用多个链式 find/find_all 调用看起来会很丑。
- bs4 中 css 选择器的唯一问题是支持非常有限,nth-of-type 是唯一实现的伪类,并且像 a[href][src] 这样的链接属性也不是与 css 选择器的许多其他部分一样受支持。但是像 a[href=..]* , a[href^=] , a[href$=] 等等......我认为比
find("a", href=re.compile(....)) 好得多,但这又是个人喜好。
为了提高性能,我们可以运行一些测试,我修改了 answer here 的代码,该代码运行在从 here 获取的 800 多个 html 文件上,虽然并不详尽,但应该为某些选项的可读性提供线索,并且表现:
修改后的功能有:
from bs4 import BeautifulSoup
from glob import iglob
def parse_find(soup):
author = soup.find("h4", class_="h12 talk-link__speaker").text
title = soup.find("h4", class_="h9 m5").text
date = soup.find("span", class_="meta__val").text.strip()
soup.find("footer",class_="footer").find_previous("data", {
"class": "talk-transcript__para__time"}).text.split(":")
soup.find_all("span",class_="talk-transcript__fragment")
def parse_select(soup):
author = soup.select_one("h4.h12.talk-link__speaker").text
title = soup.select_one("h4.h9.m5").text
date = soup.select_one("span.meta__val").text.strip()
soup.select_one("footer.footer").find_previous("data", {
"class": "talk-transcript__para__time"}).text
soup.select("span.talk-transcript__fragment")
def test(patt, func):
for html in iglob(patt):
with open(html) as f:
func(BeautifulSoup(f, "lxml")
现在是时间安排:
In [7]: from testing import test, parse_find, parse_select
In [8]: timeit test("./talks/*.html",parse_find)
1 loops, best of 3: 51.9 s per loop
In [9]: timeit test("./talks/*.html",parse_select)
1 loops, best of 3: 32.7 s per loop
就像我说的并不详尽,但我认为我们可以肯定地说 css 选择器肯定更有效。