【发布时间】:2011-10-12 04:05:58
【问题描述】:
我已经构建了一个爬虫,它必须在大约 500 万个页面上运行(通过增加 url ID)然后解析包含我需要的信息的页面。
使用在 url (200K) 上运行的算法并保存好结果和坏结果后,我发现我浪费了很多时间。我可以看到有一些返回的减数可以用来检查下一个有效的 url。
你可以很快看到减数(前几个“好 ID”的小例子)-
510000011 # +8
510000029 # +18
510000037 # +8
510000045 # +8
510000052 # +7
510000060 # +8
510000078 # +18
510000086 # +8
510000094 # +8
510000102 # +8
510000110 # etc'
510000128
510000136
510000144
510000151
510000169
510000177
510000185
510000193
510000201
在爬取了大约 200K 的 url 后,我只得到了 14K 的好结果,我知道我在浪费时间并且需要优化它,所以我运行了一些统计数据并构建了一个函数来检查 url,同时将 id 增加 8\18 \17\8(顶部返回减数)等'。
这是函数 -
def checkNextID(ID):
global numOfRuns, curRes, lastResult
while ID < lastResult:
try:
numOfRuns += 1
if numOfRuns % 10 == 0:
time.sleep(3) # sleep every 10 iterations
if isValid(ID + 8):
parseHTML(curRes)
checkNextID(ID + 8)
return 0
if isValid(ID + 18):
parseHTML(curRes)
checkNextID(ID + 18)
return 0
if isValid(ID + 7):
parseHTML(curRes)
checkNextID(ID + 7)
return 0
if isValid(ID + 17):
parseHTML(curRes)
checkNextID(ID + 17)
return 0
if isValid(ID+6):
parseHTML(curRes)
checkNextID(ID + 6)
return 0
if isValid(ID + 16):
parseHTML(curRes)
checkNextID(ID + 16)
return 0
else:
checkNextID(ID + 1)
return 0
except Exception, e:
print "somethin went wrong: " + str(e)
基本上做的是 -checkNextID(ID) 正在获取我知道的第一个 id,其中包含减 8 的数据,因此第一次迭代将匹配第一个“if isValid”子句(isValid(ID + 8) 将返回 True) .
lastResult 是保存最后一个已知 url id 的变量,所以我们会一直运行到 numOfRuns 为
isValid() 是一个函数,它获取一个 ID + 一个减数,如果 url 包含我需要的内容,则返回 True 并将 url 的汤对象保存到名为 - 的全局变量中curRes',如果 url 不包含我需要的数据,则返回 False。
parseHTML 是一个函数,它获取汤对象 (curRes),解析我需要的数据,然后将数据保存到 csv,然后返回 True。
如果 isValid() 返回 True,我们将调用 parseHTML() 然后尝试检查下一个 ID+被减数(通过调用 checkNextID(ID + subtrahends),如果它们都不会返回我正在寻找的内容我将其增加 1 并再次检查,直到找到下一个有效 url。
你可以看到剩下的代码here
运行代码后我得到了大约 950~ 好的结果,突然引发了一个异常 -
“出了点问题:调用 a 时超出了最大递归深度 Python 对象”
我可以在 WireShark 上看到 scipt 卡在 id - 510009541 上(我以 510000003 开始我的脚本),在我注意到错误并停止它之前,脚本尝试了几次使用该 ID 获取 URL。
看到我得到了相同的结果,但比我的旧脚本快 25-40 倍,HTTP 请求更少,非常精确,我真的很兴奋,我只错过了 1000 个好的结果,这是由我,5M 次朗姆酒是不可能的,我的旧脚本运行了 30 个小时,得到了 14-15K 的结果,而我的新脚本在 5-10 分钟内给了我 960~ 个结果。
我阅读了有关堆栈限制的信息,但我试图在 Python 中实现的算法必须有一个解决方案(我不能回到我的旧 “算法”,它永远不会结束)。
谢谢!
【问题讨论】:
-
每个递归算法都可以转换为等效的迭代算法,最简单的方法是在算法级别处理堆栈(例如,将节点推入堆栈,而不是在深度优先树遍历中对其进行递归) ,有时还有一种更简单(更自然)的迭代算法可以做同样的事情。
-
Thomas K,请见谅,我还在学习使用 stackoverflow,我会复习我得到的所有答案。
标签: python algorithm recursion web-crawler depth