【发布时间】:2015-08-13 05:59:41
【问题描述】:
我尝试制作一个 WebCrawler 从主页中查找链接并一次又一次地访问找到的链接.. 现在我已经编写了一个带有解析器的代码,它向我显示找到的链接并打印该主页的一些标签的统计信息,但我不知道如何循环访问新链接并打印统计信息。
*
@visit = {}
@src = Net::HTTP.start(@url.host, @url.port) do |http|
http.get(@url.path)
@content = @src.body
*
def govisit
if @content =~ @commentTag
end
cnt = @content.scan(@aTag)
cnt.each do |link|
@visit[link] = []
end
puts "Links on this site: "
@visit.each do |links|
puts links
end
if @visit.size >= 500
exit 0
end
printStatistics
end
【问题讨论】:
标签: ruby url hyperlink web-crawler net-http