【发布时间】:2017-09-07 10:42:50
【问题描述】:
我在使用 R.utils::withTimeout() 时遇到了一些问题。它似乎根本没有考虑超时选项,或者只是有时。在我要使用的功能下方:
scrape_player <- function(url, time){
raw_html <- tryCatch({
R.utils::withTimeout({
RCurl::getURL(url)
},
timeout = time, onTimeout = "warning")}
)
html_page <- xml2::read_html(raw_html)
}
现在当我使用它时:
scrape_player("http://nhlnumbers.com/player_stats/1", 1)
它要么工作正常,我得到我想要的 html 页面,要么我收到一条错误消息,告诉我已达到经过的时间限制,或者,这是我的问题,它需要很长时间,远远超过1秒,最终返回一个错误500的html页面。
不应该RCurl::getURL() 只尝试 1 秒(在示例中)来获取 html 页面,如果不是,则简单地返回警告?我错过了什么?
【问题讨论】: