【发布时间】:2018-12-17 17:35:00
【问题描述】:
我有一个包含数百个 PDF 的网站。我需要遍历并将每个 PDF 下载到我的本地计算机。我想使用rvest。尝试:
library(rvest)
url <- "https://example.com"
scrape <- url %>%
read_html() %>%
html_node(".ms-vb2 a") %>%
download.file(., 'my-local-directory')
如何从链接中获取每个 PDF? download.file() 不起作用,我不知道如何获取每个文件。我只是得到这个错误:
doc_parse_raw(x, encoding = encoding, base_url = base_url, as_html = as_html, : xmlParseEntityRef: 无名 [68]
【问题讨论】:
标签: rvest r web-scraping rvest