【发布时间】:2018-11-10 19:35:25
【问题描述】:
我正在尝试从该网站收集所有个人 URL(律师的 URL) - https://www.linklaters.com/en/find-a-lawyer。我找不到如何提取 URL 的方法——当我使用 CSS 选择器时它不起作用。您能否建议其他方法来查找网页中的特定元素? 另外要收集我需要单击“加载更多”按钮的所有数据,我正在使用 RSelenium。 我认为我在通过 docker 运行 Rselenium 时没有做正确的事情,因为它出现了错误 - checkError(res) 中的错误: httr 调用中的未定义错误。 httr 输出:无法连接到 localhost 端口 4445:连接被拒绝
library(dplyr)
library(rvest)
library(stringr)
library(RSelenium)
link = "https://www.linklaters.com/en/find-a-lawyer"
hlink = read_html(link)
urls <- hlink %>%
html_nodes(".listCta__subtitle--top") %>%
html_attr("href")
urls <- as.data.frame(urls, stringsAsFactors = FALSE)
names(urls) <- "urls"
remDr <- RSelenium::remoteDriver(remoteServerAddr = "localhost",
port = 4445L,
browserName = "chrome")
remDr$open()
replicate(20,
{ # scroll down
webElem <- remDr$findElement("css", "body")
webElem$sendKeysToElement(list(key = "end"))
# find button
allURL <- remDr$findElement(using = "css selector", ".listCta__subtitle--top")
# click button
allURL$clickElement()
Sys.sleep(6)
})
allURL <- xml2::read_html(remDr$getPageSource()[[1]])%>%
rvest::html_nodes(".field--type-ds a") %>%
html_attr("href")
【问题讨论】: