【问题标题】:Downloading stops using the "search_tweets"-function of the "rtweet"-library使用“rtweet”库的“search_tweets”功能停止下载
【发布时间】:2020-02-29 06:03:55
【问题描述】:

我正在尝试使用 rtweet-package 从某个主题标签下载一些推文。我使用了一个名为 OpenCodez 的地方的指南,但遇到了问题

使用 rtweet-package 的“search_tweets”功能,我无法下载超过 5 条推文,而 rtweet 的限制应该在 18.000 条左右。

我没有收到任何错误,但运行我的脚本时的“正在下载”图形仅在 10% 处停止(尝试下载 n=2000 时)。

我尝试使用“retryonratelimit=TRUE”,但没有成功。我已经重置了我的脚本,尝试了不同的教程来建立连接——一切都很好——直到我真正使用了 search_tweets 函数。

这是我连接到 API 的代码:

api_key <- "xxxx"
api_secret_key <- "xxxx"
access_token <- "xxxx"
access_token_secret <- "xxxx"

## authenticate via web browser
token <- create_token(
  app = "xxxx",
  consumer_key = api_key,
  consumer_secret = api_secret_key,
  access_token = access_token,
  access_secret = access_token_secret)

这是我的“刮刀”:

my_tweets = search_tweets("#vmd19", n=2000, lang='en')

生成的数据框只有 5 列,这很奇怪,而主题标签下应该至少有几百条推文。我尝试了不同的查询(主题标签等),但没有运气。下载停止看起来像这样:

Downloading [===>-------------------------------------]  10%

我无法弄清楚我做错了什么。希望有人能帮我解决这个问题!

【问题讨论】:

  • 尝试使用其他关键字进行测试,以验证 Natalie 在下面的有用评论 - 尝试“冠状病毒” - 如果您在几分钟内没有获得大约 17,000 个,那就是其他问题!

标签: r twitter rtweet


【解决方案1】:

此问题已在此处解决:https://github.com/ropensci/rtweet/issues/364

看起来是因为您可以从中收集推文的窗口(大约是上周)。如果该时间窗口中可用的推文数量小于 search_tweets 函数中的 n,它将在达到 100% 之前被删除。因此,如果您要求 100 条带有某个词条的推文,而该词条在上周仅发了 7 次推文,它将以 7% 的速度停止下载。

【讨论】:

    猜你喜欢
    • 1970-01-01
    • 2019-07-06
    • 2022-07-19
    • 2023-04-11
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多