【发布时间】:2013-02-24 13:58:38
【问题描述】:
我很好奇是否有人对利用 PHP/CURL(甚至其他技术)从网站下载内容的最佳方法有任何建议。现在我正在使用 curl_multi 一次执行 10 个请求,这对一些人有帮助。
我确实需要每天请求大约 10 万页,这可能会有点乏味(现在需要 16 小时)。我最初的想法只是设置多个虚拟机并拆分任务,但想知道除了并行化之外我是否还缺少其他东西。 (我知道你总是可以在这个问题上扔更多的机器嘿)
提前致谢!
【问题讨论】:
-
缓存?这取决于您的要求?