【发布时间】:2012-06-21 17:47:30
【问题描述】:
我想下载已知 URL 的特定目录中的所有文件。这些文件的名称不一定是已知的,但它们的名称都包含一个共同的关键字,并且具有相同的扩展名 (.xml)。
对于 urllib2 是否有等效的“os.walk”,这样我就可以简单地遍历目录中存在的任何文件并打开它们进行解析?
我在网上看到的唯一示例涉及一个已知名称的文件,其中包含目录中所有文件名的列表。我不想这样做...
其他可能相关的信息: 这些文件位于 apache 服务器上,并且可以公开访问。
【问题讨论】:
-
联系网站所有者并询问他们是否愿意提供数据
-
这实际上是我的数据。我只是希望能够使用我的脚本自动将其拉下,而不必在每次更新时都更新目录中的文件列表......也许我还是必须这样做。
标签: python download urllib2 os.walk