【发布时间】:2019-08-02 06:53:29
【问题描述】:
我尝试使用以下命令从 AWS S3 存储桶中获取大量文件:
aws s3 ls --human-readable --recursive my-directory
这个目录包含上万个文件,所以有时,在长时间的停顿之后,我得到这个错误:
('The read operation timed out',)
我已尝试使用不同值的参数--page-size,但没有帮助。我该如何解决这个错误?
【问题讨论】:
-
我看到两个潜在原因 = 1) forums.aws.amazon.com/thread.jspa?threadID=161807 - 来自系统级问题(Linux 内核)和 2) 不是新版本的 cli 工具。
-
谢谢,Rinat。我的版本是
aws-cli/1.10.41 Python/2.7.11+ Linux/4.4.0-28-generic botocore/1.4.31,在 Ubuntu 16.04 上。 -
同样的事情发生在我身上(这就是我在这里的原因)。我只需要再运行几次就可以了。我并不是说这就是解决方案,但也许这只是暂时的故障。
-
我也面临同样的问题,谁能回答你是如何设法显示巨大的对象列表的?
-
如果您还没有尝试过一些想法:1) 我不想重复,但这个问题已经过时了,从那时起已经发布了几个 CLI 版本。尝试更新它; 2) 您可以尝试使用 cli 超时,例如
--cli-connect-timeout、--no-cli-read-timeout和--no-cli-connect-timeout,看看会发生什么
标签: amazon-s3