【发布时间】:2011-02-17 21:05:11
【问题描述】:
我们正在尝试在我们的应用中添加某种持久性。 该应用每秒生成大约 250 个条目。这些条目中的每一个都属于 2M 文件之一。对于每个文件,我们希望保留最后 10 个条目,以便以后查找。
我们的客户端应用程序的工作方式:
- 它获取所有数据的流
- 它获取正确的文件 (GET)
- 它添加了新内容
- 它将文件保存回来 (PUT)
我们正在寻找一种有效的方法来存储这些数据,该方法可以水平扩展,因为我们获得的数据量每隔几周就会翻一番。
我们最初关注的是 S3。它工作得很好,但很快就会变得非常昂贵(仅在 PUT 操作中每月就超过 1000 美元!)
然后我们试了一下Riak。但似乎我们不能在每个节点上获得超过 60 次写入/秒,这非常非常慢。
还有其他解决方案吗?
【问题讨论】:
-
60 写入/秒,使用 riak?你是怎么得到这个号码的?这很有趣,因为我也在评估 riak。
标签: amazon-s3 store cluster-computing riak