【发布时间】:2011-07-22 11:16:22
【问题描述】:
有没有办法减少与 mysql 或 python 脚本相关的 I/O?我正在考虑使用 EC2,成本似乎还可以,但我无法真正预测我的 I/O 使用情况,而且我担心它可能会因成本而使我措手不及。
我基本上开发了一个python脚本来解析数据并将其上传到mysql。一旦它在 mysql 中,我会对其进行一些相当繁重的分析(创建新列、表......基本上是对大型数据集进行大量基于数学和财务的分析)。那么是否有任何设计最佳实践来避免繁重的 I/O?我认为 memcached 将所有内容存储在内存中并从那里访问它,有没有办法让 mysql 或其他脚本做同样的事情?
我现在在另一个有 2 gigs ram 的主机上运行脚本很好,但是我正在查看的 ec2 实例有大约 8 gigs,所以我想知道是否可以使用额外的内存来节省一些钱。
【问题讨论】:
-
您的大型数据集有多大?它是否适合内存?
-
嗨,克里斯..是的,我应该提到它应该适合。我的计划是我的数据集可能是 2-3 场演出,而盒子上实际上没有其他东西在运行。如果有可行的解决方案,我真的可以不断升级我的内存以跟上。
标签: python mysql amazon-ec2 mysql-management