【发布时间】:2011-02-11 01:56:03
【问题描述】:
听说我目前正在竞选调查员的科学计算项目(碰巧是随机牵引成像方法described here)将在我们的 50 节点集群上花费 4 个月的时间,调查员要求我检查其他选项。该项目目前正在使用并行 python 将 4d 数组的块分配给不同的集群节点,并将处理后的块重新组合在一起。
我目前正在处理的作业可能过于粗粒度,(5 秒到 10 分钟,我不得不增加并行 python 中的超时默认值),我估计我可以将这个过程加快 2-4 倍通过重写它以更好地利用资源(拆分和重新组合数据花费的时间太长,也应该并行化)。大部分工作由 numpy 数组完成。
假设 2-4 次是不够的,我决定从我们的本地硬件中获取代码。对于像这样的高吞吐量计算,我的商业选择是什么?我需要如何修改代码?
【问题讨论】:
-
或者,隐含地,谁已经把这些信息写下来了,我怎样才能得到它。
标签: python amazon-ec2 parallel-processing mapreduce parallel-python