【发布时间】:2021-07-11 08:14:04
【问题描述】:
我正在生成 numpy 数组:
p_desct = np.random.uniform(-1, 0.4, [5000000, 512])
内存大小差不多~20G
特征矩阵 (C++) 中的相同数据:
Eigen::MatrixXf x_im = Eigen::MatrixXf::Random(5000000,512);
内存大小~9,6G
numpy 数组是否会使同一矩阵的内存使用量翻倍?
还是我在这里遗漏了什么?
【问题讨论】:
-
看起来 numpy 默认使用双精度。将此与
Eigen::MatrixXd进行比较,而不是Eigen::MatrixXf。 -
你的 numpy 数组的
dtype是什么? (p_desct.dtype)