【发布时间】:2019-07-03 13:50:06
【问题描述】:
从 Matlab 迁移到 Python 时,我得到了不同的矩阵乘法和求幂结果。
这是一个简单的 softmax 分类器实现。我运行 Python 代码,将变量导出为 mat 文件,然后运行原始 Matlab 代码,加载从 Python 导出的变量,并进行比较。
Python 代码:
f = np.array([[4714, 4735, 4697], [4749, 4748, 4709]])
f = f.astype(np.float64)
a = np.array([[0.001, 0.001, 0.001], [0.001, 0.001, 0.001], [0.001, 0.001, 0.001]])
reg = f.dot(a)
omega = np.exp(reg)
sumomega = np.sum(omega, axis=1)
io.savemat('python_variables.mat', {'p_f': f,
'p_a': a,
'p_reg': reg,
'p_omega': omega,
'p_sumomega': sumomega})
Matlab 代码:
f = [4714, 4735, 4697; 4749, 4748, 4709];
a = [0.001, 0.001, 0.001; 0.001, 0.001, 0.001; 0.001, 0.001, 0.001];
reg = f*a;
omega = exp(reg);
sumomega = sum(omega, 2);
load('python_variables.mat');
我通过检查以下内容来比较结果:
norm(f - p_f) = 0
norm(a - p_a) = 0
norm(reg - p_reg) = 3.0767e-15
norm(omega - p_omega) = 4.0327e-09
norm(omega - exp(p_f*p_a)) = 0
所以差异似乎是由乘法引起的,并且使用 exp() 会变得更大。而我的原始数据矩阵比这个大。我得到了更大的 omega 值:
norm(reg - p_reg) = 7.0642e-12
norm(omega - p_omega) = 1.2167e+250
这也导致在某些情况下 sumomega 在 Python 中变为 inf 或零,但在 Matlab 中却没有,因此分类器输出不同。
我在这里缺少什么?我怎样才能得到完全相同的结果?
【问题讨论】:
-
顺便说一句,在您的真实代码中,
a元素是否完全相同? -
@Brenlla 是的。在 Matlab 和 Python 代码中它们是相同的。这是softmax分类器的参数矩阵,0.001s是初始值。我使用数值优化迭代更新它们。
-
对我来说,这实际上表明,您的结果可能会因浮点精度而有很大差异,这意味着您可能应该重新考虑您的算法