【发布时间】:2017-03-04 11:45:10
【问题描述】:
我得到了一个函数的定义,并要求我按如下方式实现它:
# Problem 1 - Apply zero mean and zero variance scale to the image features
def normalize(data):
pass
然后使用numpy 提供单元测试,这将断言我的实现成功
编辑
这不是我的单元测试,而是由课程讲师布置的。
np.testing.assert_array_almost_equal(
normalize(np.array([1, 2, 3, 4, 5, 6, 7, 8, 9, 10])),
np.array([-0.4, -0.3, -0.2, -0.099, 0.0, 0.099, 0.199, 0.3, 0.4, 0.5]),
decimal=3)
我的解决办法是
def normalize(data):
return ((data - data.mean()) / data.max() - data.min())
但我的理解肯定有差距,因为我正在理解
AssertionError:
Arrays are not almost equal to 3 decimals
(mismatch 100.0%)
x: array([-1.45, -1.35, -1.25, -1.15, -1.05, -0.95, -0.85, -0.75, -0.65, -0.55])
y: array([-0.4 , -0.3 , -0.2 , -0.099, 0. , 0.099, 0.199, 0.3 ,
0.4 , 0.5 ])
通过谷歌搜索我也找到了
(data - data.mean()) / data.std()
经过更多搜索,我尝试了
(data - data.mean()) / data.var()
但两种解决方案都没有正确断言。
那么这里的正确实现是什么?
【问题讨论】:
-
为什么投反对票?
标签: python numpy machine-learning normalization