【发布时间】:2019-03-31 22:16:58
【问题描述】:
我一直试图找出为什么我的线性回归模型与 sklearn 的线性回归模型相比表现不佳。
我的线性回归模型(基于梯度下降的更新规则)
w0 = 0
w1 = 0
alpha = 0.001
N = len(xTrain)
for i in range(1000):
yPred = w0 + w1*xTrain
w0 = w0 - (alpha/N)* sum(yPred - yTrain)
w1 = w1 - (alpha/N)*sum((yPred - yTrain) * xTrain)
用于绘制训练集中 x 的值和 y 的预测值的代码
#Scatter plot between x and y
plot.scatter(xTrain,yTrain, c='black')
plot.plot(xTrain, w0+w1*xTrain, color='r')
plot.xlabel('Number of rooms')
plot.ylabel('Median value in 1000s')
plot.show()
我得到如下所示的输出https://i.stack.imgur.com/jvOfM.png
在使用 sklearn 的内置线性回归运行相同的代码时,我明白了 https://i.stack.imgur.com/jvOfM.png
谁能帮助我的模型哪里出错了?我已尝试更改多次迭代和学习率,但没有显着变化。
如果有帮助,这里是 colab 上的 ipython 笔记本:https://colab.research.google.com/drive/1c3lWKkv2lJfZAc19LiDW7oTuYuacQ3nd
非常感谢任何帮助
【问题讨论】:
标签: python machine-learning linear-regression gradient-descent