【发布时间】:2019-12-19 08:44:05
【问题描述】:
这是我用于此练习的 Jupyter Notebook:https://drive.google.com/file/d/18-OXyvXSit5x0ftiW9bhcqJrO_SE22_S/view?usp=sharing
我正在使用this 数据集练习简单的线性回归,这是我的参数:
sat = np.array(data['SAT'])
gpa = np.array(data['GPA'])
theta_0 = 0.01
theta_1 = 0.01
alpha = 0.003
cost = 0
m = len(gpa)
我尝试通过将成本函数计算转换为矩阵并执行元素操作来优化成本函数计算。这是我想出的结果公式:
成本函数优化:
成本函数
def calculateCost(matrix_x,matrix_y,m):
global theta_0,theta_1
cost = (1 / (2 * m)) * ((theta_0 + (theta_1 * matrix_x) - matrix_y) ** 2).sum()
return cost
我也尝试对梯度下降做同样的事情。
梯度下降
def gradDescent(alpha,matrix_x,matrix_y):
global theta_0,theta_1,m,cost
cost = calculateCost(sat,gpa,m)
while cost > 1
temp_0 = theta_0 - alpha * (1 / m) * (theta_0 + theta_1 * matrix_x - matrix_y).sum()
temp_1 = theta_1 - alpha * (1 / m) * (matrix_x.transpose() * (theta_0 + theta_1 * matrix_x - matrix_y)).sum()
theta_0 = temp_0
theta_1 = temp_1
我不完全确定这两种实现是否正确。该实现返回了 114.89379821428574 的成本,当我绘制成本图时,不知何故,这就是“下降”的样子:
梯度下降图:
如果我正确实现了成本函数和梯度下降,请纠正我,并尽可能提供解释,因为我仍然是多元微积分的初学者。谢谢。
【问题讨论】:
标签: python machine-learning linear-regression gradient-descent