【发布时间】:2015-08-07 03:58:49
【问题描述】:
我有一个包含 158 行和 10 列的数据集。我尝试建立多元线性回归模型并尝试预测未来价值。
我使用 GridSearchCV 调整参数。
这是我的 GridSearchCV 和回归函数:
def GridSearch(data):
X_train, X_test, y_train, y_test = cross_validation.train_test_split(data, ground_truth_data, test_size=0.3, random_state = 0)
parameters = {'fit_intercept':[True,False], 'normalize':[True,False], 'copy_X':[True, False]}
model = linear_model.LinearRegression()
grid = GridSearchCV(model,parameters)
grid.fit(X_train, y_train)
predictions = grid.predict(X_test)
print "Grid best score: ", grid.best_score_
print "Grid score function: ", grid.score(X_test,y_test)
这段代码的输出是:
网格最好成绩:0.720298870251
网格得分函数:0.888263112299
我的问题是best_score_和score函数有什么区别?
score 函数如何优于best_score 函数?
提前致谢。
【问题讨论】:
标签: python r machine-learning scikit-learn regression