【发布时间】:2019-07-24 11:49:10
【问题描述】:
我正在尝试使用 Grid Search CV 为我的逻辑回归估计器找到一组最佳超参数,并使用管道构建模型:
我的问题是在尝试使用我通过的最佳参数时
grid_search.best_params_建立Logistic Regression模型,准确率和我得到的不一样
grid_search.best_score_
这是我的代码
x=tweet["cleaned"]
y=tweet['tag']
X_train, X_test, Y_train, Y_test = model_selection.train_test_split(x, y, test_size=.20, random_state=42)
pipeline = Pipeline([
('vectorizer',TfidfVectorizer()),
('chi', SelectKBest()),
('classifier', LogisticRegression())])
grid = {
'vectorizer__ngram_range': [(1, 1), (1, 2),(1, 3)],
'vectorizer__stop_words': [None, 'english'],
'vectorizer__norm': ('l1', 'l2'),
'vectorizer__use_idf':(True, False),
'vectorizer__analyzer':('word', 'char', 'char_wb'),
'classifier__penalty': ['l1', 'l2'],
'classifier__C': [1.0, 0.8],
'classifier__class_weight': [None, 'balanced'],
'classifier__n_jobs': [-1],
'classifier__fit_intercept':(True, False),
}
grid_search = GridSearchCV(pipeline, param_grid=grid, scoring='accuracy', n_jobs=-1, cv=10)
grid_search.fit(X_train,Y_train)
当我得到最好的成绩和使用婴儿车时
print(grid_search.best_score_)
print(grid_search.best_params_)
结果是
0.7165160230073953
{'classifier__C': 1.0, 'classifier__class_weight': None, 'classifier__fit_intercept': True, 'classifier__n_jobs': -1, 'classifier__penalty': 'l1', 'vectorizer__analyzer': 'word', 'vectorizer__ngram_range': (1, 1), 'vectorizer__norm': 'l2', 'vectorizer__stop_words': None, 'vectorizer__use_idf': False}
现在如果我使用这些参数来构建我的模型
pipeline = Pipeline([
('vectorizer',TfidfVectorizer(ngram_range=(1, 1),stop_words=None,norm='l2',use_idf= False,analyzer='word')),
('chi', SelectKBest(chi2,k=1000)),
('classifier', LogisticRegression(C=1.0,class_weight=None,fit_intercept=True,n_jobs=-1,penalty='l1'))])
model=pipeline.fit(X_train,Y_train)
print(accuracy_score(Y_test, model.predict(X_test)))
结果下降到 0.68。
另外,这是一项繁琐的工作,所以我怎样才能将最佳参数传递给模型。我不知道该怎么做(answer),因为我的方式与他略有不同。
【问题讨论】:
-
refit=True 允许您使用带有 cv_grid 变量的最佳模型。 cv_grid.predict
标签: machine-learning scikit-learn pipeline grid-search