【问题标题】:Trouble getting PolynomialFeatures to work while fitting a logistic model in Scikit Learn在 Scikit Learn 中拟合逻辑模型时无法让 PolynomialFeatures 工作
【发布时间】:2016-09-15 10:16:51
【问题描述】:

Kaggle 在泰坦尼克号上有一个介绍性的数据科学问题,其目标是根据乘客的一些信息(例如性别、年龄、舱位等级等)预测乘客的生还机会。我使用 Scikit Learn 在 Python 中为此实现了一个简单的逻辑回归模型,并且我正在探索特别是添加“年龄”变量的更高阶因子。我按照 Scikit Learn 网站上的说明使用了 PolynomialFeatures:

import pandas as pd
from sklearn import linear_model
import numpy as np
from sklearn import preprocessing
from sklearn.preprocessing import PolynomialFeatures

# Import titanic data
titanic = pd.read_csv("train.csv")

# Set the training set as 70% of the dataset and cross_validation set as remaining 30%
predictors = ["Age"]
training_set = titanic[predictors].iloc[range(0,int(titanic.shape[0]*0.7)),:]
cv_set = titanic[predictors].iloc[range(int(titanic.shape[0]*0.7),titanic.shape[0]),:]
training_actuals = titanic["Survived"].iloc[range(0,int(titanic.shape[0]*0.7))]
cv_actuals = titanic["Survived"].iloc[range(int(titanic.shape[0]*0.7),titanic.shape[0])]

# Create polynomial features
poly = PolynomialFeatures(degree=3)
training_set = poly.fit_transform(training_set)
cv_set = poly.fit_transform(cv_set)

# Fit a logistic regression model, predict values for training and cross-validation sets
alg = linear_model.LogisticRegression()
alg.fit(training_set, training_actuals)
cv_predictions = alg.predict(cv_set)
training_predictions = alg.predict(training_set)

# Measure and print accuracy of prediction over both training and cross-validation sets
cv_accuracy = len(cv_predictions[cv_predictions == np.array(cv_actuals)])/float(len(cv_predictions))
print "Prediction accuracy on cross-validation set is %s%%" % (cv_accuracy * 100)
training_accuracy = len(training_predictions[training_predictions == np.array(training_actuals)])/float(len(training_predictions))
print "Prediction accuracy on training set is %s%%" % (training_accuracy * 100)

当我为年龄添加平方特征(即多项式次数 2)时,我在训练集上的预测值的准确度提高了 1-2 个百分点,但是当我将次数设为 3 时,如上面的代码所示,准确度实际上恢复到与线性情况相同的情况(即度数 = 1)。从理论上讲,它应该略有改善或与度数 = 2 保持相同。这种行为也适用于所有更高的度数。我对 Scikit Learn 非常陌生,如果我能了解我做错了什么,我将不胜感激。

【问题讨论】:

  • "理论上应该会改进..." -- 你的意思是直觉上你认为应该会改进。重要的是不要混淆两者:)

标签: python scikit-learn


【解决方案1】:

添加更多变量时,准确性不必提高或保持不变。添加更多特征会降低模型准确性的事实说明了添加特征的重要性。

当向模型添加新特征时,无论它是否具有统计显着性(即“相当大”会影响模型结果),都会观察到模型中的较少变化。因此,一些结果系数(例如 R^2)会增加。但是,模型的准确性可能会下降,因为添加无关紧要的特征会对与新特征相关的现有解释变量的显着性产生负面影响。

您的示例:当您使用多项式特征时,您必须始终谨慎使用更高的次数。对于 2 度的情况,准确性会提高,因为结果与年龄变量之间的关系是二次的。但是当您将度数增加到 3 时,会添加三次年龄,这是一个无关紧要的功能。虽然它不会因为不显着而提高准确度,但它也会降低准确度,因为它与年龄和年龄平方相关。年龄平方(显着)和年龄立方(不显着)变量之间的相关性使得年龄平方也无关紧要,从而降低了整体预测能力。

【讨论】:

    猜你喜欢
    • 2020-10-26
    • 2014-05-19
    • 2021-05-09
    • 2017-11-20
    • 2013-09-30
    • 2019-04-11
    • 2017-03-31
    • 2015-12-01
    • 2014-01-07
    相关资源
    最近更新 更多