【发布时间】:2021-08-05 00:52:27
【问题描述】:
我建立了一个逻辑回归模型来预测贷款接受者。数据集是 94% 的非接受者和 6% 的接受者。我已经运行了几个逻辑回归模型,一个使用原始数据集,一个在上采样到 50/50 并删除一些预测变量之后,一个没有上采样但在删除一些预测变量之后。
模型 1:在 25 个特征列上的准确率、准确率和召回率均优于 90%。运行模型后,我将预测输出到不同的 CSV(尽管与原始 csv 相同),它返回 10,000 个接受者。我的猜测是这可能是由过度拟合引起的?不确定,但随后在相同的 94% 非接受者和 6% 接受者上进行了尝试,但变量更少(19 个特征列)。这次准确率是 81%,但准确率只有 21%,而召回率是 765(用于训练和测试)。这次它只返回 8 个接受者(共 18,000 个)
最后,我尝试了上采样并上采样到一个平衡的集合。准确率只有 68%(我可以使用),训练和测试的准确率和召回率为 66%。运行模型,然后将预测输出到 csv 文件(同样的人,不同的 CSV 文件,不确定这是否搞砸了),这次它返回了 0 个接受者。
是否有人对导致此问题的原因以及如何解决此问题有任何建议?
我不确定哪个回归代码最有益。如果这更有帮助,我很乐意发布上采样代码。
import statsmodels.api as sm
y=df.OpenedLCInd.values
X=df.drop('OpenedLCInd', axis = 1)
cols=X.columns
from sklearn.preprocessing import MinMaxScaler
from sklearn.model_selection import train_test_split
minmax= MinMaxScaler()
X=pd.DataFrame(minmax.fit_transform(X))
X.columns = cols
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import precision_score, recall_score, accuracy_score, f1_score, roc_curve, auc, confusion_matrix
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = .25, random_state= 33)
logreg=LogisticRegression(fit_intercept = False, C=1e12, solver ='liblinear', class_weight='balanced')
logreg.fit(X_train, y_train)
y_hat_train = logreg.predict(X_train)
y_hat_test = logreg.predict(X_test)
residuals = np.abs(y_train - y_hat_train)
logit_model=sm.Logit(y_train,X_train)
result=logit_model.fit()
print(result.summary())
print(pd.Series(residuals).value_counts())
print(pd.Series(residuals).value_counts(normalize=True))
## Output predictions to new dataset
test=pd.read_csv(r'link')
predictions = logreg.predict(X_test)
test_predictions = logreg.predict(test.drop('OpenedLCInd', axis = 1))
test["predictions"] = test_predictions
test.to_csv(r'output link')
【问题讨论】:
标签: python machine-learning logistic-regression