原文地址:https://www.jianshu.com/p/53bffd95d6f5

  • 使用正确的评价指标
    如ROC-AUC。
  • 重新采样训练集
    • 欠采样
      常常当数据量足够多时使用这个方法。通过在多数类样本中随机选择和少数类样本相同数量的样本。
      可多次放回地抽取不同的训练集,训练不同的分类器进行组合,会减少信息的损失。
    • 过采样
      常常当数据量不足时会使用这个方法。通过重复、bootstrap或SMOTE数据合成等方法生成新的数据。运气好的话能分对很多,否则会分错很多。可在每次生成新数据点的时候加入轻微的随机扰动。

有时,结合使用欠采样和过采样也会有很好的效果。采样的优点是简单;缺点是过采样会反复出现一些样本,可能会出现一定程度的过拟合;欠采样会丢失数据,只学到了总体模式的一部分。

  • 修改算法
    比如修改模型中的代价函数部分,使得代价函数中分错少数类样本的惩罚权重大于分错多数类样本的惩罚权重。
    或者使用其他的机器学习方法,神经网络算法通常对不平衡数据很无奈。

相关文章:

  • 2021-10-04
  • 2022-02-27
  • 2022-02-12
  • 2021-04-08
  • 2021-05-19
  • 2022-12-23
猜你喜欢
  • 2022-12-23
  • 2021-09-06
  • 2021-10-08
  • 2022-01-04
  • 2021-11-05
  • 2021-10-25
相关资源
相似解决方案