Feature Selection详解

第二十六次写博客,本人数学基础不是太好,如果有幸能得到读者指正,感激不尽,希望能借此机会向大家学习。这一篇承接上一篇《Feature Selection详解(附带Relief、Relief-F、LVM详解)(一)》的内容,仍然是针对特征选择问题的其他几种常见方法进行阐述,并介绍其中一种比较经典的特征选择算法(LVM)。

“包裹式”特征选择

  与过滤式方法在选择特征时不考虑学习器不同,“包裹式”特征选择方法将学习器的性能作为特征子集的度量方法考虑进来,因此,包裹式选择方法可以被认为是为指定学习器选择最适合的特征子集。实验证明,虽然使用该方法的最终学习器的性能要高于过滤式,但是由于特征选择过程中需要对学习器进行多次训练,因此大大增加了计算开销。
  LVW(Las Vegas Wrapper)是一个典型的包裹式特征选择方法,于1996年由Liu和Setiono提出,他是“拉斯维加斯算法”(Las Vegas Algorithm)的一种改进版本,拉斯维加斯算法是一种随机搜索策略,在给定运行时间限制的情况下,该算法可能得不到最优的结果,在搜索空间很大(特征很多)而又不设置时间限制时,可能会得不到最终结果。LVW在随机搜索的过程中,加入训练学习器并评估学习器性能的步骤,算法伪代码如下图所示。

Feature Selection详解(附带Relief、Relief-F、LVM详解)(二)
图2 LVM算法

算法第1-4行:初始化最小分类错误率EE、当前最优特征子集大小dd、当前最优特征子集AA^*以及当前运行次数tt,将原始数据集划分为训练集和验证集;
算法第5行:为该算法添加明确的时间界;
算法第6-7行:在原始特征集合AA中随机选择特征子集AA',设置该轮循环的特征子集大小dd'
算法第8行:在当前样本空间(只保留AA'中的值)中,通过训练集训练指定的学习器,并通过验证集测试该学习器的分类错误率EE'
算法第9-14行:如果该轮循环得到的学习器分类错误率EE'低于EE,或者EE'等于EE且该轮循环的特征子集大小dd'小于dd,就将当前运行次数tt清零,将EE设置为EE'dd设置为dd'AA^*设置为AA',否则,运行次数增一。

“嵌入式”特征选择

  在过滤式和包裹式特征选择中,特征选择过程与学习器训练过程由明显的分别,与此不同,“嵌入式”特征选择 是将特征选择过程与学习器训练过程结合在一起,两者在同一个优化过程中完成,即在学习器训练过程中自动完成特征选择。
  在线性回归问题中,优化目标可以表示为

Feature Selection详解(附带Relief、Relief-F、LVM详解)(二)

为了防止过拟合,在上述优化目标中加入L2L_2正则项,得到下式

Feature Selection详解(附带Relief、Relief-F、LVM详解)(二)

其中,λ\lambda是正则化系数,上式被称为“岭回归”(Ridge Regression)。现在将L2L_2正则项替换为L1L_1正则项,那么可以得到

Feature Selection详解(附带Relief、Relief-F、LVM详解)(二)

上式被称为LASSO(Least Absolute Shrinkage and Selection Operator),通过加入L1L_1正则项得到的解更加稀疏,因此可以作为一种有效的嵌入式特征选择方法,这种问题的最终解可以通过“近端梯度下降”(Proximal Gradient Descent,简称PGD)得到,假设优化目标可以表示为

Feature Selection详解(附带Relief、Relief-F、LVM详解)(二)

这里x\mathbf{x}是优化变量,令\triangledown表示微分算子。如果f(x)f\left(\mathbf{x}\right)可导,且满足L-Lipschitz条件,即存在常数L>0L>0使得下式成立

Feature Selection详解(附带Relief、Relief-F、LVM详解)(二)

则在xk\mathbf{x}_k附近可以将f(xk)f\left(\mathbf{x}_k\right)通过二阶泰勒展开式近似为

Feature Selection详解(附带Relief、Relief-F、LVM详解)(二)

其中,const\text{const}是与x\mathbf{x}无关的常数,,\langle\centerdot,\centerdot\rangle是内积,上式的最小值在如下xk+1\mathbf{x}_{k+1}获得,

Feature Selection详解(附带Relief、Relief-F、LVM详解)(二)

如果通过梯度下降法对f(x)f\left(\mathbf{x}\right)进行最小化,那么每一步梯度下降迭代实际上等价于最小化二次函数f^(x)\hat{f}\left(\mathbf{x}\right),将这种思想推广到带有L1L_1正则项的优化目标,可以类似的得到其每一步迭代为

Feature Selection详解(附带Relief、Relief-F、LVM详解)(二)

即在每一步进行梯度下降的同时考虑L1L_1范数最小化,对于上式,可以先计算

Feature Selection详解(附带Relief、Relief-F、LVM详解)(二)

然后求解

Feature Selection详解(附带Relief、Relief-F、LVM详解)(二)

由于优化参数的各个分量之间不相关,因此上式由如下闭式解

Feature Selection详解(附带Relief、Relief-F、LVM详解)(二)

其中xk+1ix^i_{k+1}ziz^i分别是向量xk+1\mathbf{x}_{k+1}z\mathbf{z}的第ii个分量。

参考资料

【1】《机器学习》 周志华
【2】《The Feature Selection Problem :Traditional Methods and a New Algorithm》Kenji Kira,Larry A. Rendell
【3】《Estimating Attributes: Analysys and Extensions of RELIEF》 Igor Kononenko
【4】《Feature Selection And Classification - A Probabilistic Wrapper Approach》 Huan Liu,Rudy Setiono

相关文章:

  • 2021-12-27
  • 2021-11-28
  • 2022-12-23
  • 2022-01-15
  • 2021-07-12
  • 2022-12-23
  • 2021-07-06
猜你喜欢
  • 2021-07-19
  • 2021-04-15
  • 2021-07-02
  • 2022-12-23
相关资源
相似解决方案