k近邻

k邻近学习是一种常用的监督学习。其工作机制:给定测试样本,基于某种度量找出与测试样本最靠近的K个训练样本,在分类任务中是基于K个“邻居”样本的类别投票法来确定测试样本的类别,在回归任务中是基于K个“邻居”样本输出标记的平均值作为预测结果。

k邻近学习缺陷与优点

  • k邻近称为“懒惰学习”:训练阶段仅仅保存训练样本,训练时间开销为0,待收到测试样本后才进行学习
  • 不同距离计算导致不同的结果”
  • 假设样本独立同分布 ,对任意x和任意小整数a,在x的附近a距离总能找到一个训练样本z。则c=argmaxxϵYP(c|x)表示贝叶斯最优分类器。经过推导可以得到K近邻泛化错误不超过贝叶斯最优分类器的2倍。想要维持K邻近低范化错误,则训练样本密度必须足够大。对于高维而言,若每一个属性维度的训练样本的密度都很大,这会导致训练样本数量急剧增加,就出现了’维数灾难‘。
    主成分分析(PCA)和局部线性嵌入(LEE)原理详解

主成分分析PCA

PCA是一种对原始高维空间进行线性变换从而获得低维空间,并期望在所投影的维度上数据的方差最大,以此使用较少的数据维度,同时保留住较多的原数据点的特性。
需要注意PCA属于特征抽取不属于特征选择。给定d维空间中的样本X=(x1,x2,...xm)Rd×m变换之后得到d’<=d维

Z=WTX

W=(w1,w2,...wm)Rd×d是变换矩阵,Z是新空间中的向量


帮助理解这里有小插曲
主成分分析(PCA)和局部线性嵌入(LEE)原理详解

  • A⋅B=|A||B|cos(a) A与B的内积等于A到B的投影长度乘以B的模。
  • 设向量B的模为1,A⋅B=|A|cos(a),则A与B的内积值等于A向B所在直线投影的矢量长度
    主成分分析(PCA)和局部线性嵌入(LEE)原理详解

  • 要准确描述向量,首先要确定一组基,然后给出在基所在的各个直线上的投影值

  • 在直角坐标系中的向量(x,y)实际上表示线性组合:x(1,0)T+y(0,1)T
  • 两个矩阵相乘的意义是将右边矩阵中的每一列列向量变换到左边矩阵中每一行行向量所表示的空间中去

根据以上的预备知识可以理解原属性xi是在新坐标(一组基)(w1,w2,...wm的作用下得到zixi代表右边矩阵的每一列向量)。若wiwj(i,j不相等)则新坐标系是一个正交坐标系,W为正交变换,则低维新空间中的属性是高维原始空间属性的线性组合

现在进入正题,对于正交属性的空间中的样本点,如何用一个超平面(直线的高维推广)对所有样本进行恰当的表达?

  • 最近重构性:样本点到这个平面的距离都足够近
  • 最大可分性:样本点在这个超平面的投影都尽可能分开

最近重构性和最大可分性可以得到两种主成分的等价推导,以下推导是从最近重构性角度来出发。

  • 假定样本进行了中心化即xi=0
  • 变换坐标为W=(w1,w2,...wm,其中wi是标准正交基–wi2=1,wTiwj=0ij
  • 设将维度降低到d’,样本点xi在低维坐标中的投影zi=(zi1;zi2...zid)其中zij=wTixjxi在低维坐标系的第j维投影
  • 基于低维样本zi重构xi,重构后的每个样本点来说xi^=dj=1zijwj。重构的意思低维新空间的坐标与基做内积

原样本点xi和重构后的样本点xi^之间的距离尽可能最小
主成分分析(PCA)和局部线性嵌入(LEE)原理详解
mintr(WTXXTW) s.t.WTW=I

  • 其中xi为dx1列向量,xixTi实际为dxd的矩阵,故xixTi为m个dxd样本矩阵和,可以表示为XXT

最大可分性出发,要使样本xi点在新空间中超平面的投影为WTxi(注意:在超平面的投影和在新空间的基坐标表示是同一个意思),要使得投影后的样本点的方差最大即在各个基上的点尽量的分开,投影后的一个样本点的方差的为WTxixTiW将m个样本的方差相加即得到WTxixTiW于是优化目标就是
maxtr(WTXXTW) s.t.WTW=I
主成分分析(PCA)和局部线性嵌入(LEE)原理详解

  • 对于两个相同向量做内积为方差的m倍,两个不同向量做内积为协方差m倍,m为向量的维数–内积与方差(协方差)相互等价。由于主成分高维原始属性 是在正交基上的投影后得到 低维属性,故再低维属性之间的协方差为0即WTxixTjW=0ij 目标函数为协方差矩阵,对角线表示的为低维新属性的方差,非对角线表示的为低维新属性之间的协方差

    Z=WTX得到了主成分的优化目标和约束,如何求解W呢??约束条件为等式则可利用拉格朗日乘子法
    主成分分析(PCA)和局部线性嵌入(LEE)原理详解
    故只需要对协方差矩阵XXT进行特征值分解,求得取前d’个最大的特征值对应的特征向量构成W=(w1w2..wd)这就是主成分分析的解

  • 注意X不为方阵故XTX不等于XXTX表示X=(x1x2..xm),m为样本个数,每xi为d维。XTX的意思为属性与属性之间的协方差矩阵,XXT表示的为样本与样本之间的协方差矩阵

  • 降维后的低维空间d’通常是由用户指定,或者通过d’值不同的低维空间 对k近邻分类器(或者开销较小的学习器)进行交叉验证,取较好的d’值

PCA算法描述如下

主成分分析(PCA)和局部线性嵌入(LEE)原理详解

局部嵌入LLE

在讨论局部嵌入LLE(locally Linear Embeding)之前需要知道流行学习

  • 流行学习是借鉴了拓扑流行概念的降维方法。”流形”在局部具有欧式空间的性质,能用欧式距离计算度量距离。这给降维方法给了很大的启发:低维流行嵌入到高维空间,数据样本分布虽然复杂但是在局部上具有欧式空间性质,因此可以容易在局部建立低维与高维空间的映射关系,然后设法推广到全局。

等度量映射(Isomap)
在高维空间中的直线距离 在 低维嵌入流行 中是不可达到的
低维嵌入流行两点的距离是“测地线”距离:想象一只虫子沿着曲线从一点爬到另外一点,虫子爬过的路径长度就是测地距离,直接在高维空间算直线距离是不恰当的。那如何计算测地距离?利用流行在局部上欧式空间同胚这个性质,基于欧式距离找出邻近点,建立邻近图即邻近点之间有连接,非邻近点之间不存在连接。故测地线距离问题转变为计算邻接图之间最短路径之间的问题。最短路问题可用著名的Dijkstra算法或者Floyd算法。
主成分分析(PCA)和局部线性嵌入(LEE)原理详解

局部线性嵌入与Isomap不同,Isomap是保持近邻样本之间的距离不变
但是局部线性嵌入试图保持领域内样本之间的线性关系不变
主成分分析(PCA)和局部线性嵌入(LEE)原理详解
假定样本xi坐标能通过领域样本xj,xk,xl的组合重构即xi=wijxj+wikxk+wilxl,局部线性嵌入希望以上关系式在低维空间中不变即系数wij,wil,wik不变
主成分分析(PCA)和局部线性嵌入(LEE)原理详解
主成分分析(PCA)和局部线性嵌入(LEE)原理详解
主成分分析(PCA)和局部线性嵌入(LEE)原理详解
以上同理用拉格朗日解得
ZMT=λ
主成分分析(PCA)和局部线性嵌入(LEE)原理详解
M已知 求M最小的d’个特征值对应的特征向量组成的矩阵即为ZT
对于不在样本xi邻近区域的样本xj,无论怎么变化对xizi都没有任何影响
主成分分析(PCA)和局部线性嵌入(LEE)原理详解

相关文章:

  • 2022-12-23
  • 2021-09-26
  • 2021-09-10
  • 2021-05-25
  • 2022-12-23
  • 2021-04-27
  • 2021-12-25
猜你喜欢
  • 2021-12-20
  • 2021-12-26
  • 2021-08-21
  • 2022-01-08
  • 2021-07-17
  • 2022-12-23
相关资源
相似解决方案