这里只是算法简单介绍,笔试面试准备

一、朴素贝叶斯:

  有以下几个地方需要注意:

机器学习算法其中一项条件概率可以通过朴素贝叶斯条件独立展开。要注意一点就是机器学习算法的计算方法,而由朴素贝叶斯的前提假设可知,机器学习算法=机器学习算法,

因此一般有两种,一种是在类别为ci的那些样本集中,找到wj出现次数的总和,然后除以该样本的总和;第二种方法是类别为ci的那些样本集中,找到wj出现次数的总和,然后除以该样本中所有特征出现次数的总和。

如果机器学习算法中的某一项为0,则其联合概率的乘积也可能为0,即2中公式的分子为0,为了避免这种现象出现,一般情况下会将这一项初始化为1,当然为了保证概率相等,分母应对应初始化为2(这里因为是2类,所以加2,如果是k类就需要加k,术语上叫做laplace光滑, 分母加k的原因是使之满足全概率公式)。

  朴素贝叶斯的优点:对小规模的数据表现很好,适合多分类任务,适合增量式训练。

  缺点对输入数据的表达形式很敏感。

二、决策树:

  决策树中很重要的一点就是选择一个属性进行分枝,因此要注意一下信息增益的计算公式,并深入理解它。

  信息熵的计算公式如下:机器学习算法

其中的n代表有n个分类类别(比如假设是2类问题,那么n=2)。分别计算这2类样本在总样本中出现的概率p1p2,这样就可以计算出未选中属性分枝前的信息熵。

  现在选中一个属性xi用来进行分枝,此时分枝规则是:如果xi=vx的话,将样本分到树的一个分支;如果不相等则进入另一个分支。很显然,分支中的样本很有可能包括2个类别,分别计算这2个分支的熵H1H2,计算出分枝后的总信息熵H’=p1*H1+p2*H2.,则此时的信息增益ΔH=H-H’。以信息增益为原则,把所有的属性都测试一边,选择一个使增益最大的属性作为本次分枝属性。

  决策树的优点:计算量简单,可解释性强,比较适合处理有缺失属性值的样本,能够处理不相关的特征;

  缺点:容易过拟合(后续出现了随机森林,减小了过拟合现象)

三、Logistic回归:

  Logistic是用来分类的,是一种线性分类器,需要注意的地方有:

  1. logistic函数表达式为:

机器学习算法

其导数形式为:

机器学习算法

2.logsitc回归方法主要是用最大似然估计来学习的,所以单个样本的后验概率为:

机器学习算法

到整个样本的后验概率:

机器学习算法

其中:

机器学习算法

通过对数进一步化简为:

机器学习算法

3. 其实它的loss function-l(θ),因此我们需使lossfunction最小,可采用梯度下降法得到。梯度下降法公式为:

机器学习算法

机器学习算法

Logistic回归优点:

  1、实现简单;

  2、分类时计算量非常小,速度很快,存储资源低;

  缺点:

  1、容易欠拟合,一般准确度不太高

  2、只能处理两分类问题(在此基础上衍生出来的softmax可以用于多分类),且必须线性可分


四、线性回归:

  线性回归才是真正用于回归的,而不像logistic回归是用于分类,其基本思想是用梯度下降法对最小二乘法形式的误差函数进行优化,当然也可以用normal equation直接求得参数的解,结果为:

  机器学习算法

  而在LWLR(局部加权线性回归)中,参数的计算表达式为:

 机器学习算法

  因为此时优化的是:

 机器学习算法

  由此可见LWLRLR不同,LWLR是一个非参数模型,因为每次进行回归计算都要遍历训练样本至少一次。

线性回归优点:实现简单,计算简单;

缺点:不能拟合非线性数据

五、KNN算法:

  KNN即最近邻算法,其主要过程为:

  1. 计算训练样本和测试样本中每个样本点的距离(常见的距离度量有欧式距离,曼哈顿距离等);

  2. 对上面所有的距离值进行排序;

  3. 选前k个最小距离的样本;

  4. 根据这k个样本的标签进行投票,得到最后的分类类别;

  如何选择一个最佳的K值,这取决于数据。一般情况下,在分类时较大的K值能够减小噪声的影响。但会使类别之间的界限变得模糊。一个较好的K值可通过各种启发式技术来获取,比如,交叉验证。另外噪声和非相关性特征向量的存在会使K近邻算法的准确性减小。

  近邻算法具有较强的一致性结果。随着数据趋于无限,算法保证错误率不会超过贝叶斯算法错误率的两倍。对于一些好的K值,K近邻保证错误率不会超过贝叶斯理论误差率。

  K均值算法:邻近度函数:

曼哈顿距离:质心:中位数。目标函数:最小化对象到其簇质心的距离和

平方欧几里德距离。质心:均值。目标函数:最小化对象到其簇质心的距离的平方和

余弦。质心:均值。最大化对象与其质心的余弦相似度和

Bregman 散度。质心:均值。目标函数:最小化对象到其簇质心的Bregman散度和

   

  KNN算法的优点:

  1. 思想简单,理论成熟,既可以用来做分类也可以用来做回归;

  2. 可用于非线性分类;

  3. 训练时间复杂度为O(n)

  4. 准确度高,对数据没有假设,对outlier不敏感;

  缺点:

  1. 计算量大;

  2. 样本不平衡问题(即有些类别的样本数量很多,而其它样本的数量很少);

  3. 需要大量的内存;


六、SVM

svm算法的一些思路:

1. svm中的最优分类面是对所有样本的几何裕量最大(为什么要选择最大间隔分类器,请从数学角度上说明?答案就是几何间隔与样本的误分次数间存在关系:机器学习算法 ,其中的分母就是样本到分类间隔距离,分子中的R是所有样本中的最长向量值),即:

 机器学习算法

  经过一系列推导可得为优化下面原始目标:

机器学习算法

2. 下面来看看拉格朗日理论:


机器学习算法

  可以将1中的优化目标转换为拉格朗日的形式(通过各种对偶优化,KKD条件),最后目标函数为:

 机器学习算法

  我们只需要最小化上述目标函数,其中的α为原始优化问题中的不等式约束拉格朗日系数。

3. 2中最后的式子分别wb求导可得:


机器学习算法

机器学习算法

 

  由上面第1式子可以知道,如果我们优化出了α,则直接可以求出w了,即模型的参数搞定。而上面第2个式子可以作为后续优化的一个约束条件。

4. 2中最后一个目标函数用对偶优化理论可以转换为优化下面的目标函数:

机器学习算法

  而这个函数可以用常用的优化方法求得α,进而求得wb

5. 按照道理,svm简单理论应该到此结束。不过还是要补充一点,即在预测时有:

 机器学习算法

  那个尖括号我们可以用核函数代替,这也是svm经常和核函数扯在一起的原因。

6. 最后是关于松弛变量的引入,因此原始的目标优化公式为:

 机器学习算法

  此时对应的对偶优化公式为:

 机器学习算法

  与前面的相比只是α多了个上界。

SVM算法优点:

  可用于线性/非线性分类,也可以用于回归;

  低泛化误差;

  容易解释;

  计算复杂度较低;

缺点:

  对参数和核函数的选择比较敏感;

原始的SVM只比较擅长处理二分类问题;

七、Boosting

  主要以Adaboost为例,首先来看看Adaboost的流程图,如下:

  机器学习算法

  从图中可以看到,在训练过程中我们需要训练出多个弱分类器(图中为3个),每个弱分类器是由不同权重的样本(图中为5个训练样本)训练得到(其中第一个弱分类器对应输入样本的权值是一样的),而每个弱分类器对最终分类结果的作用也不同,是通过加权平均输出的,权值见上图中三角形里面的数值。那么这些弱分类器和其对应的权值是怎样训练出来的呢?

Adaboost的简单版本训练过程如下:

1. 训练第一个分类器,样本的权值D为相同的均值。通过一个弱分类器,得到这5个样本的分类预测标签。与给出的样本真实标签对比,就可能出现误差(即错误)。如果某个样本预测错误,则它对应的错误值为该样本的权重,如果分类正确,则错误值为0. 最后累加5个样本的错误率之和,记为ε

2. 通过ε来计算该弱分类器的权重α,公式如下:

 机器学习算法

3. 通过α来计算训练下一个弱分类器样本的权重D,如果对应样本分类正确,则减小该样本的权重,公式为:

 机器学习算法

  如果样本分类错误,则增加该样本的权重,公式为:

 机器学习算法

4. 循环步骤1,2,3来继续训练多个分类器,只是其D值不同而已。

  测试过程如下:

  输入一个样本到训练好的每个弱分类中,则每个弱分类都对应一个输出标签,然后该标签乘以对应的α,最后求和得到值的符号即为预测标签值。

Boosting算法的优点:

  低泛化误差;

  容易实现,分类准确率较高,没有太多参数可以调;

缺点:outlier比较敏感;


八、聚类:

  根据聚类思想划分:

1. 基于划分的聚类:

K-means, k-medoids(每一个类别中找一个样本点来代表),CLARANS.

k-means是使下面的表达式值最小:

  机器学习算法

k-means算法的优点:

  (1k-means算法是解决聚类问题的一种经典算法,算法简单、快速。

  (2)对处理大数据集,该算法是相对可伸缩的和高效率的,因为它的复杂度大约是O(nkt),其中n是所有对象的数目,k是簇的数目,t是迭代的次数。通常k<<n。这个算法通常局部收敛。

  (3)算法尝试找出使平方误差函数值最小的k个划分。当簇是密集的、球状或团状的,且簇与簇之间区别明显时,聚类效果较好。

 缺点:

  (1k-平均方法只有在簇的平均值被定义的情况下才能使用,且对有些分类属性的数据不适合。

  (2)要求用户必须事先给出要生成的簇的数目k

  (3)对初值敏感,对于不同的初始值,可能会导致不同的聚类结果。

  (4)不适合于发现非凸面形状的簇,或者大小差别很大的簇。

  (5)对于"噪声"和孤立点数据敏感,少量的该类数据能够对平均值产生极大影响。

2. 基于层次的聚类:

  自底向上的凝聚方法,比如AGNES

  自上向下的分裂方法,比如DIANA

3. 基于密度的聚类:

DBSACN, OPTICS,BIRCH(CF-Tree),CURE.

DBScan需要二个参数:扫描半径 (eps)和最小包含点数(minPts)任选一个未被访问(unvisited)的点开始,找出与其距离在eps之内(包括eps)的所有附近点。

如果附近点的数量 ≥ minPts,则当前点与其附近点形成一个簇,并且出发点被标记为已访问(visited)然后递归,以相同的方法处理该簇内所有未被标记为已访问(visited)的点,从而对簇进行扩展。

如果附近点的数量 < minPts,则该点暂时被标记作为噪声点。

如果簇充分地被扩展,即簇内的所有点被标记为已访问,然后用同样的算法去处理未被访问的点。

1. K-means方法相比,DBSCAN不需要事先知道要形成的簇类的数量。

2. K-means方法相比,DBSCAN可以发现任意形状的簇类。

3. 同时,DBSCAN能够识别出噪声点。

4.DBSCAN对于数据库中样本的顺序不敏感

 

4. 基于网格的方法:

STING, WaveCluster.

5. 基于模型的聚类:

EM,  SOM,   COBWEB.


九、Apriori:

  Apriori是关联分析中比较早的一种方法,主要用来挖掘那些频繁项集合。其思想是:

  1. 如果一个项目集合不是频繁集合,那么任何包含它的项目集合也一定不是频繁集合;

  2. 如果一个项目集合是频繁集合,那么它的任何非空子集也是频繁集合;

  Aprioir需要扫描项目表多遍,从一个项目开始扫描,舍去掉那些不是频繁的项目,得到的集合称为L,然后对L中的每个元素进行自组合,生成比上次扫描多一个项目的集合,该集合称为C,接着又扫描去掉那些非频繁的项目,重复


相关文章:

  • 2021-09-20
  • 2021-10-11
  • 2021-12-16
  • 2022-12-23
  • 2021-08-18
猜你喜欢
  • 2022-02-13
相关资源
相似解决方案