概率论篇

前言

​ 最近在尝试自学入门机器学习,有一点找不到方向,看了一点吴恩达的机器学习视频和周志华的西瓜书,但是对于里面的一些数学运算实在是很头疼,虽然当时数学学得不差,但是基本上也都还给老师了,所以趁着大四上有空闲时间打算整理一下机器学习中一些基础必须知道的本科数学知识,希望自己在研究生阶段有遗忘可以参考,也希望可以对有需要的人有所帮助。由于笔者只是为了快速入门,所以很多知识都是现补,不一定正确,如有错误希望大家可以提出改正!

算法对应的数学知识

机器学习数学基础——概率论篇

概率

概率公式

基本公式

对于任意事件A和B:

​ 1)P(A)=1P(Aˉ)P(A) = 1 - P(\bar{A})

​ 2)P(AB)=P(A)P(AB)(BA)P(A-B) = P(A) - P(AB) (B \subseteq A)

​ 3)P(A+B)=P(A)+P(B)P(AB)P(A + B) = P(A) + P(B) - P(AB)

​ 4)对于互斥事件,P(i=1nAi)=i=1nP(Ai)P(\cup_{i=1}^n A_i) = \sum_{i=1}^nP(A_i)

​ 5)对于独立事件,P(i=1nAi=i=1nP(Ai))P(\cap_{i=1}^nA_i=\prod_{i=1}^nP(A_i))

P(i=1nAi)=1i=1n(1P(Ai))P(\cup_{i=1}^nA_i)=1-\prod_{i=1}^n(1-P(A_i))

​ 6)条件概率:P(BA)=P(AB)P(A)P(B|A)=\frac{P(AB)}{P(A)}

P(AB)=P(A)P(BA)P(AB)=P(A)P(B|A)

全概率公式

P(A)=iP(ABi)P(Bi)P(A)=\sum_iP(A|B_i)P(B_i)

意思就是说,我们直接求解A的概率有难度,那么我们可以通过对样本空间Ω\Omega的划分来求解

机器学习数学基础——概率论篇
求解A在Ω\Omega上的样本数目,可以求解(A∩B1B_1的样本数)+(A∩B2B_2的样本数)+····+(A∩BnB_n)的样本数

贝叶斯公式

P(BiA)=P(ABi)P(Bi)jP(ABj)P(Bj)P(B_i|A)=\frac{P(A|B_i)P(B_i)}{\sum_jP(A|B_j)P(B_j)}

贝叶斯公式是建立在条件概率的基础上寻找事件发生的原因,即大事件A已经发生的条件下,分割中的小事件Bi的概率

概率分布

分布 参数 数学期望 方差
两点分布 0<p<10 < p < 1 pp p(1p)p ( 1 - p )
二项分布 n1,0<p<1n\geq 1,0 < p < 1 npnp np(1p)np (1-p)
泊松分布 λ>0\lambda > 0 λ\lambda λ\lambda
均匀分布 a<ba < b (a+b)2\frac{(a+b)}{2} (ba)212\frac{(b-a)^2}{12}
指数分布 θ>0\theta > 0 θ\theta θ2\theta^2
正态分布 μ,σ>0\mu,\sigma > 0 μ\mu σ\sigma

*对于数学期望和方差的知识我们会在后面提到

两点分布

两点分布又名伯努利分布、0-1分布 ,它指进行一次伯努利实验,成功(X=1)(X=1)的概率为p0p1(0\leq p \leq 1),失败(X=0)(X=0)的概率为1-p,则称随机变量X服从伯努利分布。

二项分布

二项分布是n重伯努利实验成功次数的离散概率分布。如果试验E是一个n重伯努利试验,每次伯努利试验的成功概率为p,X代表成功的次数,则X的概率分布是二项分布,记为X~B(n,p),分布规律:P(X=k)=Cnkpk(1p)nkP(X=k)=C_n^kp^k(1-p)^{n-k}

机器学习数学基础——概率论篇

泊松分布

当二项分布的n趋于无穷大,p趋于0时,此时事件发生的概率服从泊松分布,函数定义为:

P(X=k)=λkeλk!P(X = k) = \frac{\lambda^k * e ^{-\lambda}}{k!},记作XX~π(λ)\pi(\lambda)

机器学习数学基础——概率论篇

机器学习数学基础——概率论篇

泊松分布描述某时间段内,时间具体的发生概率,一个事件服从泊松分布的条件为:

(1)将该时间段无限分隔成很多个小的时间段,在这个小的时间段内,事件发生的概率非常小,不发生的概率非常大。
(2)在每个小的时间段内,事件发生的概率是稳定的,且与小的时间段的长度成正比。
(3)该事件在不同的小时间段里,发生与否相互独立。

均匀分布

均匀分布是一种连续型分布,涉及到概率密度函数。记作XX~U(a,b)U(a,b),概率密度为:

f(x){1baa<x<b0 f(x)\left\{ \begin{array}{rcl} \frac{1}{b-a} & & {a< x< b }\\ 0 & & {其他} \end{array} \right.

指数分布

记作XX~E(λ)E(\lambda),概率密度为:

f(x){λeλxx>00 f(x)\left\{ \begin{array}{rcl} \lambda e^{-\lambda x} & & {x > 0}\\ 0 & & {其他} \end{array} \right.

指数分布有一个性质:P{X>s+tX>s}=P{X>t}P\{X > s+t|X > s\} = P\{X > t\}

正态分布

正态分布又称为高斯分布或常态分布,若随机变量X服从一个数学期望为μ、标准方差为为σ2的高斯分布,记为:XN(μ,σ2),概率密度函数为:f(x)=12πσe(xμ)22σ2f(x)=\frac{1}{\sqrt{2\pi}\sigma}e^{-\frac{(x-\mu)^2}{2\sigma^2}}

常用性质:

机器学习数学基础——概率论篇

总结

机器学习数学基础——概率论篇

统计

期望

表示随机变量平均取值的大小,可以预测一个随机事件的平均预期情况

离散型:E(X)=ixipiE(X) = \sum_ix_ip_i

连续型:E(X)=+xf(x)dxE(X) = \int_{-\infty}^{+\infty}xf(x)dx

性质:1)E(kX+c)=kE(X)+cE(kX+c)=kE(X)+c

​ 2) E(X+Y)=E(X)+E(Y)E(X+Y) = E(X)+E(Y)

​ 3)X,Y独立,E(XY)=E(X)E(Y)E(XY)=E(X)E(Y)

注意:平均值默认每一个变量出现的概率p相同,期望是以实际概率进行的加权平均

方差

衡量随机变量或一组数据的离散程度,通过方差可以知道一组数据的分散程度

定义:Var(X)=E{[XE(X)]2}=E(X2)E2(X)Var(X)=E\{[X-E(X)]^2\}=E(X^2)-E^2(X)

公式:S2=i=1N(Xiμ)2n1S^2=\frac{\sum_{i=1}^{N}(X_i-\mu)^2}{n-1}

性质:1)Var(c)=0Var(c) = 0

​ 2)Var(X+c)=Var(X)Var(X+c)=Var(X)

​ 3)Var(kX)=k2Var(X)Var(kX)=k^2Var(X)

​ 4)X,Y独立,Var(X+Y)=Var(X)+Var(Y)Var(X+Y)=Var(X)+Var(Y),

Var(XY)=Var(X)Var(Y)+Var(X)E2(Y)+Var(Y)E2(X)Var(XY)=Var(X)Var(Y)+Var(X)E^2(Y)+Var(Y)E^2(X)

标准差

标准差又叫均方差,反应一个数据集的离散程度

公式:σ==i=1N(Xμ)2N\sigma=\sqrt{方差}=\sqrt{\frac{\sum_{i=1}^{N}(X-\mu)^2}{N}}

注意:标准差虽然可以与方差一样反应一组数据的离散程度,但是两者是有区别的。方差与样本的量纲不一样,从公式来看方差是样本与均值的差的平方和的平均,有一个平方运算所以导致量纲不在一个层面上;而标准差和均值的量纲是一致的。

协方差

均值、期望、方差和标准差都是针对同一组数据而言,协方差是用来体现两组数据之间的相关程度的,或者说可以看一组数据的各个属性(特征)之间的相关程度的。

定义:Cov(X,Y)=E{[XE(X)][YE(Y)]}=E(XY)E(X)E(Y)Cov(X,Y)=E\{[X-E(X)][Y-E(Y)]\}=E(XY)-E(X)E(Y)

性质:1)Cov(X,Y)=Cov(Y,X)Cov(X,Y)=Cov(Y,X)

​ 2)Cov(X,X)=Var(X)Cov(X,X)=Var(X)

​ 3)Cov(aX+b,cY+d)=acCov(X,Y)Cov(aX+b,cY+d)=acCov(X,Y)

​ 4)Cov(X1+X2,Y)=Cov(X1,Y)+Cov(X2,Y)Cov(X1+X2,Y)=Cov(X1,Y)+Cov(X2,Y)

​ 5)若Cov(X,Y)=0Cov(X,Y)=0则X与Y不相关,协方差是两个随机变量具有相同方向变化趋势的度量

相关系数:ρXY=Cov(X,Y)Var(X)Var(Y)\rho_{XY}=\frac{Cov(X,Y)}{\sqrt{Var(X)Var(Y)}}

相关系数性质: 1)相关性是一个衡量线性独立的无量纲数, 其取值在[ -1, 1] 之间。

​ 2)相关性 corr = 1 时称完全线性相关。

​ 3)相关性 corr = -1 时称完全线性负相关。

​ 4)相关性 corr = 0 时称不相关。

大数定理

设随机变量X1,X2,...,XnX_1,X_2,...,X_n相互独立并有相同期望 μ\mu 和方差σ2\sigma^2,取前n个变量均值Yn=1ni=1nXiY_n=\frac{1}{n}\sum_{i=1}^nX_i,对任意正数ϵ\epsilonlimnP{Ynμ<ϵ}=1\lim_{n \to \infty}P\{|Y_n-\mu|<\epsilon\} = 1,意思就是说当我们的样本数量足够多的时候我们取出的样本的均值与我们总体数据的期望是等同的。有什么用呢?我们机器学习的数据量足够大的时候,我们就可以认为我们认为我们对样本数据的预测就等同于现实的真实情况,样本中事物出现的频率就能无限接近于它真实的期望值。

大数定理从理论上解决了用频率近似替代概率的问题

拓展:伯努利定理 一次试验中事件A发生的概率为p,重复n次独立试验中,事件A发生nAn_A次,则对于任意正数 ϵ\epsilonlimnP{nAnp<ϵ}=1\lim_{n \to \infty}P\{|\frac{n_A}{n}-p|<\epsilon\} = 1

中心极限定理

设随机变量X1,X2,...,XnX_1,X_2,...,X_n互相独立,服从同一分布并具有相同期望μ\mu和方差σ2\sigma^2,则随机变量 Yn=i=1nxiμnϵY_n=\frac{\sum_{i=1}^{n}x_i-\mu}{\sqrt{n}\epsilon}的分布收敛到标准正态分布,意思就是说无论原本数据是什么样的分布,当n足够大的时候,其抽样样本的均值的频数分布都随着抽样数的增多而趋于正态分布

大数定理与中心极限定理的区别:大数定理在说n足够大时样本均值几乎等于均值;中心极限定理在说n足够大时样本均值越来越趋近于正态分布

k阶样本原点矩:Ak=1ni=1nXikA_k=\frac{1}{n}\sum_{i=1}^nX_i^k

k阶样本中心矩:Ak=1ni=1n(XiXˉ)kA_k=\frac{1}{n}\sum_{i=1}^n(X_i-\bar X)^k

一阶矩表示的是随机变量的期望

二阶矩表示的是随机变量的方差

三阶矩表示的是随机变量的偏度

四阶矩表示的是随机变量的峰度

  • 偏度:衡量分布不对称性,定义为其三阶中心矩S(x)=[xE(x)]3f(x)dxS(x)=\int_{-\infty}^{\infty}[x-E(x)]^3f(x)dx,任何对称分布偏度为0;向左偏斜具有负偏度(例如失效率,极少量的物品会损坏);向右偏斜具有正偏度(例如工资,大多数人工资少)
  • 峰度:定义为其四阶中心矩与方差平方的比值再减3,减3是为了让正态分布峰度为0,这也被称为超值峰度:K(x)=[xE(x)]4f(x)dxσ23K(x)=\frac{\int_{-\infty}^\infty[x-E(x)]^4f(x)dx}{\sigma^2}-3

参数估计

根据从总体中抽取的样本估计总体分布中包含的未知参数的方法

机器学习数学基础——概率论篇

矩估计法

依据大数定律,用样本矩估计总体矩

思想:样本k阶原点矩:Ak=1ni=1nXikA_k=\frac{1}{n}\sum_{i=1}^nX_i^k \Rightarrow 总体k阶原点矩:μk=E(Xk)\mu_k=E(X^k)

​ 样本k阶中心矩:Bk=1ni=1n(XiXˉ)kB_k=\frac{1}{n}\sum_{i=1}^{n}(X_i-\bar X)^k \Rightarrow 总体k阶中心矩: mk=E{[XE(X)]k}m_k=E\{[X-E(X)]^k\}

设总体期望为μ\mu方差为σ2\sigma^2μ,σ\mu,\sigma待求),则有:E(X)=μ,E(X2)=σ2+E2(X)=σ2+μ2E(X)=\mu,E(X^2)=\sigma^2+E^2(X)=\sigma^2+\mu^2,由我们矩可知:A1=1ni=1nXi,An=1ni=1nXi2A_1=\frac{1}{n}\sum_{i=1}^nX_i,A_n=\frac{1}{n}\sum_{i=1}^{n}X_i^2,所以带入我们的式子中可知:μ=Xˉ,σ2=1ni=1n(XiXˉ)2\mu=\bar X,\sigma^2=\frac{1}{n}\sum_{i=1}^n(X_i-\bar X)^2

最大似然估计法

设总体分布为f(x,θ)f(x,\theta),X1,X2,...,XnX_1,X_2,...,X_n为该总体采样得的样本,因X1,X2,...,XnX_1,X_2,...,X_n独立同分布,则它们的联合概率密度:L(X1,X2,...,Xn;θ1,θ2,...,θn)=i=1nf(Xi;θ1,...,θn)L(X_1,X_2,...,X_n;\theta_1,\theta_2,...,\theta_n)=\prod_{i=1}^nf(X_i;\theta_1,...,\theta_n)

最大似然估计法是在总体分布类型已知条件下所使用的一种参数估计方法,基础是极大似然原理:概率大的事件在一次观测中更容易发生。因此最大似然估计发所选取的未知参数θ\theta的依据是:当选取的θ\theta作为估计值时,使样本出现的可能性最大,即概率最大

似然函数的构造

离散型:L(θ)=i=1np(xi;θ)=p(x1,θ)p(x2,θ)...p(xn,θ)L(\theta)=\prod_{i=1}^np(x_i;\theta)=p(x_1,\theta)p(x_2,\theta)...p(x_n,\theta)

连续型:L(θ)=i=1nf(xi;θ)=f(x1,θ)...f(xn,θ)L(\theta)=\prod_{i=1}^nf(x_i;\theta)=f(x_1,\theta)...f(x_n,\theta)

求解步骤

(1)构造似然函数L(θ)L(\theta)

(2)取对数:lnL(θ)\ln L(\theta)

(3)令lnL(θ)θ=0\frac{\partial \ln L(\theta)}{\partial \theta}=0

(4)解方程lnL(θ)θ=0\frac{\partial \ln L(\theta)}{\partial \theta}=0,求得θ\theta的最大似然估计量

参考资料

[1]概率论基础(4)五种重要的分布(二项、泊松、均匀、指数、正态分布)https://blog.csdn.net/wangqingbang/article/details/91869130

[2]二项分布、伯努利分布、泊松分布等 https://blog.csdn.net/u011947630/article/details/81508829

[3]期望, 方差, 协方差,标准差 https://blog.csdn.net/siyue0211/article/details/80309799

相关文章:

  • 2022-12-23
  • 2021-12-05
  • 2022-01-01
  • 2021-07-12
  • 2021-06-17
  • 2021-06-14
  • 2022-12-23
猜你喜欢
  • 2021-11-20
  • 2021-06-05
  • 2021-09-19
  • 2021-11-06
  • 2022-12-23
  • 2021-04-26
  • 2021-06-11
相关资源
相似解决方案