2.25机器学习数学基础笔记之二

  1. 凸函数的判定(开口往上凸函数 开口往下凹函数)
    2.25机器学习数学基础笔记之二

连线上的一点的期望比期望的值大
(期望差不多是平均值)
xy函数值大于函数值的平均值

  1. 绝大多数不等式的起源都是这个不等式

  2. 只要是凸函数或者凹函数就能够用凸优化

  3. 条件概率公式和全概率公式
    2.25机器学习数学基础笔记之二

  4. 常见概率分布

  5. 泊松分布比较像电商的商品,因为商品某一价格区间的商品比较多

  6. 正态分布哪里都有,误差基本上就是正态分布,身高是正态分布

  7. 概率和统计的关注点不同2.25机器学习数学基础笔记之二

  8. 知道条件推断总体情况:概率

  9. 数理统计 知道分布但是不知道均值方差

2.25机器学习数学基础笔记之二

  1. 概率统计和机器学习的关系

  2. 2.25机器学习数学基础笔记之二
    概率统计和机器学习是天然地相关,如果抽样都不对,算法肯定构造地不对,进而出错。
    今天上计算几何,说道人工智能是在 L 空间上考虑问题,为这个空间选取合适的基函数,进而考虑问题会简单许多

  3. 2.25机器学习数学基础笔记之二

  4. 可以大致看出分布

  5. 统计估计的是分布,机器学习训练出来的是模型,模型可能包含了很多分布2.25机器学习数学基础笔记之二

  6. 误差衍生出不同的损失函数定义方式(面试题)

  7. 协方差可以写成期望2.25机器学习数学基础笔记之二

  8. 2.25机器学习数学基础笔记之二

  9. 协方差一般用于选择特征,协方差近似于1时特征比较好,但是协方差近似于0时可以将该特征丢掉

  10. 相关系数是特征去特征化后的向量的夹角,cos是1当然相关系数是1,也就是线性关系

  11. cos是0当然相关系数是0那就是垂直,两个向量完全没有关系

r=cov(X,Y)/sqrt(Var(X)*Var(y))
2.25机器学习数学基础笔记之二
23. 向量a与b的内积实际上是a在b上的投影
24. 2.25机器学习数学基础笔记之二
25. 去均值化是很好的预处理方法
26. 为什么协方差是内积
求x和y的协方差就是去均值化,每个值减去期望,减完之后做内积,那就是几何意义
1:37:54

相关文章:

  • 2021-12-13
  • 2022-12-23
  • 2021-08-26
  • 2021-05-17
  • 2022-12-23
  • 2021-09-30
  • 2021-12-23
猜你喜欢
  • 2021-05-21
  • 2021-06-30
  • 2021-06-14
  • 2021-05-18
  • 2021-09-14
  • 2021-11-09
  • 2021-06-17
相关资源
相似解决方案