人工智能从入门到放弃完整教程目录:https://www.cnblogs.com/nickchen121/p/11686958.html

假设\(n\)维空间中有两个点\(x_i\)\(x_j\),其中\(x_i = (x_i^{(1)},x_i^{(2)},\cdots,x_i^{(n)})^T\)\(x_j = (x_j^{(1)},x_j^{(2)},\cdots,x_j^{(n)})^T\)

一、欧式距离

\[d(x_i,x_j) = \sqrt{\sum_{l=1}^n|x_i^{(l)}-x_j^{(l)}|^2} \]

假设二维坐标轴上有两个点\((x_1,y_1)\)\((x_2,y_2)\),则距离为\(\sqrt{(x_1-x_2)^2+(y_1-y_2)^2}\)

二、曼哈顿距离

\[d(x_i,x_j) = \sum_{l=1}^n|x_i^{(l)}-x_j^{(l)}| \]

三、闵可夫斯基距离(Minkowski distance)

\[d(x_i,x_j) = \sqrt[p]{\sum_{l=1}^n(|x_i^{(l)}-x_j^{(l)}|)^p} \]

相关文章:

  • 2021-12-07
  • 2022-02-24
  • 2021-08-20
  • 2021-12-27
  • 2021-12-02
  • 2021-12-09
  • 2021-12-02
猜你喜欢
  • 2021-11-23
  • 2021-06-09
  • 2022-12-23
  • 2021-12-02
  • 2021-12-02
  • 2021-12-05
  • 2021-12-19
相关资源
相似解决方案