前言

近些年来,人工神经网络比较火热,构成其流行的基础主要有以下三点:

  • 数据量爆炸式的增长
  • 机器算力的提高
  • 上世纪50、60年代理论基础的建立

本质上没有创新,只不过是数据量上去了,机器能进行复杂的运算了,这才火了。

一、神经元的数学模型

如下图,神经网络的数学模型在大约80年前就已经被提出了。

人工神经网络 - 感知器

直到1957年,Frank Rosenblatt 从纯数学的角度重新审视这一模型,指出能够从一些输入输出对(X, y)中通过学习算法获得权重 W 和 b 。

二、感知器算法

1.基本概念

人工神经网络 - 感知器
若 y = -1,而 wTx + b > 0。
分析这一句话,根据线性分类面的知识,若wTx + b > 0,可得 y = 1,然而此时 y = -1,说明目前的 w , b 对 x 不能正确分类。

处理方法:w = w - x ; b = b - 1。

结果:wTx + b = (w - x)Tx + b - 1 = wTx + b - ||x|| 2- 1,也就是说在原来的基础上减少了至少是 1 。同理, y = 1, 而wTx + b < 0 也做相似处理。

新问题:会不会 w 和 b 一会加一会减,最后改变不大呢?

解答:已被证明,若数据线性可分,即便这样忽大忽小,也能在有限的时间内确定这两个数值,将数据分开。

2.证明

原始的感知器算法如下图所示:

人工神经网络 - 感知器
我们在这里进行小小的改动,引入增广矩阵

人工神经网络 - 感知器
那么,原来的问题可以转化为

人工神经网络 - 感知器
这样是不是就变得简单了呢?

感知器算法的收敛定理:

人工神经网络 - 感知器

思考,Wopt 和 W是同一个吗?
答:有很小的可能是同一个,但是大概率不是同一个。

人工神经网络 - 感知器
人工神经网络 - 感知器


总结

感知器算法针对的是具体的个体,它的核心思想是将实验的数据依次代入算法里去实验,通过每次实验的结果对算法(模型)本身进行调整,直到所有的数据参与了该算法的调整,其实这比较符合人本身的思想。
让我们举个例子来看一下,小明要上 8 点的早课,第一次呢,他 6 : 30 就到了,他知道来得太早,下次晚点来。第二次,他 7 : 30 到的,他发现还是早了,白等了半个小时,下次再晚点,第三次,他 8 : 30 到了,他意识到,要起的比第三天早一点,通过对每次实验进行调整,这样就能够越来越接近想要的结果。

相关文章:

  • 2021-11-07
  • 2022-01-02
  • 2021-07-24
  • 2021-12-05
  • 2021-07-10
  • 2021-12-06
  • 2022-02-07
  • 2022-02-07
猜你喜欢
  • 2021-06-14
  • 2021-12-10
  • 2021-09-20
  • 2022-01-08
  • 2022-02-09
  • 2022-12-23
  • 2021-08-20
相关资源
相似解决方案