前言
近些年来,人工神经网络比较火热,构成其流行的基础主要有以下三点:
- 数据量爆炸式的增长
- 机器算力的提高
- 上世纪50、60年代理论基础的建立
本质上没有创新,只不过是数据量上去了,机器能进行复杂的运算了,这才火了。
一、神经元的数学模型
如下图,神经网络的数学模型在大约80年前就已经被提出了。
直到1957年,Frank Rosenblatt 从纯数学的角度重新审视这一模型,指出能够从一些输入输出对(X, y)中通过学习算法获得权重 W 和 b 。
二、感知器算法
1.基本概念
若 y = -1,而 wTx + b > 0。
分析这一句话,根据线性分类面的知识,若wTx + b > 0,可得 y = 1,然而此时 y = -1,说明目前的 w , b 对 x 不能正确分类。
处理方法:w新 = w - x ; b新 = b - 1。
结果:w新Tx + b新 = (w - x)Tx + b - 1 = wTx + b - ||x|| 2- 1,也就是说在原来的基础上减少了至少是 1 。同理, y = 1, 而wTx + b < 0 也做相似处理。
新问题:会不会 w 和 b 一会加一会减,最后改变不大呢?
解答:已被证明,若数据线性可分,即便这样忽大忽小,也能在有限的时间内确定这两个数值,将数据分开。
2.证明
原始的感知器算法如下图所示:
我们在这里进行小小的改动,引入增广矩阵
那么,原来的问题可以转化为
这样是不是就变得简单了呢?
感知器算法的收敛定理:
思考,Wopt 和 W是同一个吗?
答:有很小的可能是同一个,但是大概率不是同一个。
总结
感知器算法针对的是具体的个体,它的核心思想是将实验的数据依次代入算法里去实验,通过每次实验的结果对算法(模型)本身进行调整,直到所有的数据参与了该算法的调整,其实这比较符合人本身的思想。
让我们举个例子来看一下,小明要上 8 点的早课,第一次呢,他 6 : 30 就到了,他知道来得太早,下次晚点来。第二次,他 7 : 30 到的,他发现还是早了,白等了半个小时,下次再晚点,第三次,他 8 : 30 到了,他意识到,要起的比第三天早一点,通过对每次实验进行调整,这样就能够越来越接近想要的结果。