BP人工神经网络的收敛是什么?

来源:学生作业帮助网 编辑:作业帮 时间:2024/10/02 15:00:08
BP人工神经网络的收敛是什么?
xUmnH s])VQ6 `HB.$d_+LxjfW"ܮ~Uޫry=uc"m/Wq~cώY§g2.i Az-~fێ VU6=\Ac}*"~t/]+ۺ ǛB"uq_J&yD2.֌ TU;x}En"he!&wBr(>OЪJ1Zğn{*XdǘT,>Mb.e%QYkaD+vv փ]K#k%..A5جJFIJ͡B܇P$˴ߠN JH̀KYL*R(4J:16?D<4YOĹ亲)D?cSi7\-‹eqg<DјE04Jd)%&6SL2r|d*)͓?g 6ǰriV7`ب{exe:XTIhp[ȺKs]awc8tw%d}US^ݸjT&$c7EwI))|'V ?6/b?46tz)B6}F&§K$,Wi42 (X"8r \ܚ1g:VS;`XķAѹ7,sWO_(00$*,¢L"`ʒ0 ՚|)m}* [Ïg_lrԢ}.6)9 < <Z(?LQuaV41/j _

BP人工神经网络的收敛是什么?
BP人工神经网络的收敛是什么?

BP人工神经网络的收敛是什么?
收敛和迭代算法有关.
反向传播算法是定义一个误差er(往往是输出结果与预想结果之间的某个范数),然后求出满足误差极小的权向量.如果把误差看成一个连续函数(泛函)的话,求对权向量各分量的偏导为0即可,但是实际上它是离散的,所以我们需要用迭代来求最小梯度.
如果是新定义算法的话理论上的收敛要证明,可以证明它在迭代次数趋近无穷的时候等于某一解,也可以证明它满足李普希兹条件(就是带有完备范数和李普希兹常数的那个),这种情形下我们叫做收敛,要是用已有算法或者干脆就是BP算法的时候不需要你证明.理论上不收敛的情况是这样,当迭代次数趋近无穷的时候,权向量的解不唯一.
实际上的收敛是这样,给定一个最大迭代次数n,一个误差限erl,反向传播算法应该很容易找,我不往上写了,每一步权值修正都会使er减小,直观的看就是权向量的分量沿着梯度减小的方向在前进,虽然理论上样本足够大并且n趋于无穷的时候会收敛,但是实际上有可能出现当迭代到第n次,误差er依然大于误差限erl的情况,也就是说我们没有解出来满足要求的权向量,所以网络训练失败,叫做不收敛.当然,也可以使用梯度限来作为迭代终止的条件,这种情况下不收敛就是梯度在迭代了n次以后没有小于某一值,从而没有求出满足要求的权向量;收敛就是求出了满足梯度限的权向量.

神经网络收敛有收敛结果和收敛性两种
收敛结果就是经过神经网络计算后产生的结果 一般来说是 1 或者 0
收敛性可以理解经过神经网络计算后能不能产生1 或 0 或者 产生1 或 0 的概率是多少 用概率来衡量神经网络的收敛性