bp算法公式推导

MR_ZFJ MR_ZFJ     2022-08-10     533

关键词:

首先来了解基本的定义,

如,

其中,N表示训练样本的数量,向量x(n)表示第n个样本在输入层输入数据,向量d(n)表示在输出层对应的期望的输出。

设神经元j位于网络的输出层,那么由该神经元输出产生的误差定义为:


其中,表示期望的输出,表示实际的输出,表示神经元j输出产生的误差。

由神经元j产生的瞬时误差能量定义为:

 

那么整个网络所产生的总瞬时误差能量为:

其中C表示网络输出层的神经元的集合。

在神经元j的激活函数处的诱导函数(诱导局部域)为:

其中m是神经元j的输入数量,表示从神经元i到神经元j之间的突触权值,为神经元j的偏置,对应于表示连接到神经元j的神经元i的函数输出信号。

神经元j的函数信号,即输出为:

其中,表示对应神经元j的激活函数。(简便起见,通常,网络中的所有神经元的激活函数均为同一个函数)。

在BP算法反向传播进行权值调整时引用一个修正值,它正比于偏导数,根据微分的链式规则可写为,

  

对公式4取微分可得到:

 

(由于是针对某个神经元j求偏导,所以结果并非这种结果)

对公式2取微分可得到:

 

对公式6取微分可得到:

对公式5取微分可得到:

   

将公式8、9、10、11带入公式7得,

  

对于权值的修正根据delta法则定义为:

其中为学习率参数,是一个常数,可指定;负号表示在权值空间中寻找一个使下降的权值改变的方向(即使网络总体误差能量减小)。

将公式12带入公式13得,

其中为局域梯度,定义为:

可见,神经元j的局域梯度等于该神经元的误差信号与其激活函数对诱导局部域的导数的乘积。

所以得到,

其中可指定,在BP算法前向计算过程中可以得到,激活函数是已知的,通过计算可以得到,重点在于的计算。显然对于神经元j的位置需要进行分类讨论:

1.神经元j位于输出层,这是最简单的情形,此时,该神经元的期望输出和实际输出均为已知(实际输出在算法的前向计算中得出),

从而神经元i到神经j的突触权值便可进行调整。

2.神经元j不位于输出层,而位于隐藏层。此时误差信号不能够再根据公式2得以确定,因为是不可知的。误差信号需要与与其直接相连接的神经元的误差信号来向后地柜决定。设连接到神经元j的位于输出层的神经元为k,便需重新定义

重点放在的计算,

对公式17对求微分得,

(由于是对求偏导,而每一项都是的函数,所有含有)同样,使用链式规则得到,

又因为


所以,

根据之前的解述,可以知道,

其中m为神经元j所在网络层神经元数。对公式22求微分得,


将公式21、23带入公式19可以得到,

将公式24带入公式16得到,

将公式25与公式14可以得到,

这样便可以对神经元i到神经元j的权值进行调整。

综上所述,可以知道,对权值的调整核心即为,



深度学习bp算法的推导(附加rnn,lstm的推导说明)

...equenceLabelling withRecurrentNeuralNetworks》详细介绍其关于BP算法的推导过程。     2)论文没有提到过偏差的处理,不过如果能耐心推导出论文给出的公式,那么这将十分简单。   &nbs 查看详情

反向传播算法(过程及公式推导)

...们开始DL的研究之前,需要把ANN—人工神经元网络以及bp算法做一个简单解释。关于ANN的结构,我不再多说,网上有大量的学习资料,主要就是搞清一些名词:输入层/输入神经元,输出层/输出神经元,隐层/隐层神经元,权值,... 查看详情

bp算法完整推导2.0(上)

前面的笔记已经把BP算法给推导了,那4大公式,核心就是求偏导数的链式法则,这篇,再来跟着大佬来推一波,目的是为了加深印象.关于记忆这个话题,心理学家,其实早已经给出了答案,最好的记忆方式,就是重复,写了这么多的笔记,其实... 查看详情

bp神经网络的公式推导

如果感觉自己看不懂,那就看看我博客的梯度下降法,博文最后的感知机也算最简单的BP神经网络吧,用的也是反馈(w,b):典型梯度下降法BP网络的结构BP网络的结构如下图所示,分为输入层(Input),隐含层(Hidden),输出层(Output)... 查看详情

bp神经网络公式推导及实现mnist(代码片段)

...经网络的基本思想:BP神经网络的学习采用误差反向传播算法,BP算法是一种有监督的学习方法,其主要思想是把整个学习过程分为正向传播、反向(逆向)传播和记忆训练三个部分。正向传播时,输入样本从输入层输入,经各隐含... 查看详情

bp算法完整推导2.0(下)

上篇主要阐述BP算法的过程,以及推导的4大公式的结论,现在呢要来逐步推导出这写公式的原理.当理解到这一步,就算真正理解BP算法了.也是先做一个简单的回顾一下,不是很细,重点在推导,不清楚就结合图像呀,其实很直观的.全篇其... 查看详情

bp神经网络算法推导

一、BP神经网络BP神经网络是一种按照误差逆向传播算法训练的多层前馈神经网络,是应用最广泛也是最简单的神经网络模型之一。1.1BP神经网络的结构神经网络结构如下其中x1,x2x_1,x_2x1​,x2​为输入,φ\\varphiφ为激活函数... 查看详情

bp算法的原理解释和推导

BP算法的原理解释和推导已知的神经网络结构:且已知的条件:a(j)=f(z(j))\\mathbfa^\\left(\\mathbfj\\right)=\\mathbff\\left(\\mathbfz^\\left(\\mathbfj\\right)\\right)a(j)=f(z(j))z(j)=W(j)a 查看详情

bp算法的原理解释和推导

BP算法的原理解释和推导已知的神经网络结构:且已知的条件:a(j)=f(z(j))\\mathbfa^\\left(\\mathbfj\\right)=\\mathbff\\left(\\mathbfz^\\left(\\mathbfj\\right)\\right)a(j)=f(z(j))z(j)=W(j)a(j−1)+b(j) 查看详情

一文彻底搞懂bp算法:原理推导+数据演示+项目实战(上篇)

参考技术A反向传播算法(BackpropagationAlgorithm,简称BP算法)是深度学习的重要思想基础,对于初学者来说也是必须要掌握的基础知识!本文希望以一个清晰的脉络和详细的说明,来让读者彻底明白BP算法的原理和计算过程。全文... 查看详情

大白话讲解bp算法(转载)

最近在看深度学习的东西,一开始看的吴恩达的UFLDL教程,有中文版就直接看了,后来发现有些地方总是不是很明确,又去看英文版,然后又找了些资料看,才发现,中文版的译者在翻译的时候会对省略的公式推导过程进行补充... 查看详情

神经网络——bp学习算法推导

...总和为,输出为综上各变量之间的关系为 式1BP学习算法是通过反向学习过程使误差最小,其目 查看详情

神经网络——bp学习算法推导

...总和为,输出为综上各变量之间的关系为 式1BP学习算法是通过反向学习过程使误差最小,其目 查看详情

经典反向传播算法公式详细推导

. 查看详情

经典反向传播算法公式详细推导

. 查看详情

神经网络和bp算法推导(代码片段)

我的原文:https://www.hijerry.cn/p/53364.html感知机感知机(perceptron)于1957年由Rosenblatt提出,是一种二分类线性模型。感知机以样本特征向量作为输入,输出为预测类别,取正、负两类。感知机最终学习到的是... 查看详情

误差逆传播(errorbackpropagation,bp)算法推导及向量化表示

...材NotesonConvolutionalNeuralNetworks,结果刚看到第2章教材对BP算法的回顾就犯难了,不同于之前我学习的对每一个权值分别进行 查看详情

ndt(normaldistributionstransform)算法原理与公式推导

  正态分布变换(NDT)算法是一个配准算法,它应用于三维点的统计模型,使用标准最优化技术来确定两个点云间的最优的匹配,因为其在配准过程中不利用对应点的特征计算和匹配,所以时间比其他方法快。下面的公式推导... 查看详情