激励函数(activation)

cathy_mu cathy_mu     2022-09-29     614

关键词:

softplus是有关概率的巴拉巴拉?

Torch 中的激励函数有很多, 不过我们平时要用到的就这几个. relusigmoidtanhsoftplus. 那我们就看看他们各自长什么样啦.

import torch
import torch.nn.functional as F     # 激励函数都在这
from torch.autograd import Variable

# 做一些假数据来观看图像
x = torch.linspace(-5, 5, 200)  # x data (tensor), shape=(100, 1)
x = Variable(x)

接着就是做生成不同的激励函数数据:

x_np = x.data.numpy()   # 换成 numpy array, 出图时用

# 几种常用的 激励函数
y_relu = F.relu(x).data.numpy()
y_sigmoid = F.sigmoid(x).data.numpy()
y_tanh = F.tanh(x).data.numpy()
y_softplus = F.softplus(x).data.numpy()
# y_softmax = F.softmax(x)  softmax 比较特殊, 不能直接显示, 不过他是关于概率的, 用于分类
import matplotlib.pyplot as plt  # python 的可视化模块, 我有教程 (https://morvanzhou.github.io/tutorials/data-manipulation/plt/)

plt.figure(1, figsize=(8, 6))
plt.subplot(221)
plt.plot(x_np, y_relu, c='red', label='relu')
plt.ylim((-1, 5))
plt.legend(loc='best')

plt.subplot(222)
plt.plot(x_np, y_sigmoid, c='red', label='sigmoid')
plt.ylim((-0.2, 1.2))
plt.legend(loc='best')

plt.subplot(223)
plt.plot(x_np, y_tanh, c='red', label='tanh')
plt.ylim((-1.2, 1.2))
plt.legend(loc='best')

plt.subplot(224)
plt.plot(x_np, y_softplus, c='red', label='softplus')
plt.ylim((-0.2, 6))
plt.legend(loc='best')

plt.show()

 

什么是激励函数(activationfunction)

relusigmoidtanh激励函数。可以创立自己的激励函数解决自己的问题,只要保证这些激励函数是可以微分的。只有两三层的神经网络,随便使用哪个激励函数都可以。多层的不能随便选择,涉及梯度爆炸,梯度消失的问题。卷积神经... 查看详情

激励函数activationfunction(代码片段)

1、激励函数的作用不使用激励函数的话,神经网络的每层都只是做线性变换,多层输入叠加后也还是线性变换。因为线性模型的表达能力不够,激励函数可以引入非线性因素。 2、Torch中的激励函数importtorchimporttorch.nn.functiona... 查看详情

神经网络激励函数

常用激励函数每一次输入和权重w线性组合之后,都会通过一个激励函数(也可以叫做非线性激励函数),经非线性变换后输出。实际的神经网络中有一些可选的激励函数,我们一一说明一下最常见的几种:1sigmoidsigmoid函数提到的次... 查看详情

激励函数-activationfunciton(代码片段)

一、什么是激励函数  激励函数一般用于神经网络的层与层之间,上一层的输出通过激励函数的转换之后输入到下一层中。神经网络模型是非线性的,如果没有使用激励函数,那么每一层实际上都相当于矩阵相乘。... 查看详情

relu激励函数

...很慢。甚至梯度消失。在分类的时候很多都使用这个Relu激励函数,尤其是深度学习中。线性整流函数(RectifiedLinearUnit,ReLU),Relu激励函数,也称“热鲁”激励函数。是一种人工神经网络中常见的激活函数。相比于Sigmoid函数,Rel... 查看详情

深度学习的激励函数

...数值在0~1之间,如果神经网络的层数很多,如果每一层的激励函数采用sigmoid函数,就会产生梯度弥散的问题。因为利用BP函数更新参数的时候,会乘以它的导数,所以会一直减小。并且在比较大或者比较小的时候,会产生饱和效... 查看详情

tensorflow激励函数-老鱼学tensorflow

...词无关的神经元就不会有很大的刺激。这个就是大脑中的激励函数。有了激励函数,我们才会对外部的刺激产生非线性的反应,有的神经元反应比较强烈,而有的神经元基本没有反应。在神经网络中激励函数有很多,但作为初学... 查看详情

7.激励函数(激活函数)

...时,总会经常遇到一些之前完全没有听说过的词汇,比如激励函数、卷积、池化、交叉熵,刚开始可能会觉得特别生涩、一时间不理解,这没关系,当深入理解这个词汇背后所代表的具体含义后,发现其实这些词汇也是可以慢慢... 查看详情

莫烦theano学习自修第二天激励函数(代码片段)

1.代码如下:#!/usr/bin/envpython#!_*_coding:UTF-8_*_importnumpyasnpimporttheano.tensorasTimporttheanox=T.dmatrix(‘x‘)#定义一个激励函数s=1/(1+T.exp(-x))logistic=theano.function([x],s)printlogistic([[0,1],[-2,-3]])# 查看详情

机器学习之激励函数

1、sigmoid函数曲线如下:sigmoid激活函数,符合实际,当输入值很小时,输出接近于0;当输入值很大时,输出值接近于1。sigmod函数曾经是比较流行的,它可以想象成一个神经元的放电率,在中间斜率比较大的地方是神经元的敏感区... 查看详情

常用激活函数(激励函数)理解与总结

...入之间具有一个函数关系,这个函数称为激活函数(又称激励函数)。 激活函数的用途(为什么需要激活函数)?    如果不用激励函数(其实相当于激励函数是f(x)=x),在这种情况下你每一层节点的输入都是... 查看详情

算法基础知识(全连接层、lstm、激励函数)

...TM分析比较好的连接(注意理解体会一下他说的公式)3、激励函数:作者这篇激励函数写的也很好(我们实际中一般遇见都是非线性问题,所以对特征做了加权线性操作需要通过非线性的激励函数做非线性的变换)激励函数选择... 查看详情

深度学习基础--神经网络--bp反向传播算法

...知机。  2.要求每个人工神经元(即节点)所使用的激励函数必须可微。  (激励函数:单个神经元的输入与输出之间的函数关系叫做激励函数。)  (假如不使用激励函数,神经网络中的每层都只是做简单的线性变换... 查看详情

激励函数-activationfunciton(代码片段)

一、什么是激励函数  激励函数一般用于神经网络的层与层之间,上一层的输出通过激励函数的转换之后输入到下一层中。神经网络模型是非线性的,如果没有使用激励函数,那么每一层实际上都相当于矩阵相乘。... 查看详情

pytorch学习-2:变量(variable)和激励函数(代码片段)

1.变量(Variable)1.1什么是Variable在Torch中的Variable就是一个存放会变化的值的地理位置.里面的值会不停的变化.就像一个裝鸡蛋的篮子,鸡蛋数会不停变动.那谁是里面的鸡蛋呢,自然就是Torch的Tensor咯.如果用一个Variable进行计算,那返回... 查看详情

pytorch学习-2:变量(variable)和激励函数(代码片段)

1.变量(Variable)1.1什么是Variable在Torch中的Variable就是一个存放会变化的值的地理位置.里面的值会不停的变化.就像一个裝鸡蛋的篮子,鸡蛋数会不停变动.那谁是里面的鸡蛋呢,自然就是Torch的Tensor咯.如果用一个Variable进行计算,那返回... 查看详情

深度学习deeplearning(04):权重初始化问题2_relu激励函数(代码片段)

github地址:https://github.com/lawlite19/DeepLearning_Python三、权重初始化问题2_ReLu激励函数1、说明参考论文:https://arxiv.org/pdf/1502.01852v1.pdf或者查看这里,我放在github上了:https://github.com/lawlite19/D 查看详情

测试中c平台是啥东西

...以及课程的ppt,主要介绍了高效的C测试平台相关内容。激励来源直接将变量定义为激励来源并初始化将数据存储在数组中从外部文件读取数据作为激励来源对于存储在数组中和外部文件中的激励源,要进行定义数组进行存储。... 查看详情