tf-搞不懂的tf矩阵加法

.每天进步一点点 .每天进步一点点     2022-08-31     661

关键词:

看谷歌的demo mnist,卷积后加偏执量的代码

h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
h_pool1 = max_pool_2x2(h_conv1)

其中的x_image的维数是[-1, 28, 28, 1],W_conv1的维数是[5, 5, 1, 32], b的维数是[32]

conv2d对x_image和W_conv1进行卷积,结果为[-1, 28, 28, 32],结果就是:

[-1, 28, 28, 32]和[32]的加法。

完全搞不清为什么[-1, 28, 28, 32]和[32]两个完全不同维数可以做加法?而且加出的结果还是[-1, 28, 28, 32]?

于是做了下面的测试:

sess = tf.InteractiveSession()
test1 = tf.ones([1,2,2,3],tf.float32)
b1 = tf.ones([3])
re1 = test1 + b1
print("shap3={},eval=\n{}".format(b1.shape, b1.eval()))
print("shap4={},eval=\n{}".format(test1.shape, test1.eval()))
print("shap5={},eval=\n{}".format(re1.shape, re1.eval()))

test1 = tf.ones([1,2,2,3],tf.float32)
b1 = tf.ones([1,1,1,1])
re1 = test1 + b1
print("shap6={},eval=\n{}".format(b1.shape, b1.eval()))
print("shap7={},eval=\n{}".format(test1.shape, test1.eval()))
print("shap8={},eval=\n{}".format(re1.shape, re1.eval()))

test1 = tf.ones([1,2,2,3],tf.float32)
b1 = tf.ones([1,1,1,3])
re1 = test1 + b1
print("shap9 ={},eval=\n{}".format(b1.shape, b1.eval()))
print("shap10={},eval=\n{}".format(test1.shape, test1.eval()))
print("shap11={},eval=\n{}".format(re1.shape, re1.eval()))

test1 = tf.ones([1,2,2,3],tf.float32)
b1 = tf.ones([1])
re1 = test1 + b1
print("shap12={},eval=\n{}".format(b1.shape, b1.eval()))
print("shap13={},eval=\n{}".format(test1.shape, test1.eval()))
print("shap14={},eval=\n{}".format(re1.shape, re1.eval()))

test1 = tf.ones([1,2,2,3],tf.float32)
alist = [[[[ 1, 1, 1.],
[ 0, 0, 0.]],
[[ 1, 1, 1.],
[ 0, 0, 0.]]]]
b1 = tf.constant(alist)
re1 = test1 + b1
print("shap15={},eval=\n{}".format(b1.shape, b1.eval()))
print("shap16={},eval=\n{}".format(test1.shape, test1.eval()))
print("shap17={},eval=\n{}".format(re1.shape, re1.eval()))

结果为

shap3=(3,),eval=
[ 1.  1.  1.]
shap4=(1, 2, 2, 3),eval=
[[[[ 1.  1.  1.]
   [ 1.  1.  1.]]

  [[ 1.  1.  1.]
   [ 1.  1.  1.]]]]
shap5=(1, 2, 2, 3),eval=
[[[[ 2.  2.  2.]
   [ 2.  2.  2.]]

  [[ 2.  2.  2.]
   [ 2.  2.  2.]]]]
shap6=(1, 1, 1, 1),eval=
[[[[ 1.]]]]
shap7=(1, 2, 2, 3),eval=
[[[[ 1.  1.  1.]
   [ 1.  1.  1.]]

  [[ 1.  1.  1.]
   [ 1.  1.  1.]]]]
shap8=(1, 2, 2, 3),eval=
[[[[ 2.  2.  2.]
   [ 2.  2.  2.]]

  [[ 2.  2.  2.]
   [ 2.  2.  2.]]]]
shap9 =(1, 1, 1, 3),eval=
[[[[ 1.  1.  1.]]]]
shap10=(1, 2, 2, 3),eval=
[[[[ 1.  1.  1.]
   [ 1.  1.  1.]]

  [[ 1.  1.  1.]
   [ 1.  1.  1.]]]]
shap11=(1, 2, 2, 3),eval=
[[[[ 2.  2.  2.]
   [ 2.  2.  2.]]

  [[ 2.  2.  2.]
   [ 2.  2.  2.]]]]
shap12=(1,),eval=
[ 1.]
shap13=(1, 2, 2, 3),eval=
[[[[ 1.  1.  1.]
   [ 1.  1.  1.]]

  [[ 1.  1.  1.]
   [ 1.  1.  1.]]]]
shap14=(1, 2, 2, 3),eval=
[[[[ 2.  2.  2.]
   [ 2.  2.  2.]]

  [[ 2.  2.  2.]
   [ 2.  2.  2.]]]]

shap15=(1, 2, 2, 3),eval=
[[[[ 1. 1. 1.]
[ 0. 0. 0.]]

[[ 1. 1. 1.]
[ 0. 0. 0.]]]]
shap16=(1, 2, 2, 3),eval=
[[[[ 1. 1. 1.]
[ 1. 1. 1.]]

[[ 1. 1. 1.]
[ 1. 1. 1.]]]]
shap17=(1, 2, 2, 3),eval=
[[[[ 2. 2. 2.]
[ 1. 1. 1.]]

[[ 2. 2. 2.]
[ 1. 1. 1.]]]]

这个结果说明了什么呢?说明张量加法时,维数不等时会自动扩充,用存在的数字填充。

比如下面这个[4, 3, 2, 3]的矩阵A,

我们把A加上[1, 2, 3]结果为

[[[[1 2 3]
[2 3 4]]

[[3 4 5]
[4 5 6]]

[[5 6 7]
[6 7 8]]]


[[[1 2 3]
[2 3 4]]

[[3 4 5]
[4 5 6]]

[[5 6 7]
[6 7 8]]]


[[[1 2 3]
[2 3 4]]

[[3 4 5]
[4 5 6]]

[[5 6 7]
[6 7 8]]]


[[[1 2 3]
[2 3 4]]

[[3 4 5]
[4 5 6]]

[[5 6 7]
[6 7 8]]]]

搞不懂的算法-排序篇

  最近在学习算法,跟着<Algorithms>这本书,可能是自己水平不够吧,看完排序算法后各种,希尔,归并,快排,堆的实现在脑子里乱成一锅粥,所以就打算大概总结一下,不求精确,全面,只想用平白的语言来理一理,如... 查看详情

那些年搞不懂的术语概念:协变逆变不变体

简述什么是协变性、逆变性、不变性协变性,如:string->object(子类到父类的转换)逆变性,如:object->string(父类到子类的转换)不变性,基于上面两种情况,不可变。具体下面再做分析。泛型委托的可变性先使用框架定... 查看详情

那些年搞不懂的术语概念:协变逆变不变体

简述什么是协变性、逆变性、不变性协变性,如:string->object(子类到父类的转换)逆变性,如:object->string(父类到子类的转换)不变性,基于上面两种情况,不可变。具体下面再做分析。泛型委托的可变性先使用框架定... 查看详情

tf.unstack()tf.stack()

...s://tensorflow.google.cn/api_docs/python/tf/unstack解释:这是一个对矩阵进行分解的函数,以下为关键参数解释:value:代表需要分解的矩阵变量(其实就是一个多维数组,一般为二维);axis:指明对矩阵的哪个维度进行分解。要理解tf.uns... 查看详情

tf.unstack f.unstack

...s://tensorflow.google.cn/api_docs/python/tf/unstack解释:这是一个对矩阵进行分解的函数,以下为关键参数解释:value:代表需要分解的矩阵变量(其实就是一个多维数组,一般为二维);axis:指明对矩阵的哪个维度进行分解。要理解tf.uns... 查看详情

那些年搞不懂的"协变"和"逆变"

  博主之前也不是很清楚协变与逆变,今天在书上看到了有关于协变还是逆变的介绍感觉还是不太懂,后来看了一篇园子里面一位朋友的文章,顿时茅塞顿开。本文里面会有自己的一些见解也会引用博友的一些正文,希望通过本篇,... 查看详情

tensorflow常用函数说明

1.矩阵操作1.1矩阵生成这部分主要将如何生成矩阵,包括全0矩阵,全1矩阵,随机数矩阵,常数矩阵等sess=tf.InteractiveSession()#x=tf.ones([2,3],tf.int32)x=tf.zeros([2,3],tf.int32)print(sess.run(x))新建一个与给定的tensor类型大小一致的tensor,使... 查看详情

那些年搞不懂的多线程同步异步及阻塞和非阻塞---多线程简介

1、进程和线程的概念进程:运行中的应用程序称为进程,拥有系统资源(cpu、内存)线程:进程中的一段代码,一个进程中可以有多段代码。本身不拥有资源(共享所在进程的资源);在java中,程序入口被自动创建为主线程,... 查看详情

Python tf-idf:更新 tf-idf 矩阵的快速方法

】Pythontf-idf:更新tf-idf矩阵的快速方法【英文标题】:Pythontf-idf:fastwaytoupdatethetf-idfmatrix【发布时间】:2017-07-0122:22:45【问题描述】:我有一个几千行文本的数据集,我的目标是计算tfidf分数,然后计算文档之间的余弦相似度,这... 查看详情

如何使 TF-IDF 矩阵密集?

】如何使TF-IDF矩阵密集?【英文标题】:HowtomakeTF-IDFmatrixdense?【发布时间】:2016-05-0815:47:50【问题描述】:我正在使用TfidfVectorizer将原始文档集合转换为TF-IDF特征矩阵,然后我计划将其输入到k-means算法(我将实现)。在该算法... 查看详情

增加 TF IDF 矩阵项的权重

】增加TFIDF矩阵项的权重【英文标题】:IncreasingweightsofTFIDFmatrixterms【发布时间】:2017-08-1412:44:46【问题描述】:我有用于文档的tfidf矩阵。我有一些术语我想在TFIDF矩阵中加倍权重。说我有矩阵weightTerms并且我有以下代码fromsklearn... 查看详情

将 tf-idf 值添加为矩阵中的列

】将tf-idf值添加为矩阵中的列【英文标题】:Addtf-idfvaluesascolumnsinamatrix【发布时间】:2018-12-0118:23:16【问题描述】:fromsklearn.feature_extraction.textimportTfidfVectorizeritem=list(df[\'item1\'])+list(df[\'item2\'])tfidf=TfidfVectorizer()tfidf_sp 查看详情

tensorflow-矩阵乘法(代码片段)

#!/usr/bin/envpython3#-*-coding:utf-8-*-"""CreatedonWedDec1218:18:062018@author:myhaspl"""importtensorflowastfw1=tf.Variable(tf.random_normal([2,5],mean=1.0,stddev=1.0))w2=tf.Variable(tf.random_normal 查看详情

tensorflow

...才出现值。这也符合变量的性质把 tf.cinstant创建标量矩阵tf有一套矩阵运算操作,, #Session:用来进行执行操作sess=tf.Session()res=sess.run(某个操作)sess.close()  #Varaible:tf里面所有变量要被定义成tf.Va 查看详情

深度学习之tensorflow框架(上)(代码片段)

...on[‘TF_CPP_MIN_LOG_LEVEL‘]=‘2‘4deftensorflow_demo():56#原生python加法运算7a=2;8b=3;9c=a+b;10print("普通加法运算的结果:",c);11#tensorflow实现加法运算12a_t=tf.constant(2)13b_t=tf.constant(3)14c_t=a_t+b_t15print("tensorflow的加法运算结果:",c_t)16#开启会话17withtf... 查看详情

tf.linalg.eigh在gpu上非常慢-正常吗?(代码片段)

....eigh()。这个想法非常简单:我创建-比方说-87.0004x4Hermitian矩阵,并希望得到它们的特征值和特征向量。为此,我有一个形状[87.000,4,4]的占位符matrix,我喂入tf.linalg.eigh(matrix)。我运行会话并将这些矩阵作为输入(矩阵具有数据类... 查看详情

K- 表示为 tf-idf 矩阵定义初始中心

】K-表示为tf-idf矩阵定义初始中心【英文标题】:K-meansdefiningInitialCentersfortf-idfmatrix【发布时间】:2017-05-1914:33:31【问题描述】:我正在使用k-means对文章进行聚类,它运行良好。现在我想定义初始中心以获得更合理的结果。我的P... 查看详情

tf常用函数28原则

四则运算:tf.add(x,y,name)tf.subtract(x,y,name)tf.multiply(x,y,name)tf.divide(x,y,name)tf.square(x,name)#平方tf.pow(x,y,name)#x的y次方tf.sqrt(x,name) #平方根tf.exp(x,name) #e的x次方 矩阵:tf.matmul(a,b)相当 查看详情