关键词:
利用卷积神经网络训练图像数据分为以下几个步骤
- 读取图片文件
- 产生用于训练的批次
- 定义训练的模型(包括初始化参数,卷积、池化层等参数、网络)
- 训练
1 读取图片文件
1 def get_files(filename): 2 class_train = [] 3 label_train = [] 4 for train_class in os.listdir(filename): 5 for pic in os.listdir(filename+train_class): 6 class_train.append(filename+train_class+‘/‘+pic) 7 label_train.append(train_class) 8 temp = np.array([class_train,label_train]) 9 temp = temp.transpose() 10 #shuffle the samples 11 np.random.shuffle(temp) 12 #after transpose, images is in dimension 0 and label in dimension 1 13 image_list = list(temp[:,0]) 14 label_list = list(temp[:,1]) 15 label_list = [int(i) for i in label_list] 16 #print(label_list) 17 return image_list,label_list
这里文件名作为标签,即类别(其数据类型要确定,后面要转为tensor类型数据)。
然后将image和label转为list格式数据,因为后边用到的的一些tensorflow函数接收的是list格式数据。
2 产生用于训练的批次
1 def get_batches(image,label,resize_w,resize_h,batch_size,capacity): 2 #convert the list of images and labels to tensor 3 image = tf.cast(image,tf.string) 4 label = tf.cast(label,tf.int64) 5 queue = tf.train.slice_input_producer([image,label]) 6 label = queue[1] 7 image_c = tf.read_file(queue[0]) 8 image = tf.image.decode_jpeg(image_c,channels = 3) 9 #resize 10 image = tf.image.resize_image_with_crop_or_pad(image,resize_w,resize_h) 11 #(x - mean) / adjusted_stddev 12 image = tf.image.per_image_standardization(image) 13 14 image_batch,label_batch = tf.train.batch([image,label], 15 batch_size = batch_size, 16 num_threads = 64, 17 capacity = capacity) 18 images_batch = tf.cast(image_batch,tf.float32) 19 labels_batch = tf.reshape(label_batch,[batch_size]) 20 return images_batch,labels_batch
首先使用tf.cast转化为tensorflow数据格式,使用tf.train.slice_input_producer实现一个输入的队列。
label不需要处理,image存储的是路径,需要读取为图片,接下来的几步就是读取路径转为图片,用于训练。
CNN对图像大小是敏感的,第10行图片resize处理为大小一致,12行将其标准化,即减去所有图片的均值,方便训练。
接下来使用tf.train.batch函数产生训练的批次。
最后将产生的批次做数据类型的转换和shape的处理即可产生用于训练的批次。
3 定义训练的模型
(1)训练参数的定义及初始化
1 def init_weights(shape): 2 return tf.Variable(tf.random_normal(shape,stddev = 0.01)) 3 #init weights 4 weights = { 5 "w1":init_weights([3,3,3,16]), 6 "w2":init_weights([3,3,16,128]), 7 "w3":init_weights([3,3,128,256]), 8 "w4":init_weights([4096,4096]), 9 "wo":init_weights([4096,2]) 10 } 11 12 #init biases 13 biases = { 14 "b1":init_weights([16]), 15 "b2":init_weights([128]), 16 "b3":init_weights([256]), 17 "b4":init_weights([4096]), 18 "bo":init_weights([2]) 19 }
CNN的每层是y=wx+b的决策模型,卷积层产生特征向量,根据这些特征向量带入x进行计算,因此,需要定义卷积层的初始化参数,包括权重和偏置。其中第8行的参数形状后边再解释。
(2)定义不同层的操作
1 def conv2d(x,w,b): 2 x = tf.nn.conv2d(x,w,strides = [1,1,1,1],padding = "SAME") 3 x = tf.nn.bias_add(x,b) 4 return tf.nn.relu(x) 5 6 def pooling(x): 7 return tf.nn.max_pool(x,ksize = [1,2,2,1],strides = [1,2,2,1],padding = "SAME") 8 9 def norm(x,lsize = 4): 10 return tf.nn.lrn(x,depth_radius = lsize,bias = 1,alpha = 0.001/9.0,beta = 0.75)
这里只定义了三种层,即卷积层、池化层和正则化层
(3)定义训练模型
1 def mmodel(images): 2 l1 = conv2d(images,weights["w1"],biases["b1"]) 3 l2 = pooling(l1) 4 l2 = norm(l2) 5 l3 = conv2d(l2,weights["w2"],biases["b2"]) 6 l4 = pooling(l3) 7 l4 = norm(l4) 8 l5 = conv2d(l4,weights["w3"],biases["b3"]) 9 #same as the batch size 10 l6 = pooling(l5) 11 l6 = tf.reshape(l6,[-1,weights["w4"].get_shape().as_list()[0]]) 12 l7 = tf.nn.relu(tf.matmul(l6,weights["w4"])+biases["b4"]) 13 soft_max = tf.add(tf.matmul(l7,weights["wo"]),biases["bo"]) 14 return soft_max
模型比较简单,使用三层卷积,第11行使用全连接,需要对特征向量进行reshape,其中l6的形状为[-1,w4的第1维的参数],因此,将其按照“w4”reshape的时候,要使得-1位置的大小为batch_size,这样,最终再乘以“wo”时,最终的输出大小为[batch_size,class_num]
(4)定义评估量
1 def loss(logits,label_batches): 2 cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=logits,labels=label_batches) 3 cost = tf.reduce_mean(cross_entropy) 4 return cost
首先定义损失函数,这是用于训练最小化损失的必需量
1 def get_accuracy(logits,labels): 2 acc = tf.nn.in_top_k(logits,labels,1) 3 acc = tf.cast(acc,tf.float32) 4 acc = tf.reduce_mean(acc) 5 return acc
评价分类准确率的量,训练时,需要loss值减小,准确率增加,这样的训练才是收敛的。
(5)定义训练方式
1 def training(loss,lr): 2 train_op = tf.train.RMSPropOptimizer(lr,0.9).minimize(loss) 3 return train_op
有很多种训练方式,可以自行去官网查看,但是不同的训练方式可能对应前面的参数定义不一样,需要另行处理,否则可能报错。
4 训练
1 def run_training(): 2 data_dir = ‘C:/Users/wk/Desktop/bky/dataSet/‘ 3 image,label = inputData.get_files(data_dir) 4 image_batches,label_batches = inputData.get_batches(image,label,32,32,16,20) 5 p = model.mmodel(image_batches) 6 cost = model.loss(p,label_batches) 7 train_op = model.training(cost,0.001) 8 acc = model.get_accuracy(p,label_batches) 9 10 sess = tf.Session() 11 init = tf.global_variables_initializer() 12 sess.run(init) 13 14 coord = tf.train.Coordinator() 15 threads = tf.train.start_queue_runners(sess = sess,coord = coord) 16 17 try: 18 for step in np.arange(1000): 19 print(step) 20 if coord.should_stop(): 21 break 22 _,train_acc,train_loss = sess.run([train_op,acc,cost]) 23 print("loss:{} accuracy:{}".format(train_loss,train_acc)) 24 except tf.errors.OutOfRangeError: 25 print("Done!!!") 26 finally: 27 coord.request_stop() 28 coord.join(threads) 29 sess.close()
深度学习第三周tensorflow实现天气识别(代码片段)
...356;作者:K同学啊文章目录一、本周学习内容:1、使用tensorflow中的模块读取自己的图片数据集二、前言三、电脑环境四、前期准备1、导入相关依赖项2、设置GPU(我下载的tensorflow-gpu默认使用GPU)3、加载数据集和展示(1)、数据集... 查看详情
如何在 TensorFlow 中使用我自己的数据将图像拆分为测试和训练集
】如何在TensorFlow中使用我自己的数据将图像拆分为测试和训练集【英文标题】:HowtosplitimagesintotestandtrainsetusingmyowndatainTensorFlow【发布时间】:2020-05-2414:54:50【问题描述】:我在这里有点困惑...我刚刚花了一个小时阅读有关如何... 查看详情
TensorFlow:在我自己的图像上进行训练
】TensorFlow:在我自己的图像上进行训练【英文标题】:TensorFlow:trainingonmyownimage【发布时间】:2016-09-1707:57:46【问题描述】:我是TensorFlow新手。我正在寻找图像识别方面的帮助,我可以在其中训练我自己的图像数据集。有没有训... 查看详情
动手教你学故障诊断:python实现tensorflow+cnn深度学习的轴承故障诊断(西储大学数据集)(含完整代码)(代码片段)
项目名称动手教你学故障诊断:Python实现基于Tensorflow+CNN深度学习的轴承故障诊断(西储大学数据集)(含完整代码)项目介绍该项目使用tensorflow和keras搭建深度学习CNN网络,并使用西储大学数据集作为训练... 查看详情
深度学习基于tensorflow的服装图像分类训练(数据集:fashion-mnist)(代码片段)
...习挑战赛目录前言了解Fashion-MNIST数据集下载数据集使用tensorflow下载(推荐)数据集分类数据集格式采用CPU训练还是GPU训练区别使用CPU训练使用GPU训练预处理最值归一化(normalization)升级图片维度显示部分图片建... 查看详情
学习笔记tf016:cnn实现数据集tfrecord加载图像模型训练调试
...高度、宽度减小,深度增加。深度增加减少网络计算量。训练模型数据集Stanford计算机视觉站点StanfordDogshttp://vision.stanford.edu/aditya86/ImageNetDogs/。数据下载解压到模型代码同一路径imagenet-do 查看详情
怎么确实cnn全连接层的神经元数目
...另一种,而人工合成的图像由于添加非自然噪点。用MNIST训练网络,reg等。而是在确定结构上调整参数,数据集是一种分布,完全用数据集训练的模型就能得到一个还好的结果,卷积的模板大小等?对于把流行数据集与自己数据... 查看详情
基于cnn卷积神经网络的tensorflow+keras深度学习的人脸识别(代码片段)
基于CNN卷积神经网络的TensorFlow+Keras深度学习的人脸识别前言项目实现效果补充模型数据嵌入模型CNN神经网络模型项目概述项目运行流程核心环境配置项目核心代码详解目录核心代码设置数据集目录收集人脸识别数据——UUID格... 查看详情
使用dota数据集训练fasterr-cnn模型(代码片段)
...7数据集上实现目标检测的详细步骤→Windows10+Faster-RCNN-TensorFlow-Python3-master+VOC2007数据集。一、所需文件下载链接FasterR-CNN源码及操作步骤Github链接→Faster-RCNN-TensorFlow-Python3。Faster-RCNN-TensorFlow-Python3-master压缩包百度云盘链接... 查看详情
使用dota数据集训练fasterr-cnn模型(代码片段)
...7数据集上实现目标检测的详细步骤→Windows10+Faster-RCNN-TensorFlow-Python3-master+VOC2007数据集。一、所需文件下载链接FasterR-CNN源码及操作步骤Github链接→Faster-RCNN-TensorFlow-Python3。Faster-RCNN-TensorFlow-Python3-master压缩包百度云盘链接... 查看详情
使用dota数据集训练fasterr-cnn模型(代码片段)
...7数据集上实现目标检测的详细步骤→Windows10+Faster-RCNN-TensorFlow-Python3-master+VOC2007数据集。一、所需文件下载链接FasterR-CNN源码及操作步骤Github链接→Faster-RCNN-TensorFlow-Python3。Faster-RCNN-TensorFlow-Python3-master压缩包百度云盘链接... 查看详情
使用nwpuvhr-10数据集训练fasterr-cnn模型(代码片段)
...7数据集上实现目标检测的详细步骤→Windows10+Faster-RCNN-TensorFlow-Python3-master+VOC2007数据集。一、所需文件下载链接FasterR-CNN源码及操作步骤Github链接→Faster-RCNN-TensorFlow-Python3。Faster-RCNN-TensorFlow-Python3-master压缩包百度云盘链接... 查看详情
使用预训练 (Tensorflow) CNN 提取特征
】使用预训练(Tensorflow)CNN提取特征【英文标题】:Extractfeaturesusingpre-trained(Tensorflow)CNN【发布时间】:2016-03-1412:16:35【问题描述】:深度学习已成功应用于多个大型数据集,用于对少数类别(猫、狗、汽车、飞机等)进行分类,... 查看详情
matlab深度学习采用fasterr-cnn实现车辆目标检测(代码片段)
本文展示了如何使用MATLAB训练FasterR-CNN目标检测器,实现对车辆的检测。本例使用一个包含295张图像的小标记数据集。每个图像包含一个或两个已标记的车辆目标。一个小的数据集对于探索FasterR-CNN训练过程是有用的,但... 查看详情
matlab深度学习采用fasterr-cnn实现车辆目标检测(代码片段)
本文展示了如何使用MATLAB训练FasterR-CNN目标检测器,实现对车辆的检测。本例使用一个包含295张图像的小标记数据集。每个图像包含一个或两个已标记的车辆目标。一个小的数据集对于探索FasterR-CNN训练过程是有用的,但... 查看详情
训练CNN模型图像分类期间的tensorflow NaN损失
】训练CNN模型图像分类期间的tensorflowNaN损失【英文标题】:tensorflowNaNlossduringtrainingCNNmodelimageclassification【发布时间】:2018-08-0300:26:15【问题描述】:我正在关注https://www.tensorflow.org/tutorials/layers上的CNNMnist教程,以完成我的个人... 查看详情
大数据集导致 CNN 训练超出 RAM
】大数据集导致CNN训练超出RAM【英文标题】:CNNtrainingoutofRAMcausebybigdataset【发布时间】:2022-01-1906:07:56【问题描述】:我有一个包含大约30000多张图像的大型图像数据集。当我训练模型时,我的系统内存不足,我不想对数据集进... 查看详情
在自己的数据集上训练 TensorFlow 对象检测
】在自己的数据集上训练TensorFlow对象检测【英文标题】:TrainTensorflowObjectDetectiononowndataset【发布时间】:2017-12-1121:27:26【问题描述】:在花了几天时间尝试完成这项任务后,我想分享一下我如何回答这个问题的经验:如何使用TS... 查看详情