第三十六节,目标检测之yolo源码解析(代码片段)

zyly zyly     2022-12-25     167

关键词:

在一个月前,我就已经介绍了yolo目标检测的原理,后来也把tensorflow实现代码仔细看了一遍。但是由于这个暑假事情比较大,就一直搁浅了下来,趁今天有时间,就把源码解析一下。关于yolo目标检测的原理请参考前面一篇文章:第三十五节,目标检测之YOLO算法详解

在讲解源码之前,我们需要做一些准备工作:

  1. 下载源码,本文所使用的yolo源码来源于网址:https://github.com/hizhangp/yolo_tensorflow
  2. 下载训练所使用的数据集,我们仍然使用以VOC 2012数据集为例,下载地址为:http://host.robots.ox.ac.uk/pascal/VOC/voc2012/VOCtrainval_11-May-2012.tar。
  3. yolo源码所在目录下,创建一个目录data,然后在data里面创建一个pascal_voc目录,用来保存与VOC 2012数据集相关的数据,我们把下载好的数据集解压到该目录下,如下图所示,其中VOCdevkit为数据集解压得到的文件,剩余三个文件夹我们先不用理会,后面会详细介绍技术分享图片
  4. 下载与训练模型,即YOLO_small文件,我们把下载好之后的文件解压放在weights文件夹下面。下载链接:https://drive.google.com/file/d/0B5aC8pI-akZUNVFZMmhmcVRpbTA/view?usp=sharing,需要FQ才能下载,可以使用自-由-门FQ软件。

    技术分享图片

  5. 根据自己的需求修改配置文件yolo/config.py。

  6. 运行train.py文件,开始训练。
  7. 运行test.py文件,开始测试。

 二  Yolo代码文件结构

如果你按照上面我说的步骤配置好文件之后,源代码结构就会如下图所示:

技术分享图片

我们来粗略的介绍一下每个文件的功能:

  • data文件夹,上面已经说过了,存放数据集以及训练时生成的模型,缓存文件。
  • test文件夹,用来存放测试时用到的图片。
  • utils文件夹,包含两个文件一个是pascal_voc.py,主要用来获取训练集图片文件,以及生成对应的标签文件,为yolo网络训练做准备。另一个文件是timer.py用来计时。
  • yolo文件夹,也包含两个文件,config.py包含yolo网络的配置参数,yolo_net.py文件包含yolo网络的结构。
  • train.py文件用来训练yolo网络。
  • test.py文件用来测试yolo网络。

三 config.py文件讲解

我们先从配置文件说起,代码如下:

# -*- coding: utf-8 -*-
"""
Created on Tue Jun 12 12:08:15 2018

@author: lenovo
"""

‘‘‘
配置参数
‘‘‘

import os


#
# 数据集路径,和模型检查点文件路径
#

DATA_PATH = data           #所有数据所在的根目录

PASCAL_PATH = os.path.join(DATA_PATH, pascal_voc)   #VOC2012数据集所在的目录

CACHE_PATH = os.path.join(PASCAL_PATH, cache)       #保存生成的数据集标签缓冲文件所在文件夹

OUTPUT_DIR = os.path.join(PASCAL_PATH, output)      #保存生成的网络模型和日志文件所在的文件夹

WEIGHTS_DIR = os.path.join(PASCAL_PATH, weights)    #检查点文件所在的目录

#WEIGHTS_FILE = None

WEIGHTS_FILE = os.path.join(WEIGHTS_DIR, YOLO_small.ckpt)

#VOC 2012数据集类别名
CLASSES = [aeroplane, bicycle, bird, boat, bottle, bus,
           car, cat, chair, cow, diningtable, dog, horse,
           motorbike, person, pottedplant, sheep, sofa,
           train, tvmonitor]
#使用水平镜像,扩大一倍数据集?
FLIPPED = True

‘‘‘
网络模型参数
‘‘‘

#图片大小
IMAGE_SIZE = 448

#单元格大小S  一共有CELL_SIZExCELL_SIZE个单元格  
CELL_SIZE = 7

#每个单元格边界框的个数B
BOXES_PER_CELL = 2
#泄露修正线性激活函数 系数
ALPHA = 0.1
#控制台输出信息
DISP_CONSOLE = False

#损失函数 的权重设置
OBJECT_SCALE = 1.0   #有目标时,置信度权重
NOOBJECT_SCALE = 1.0 #没有目标时,置信度权重
CLASS_SCALE = 2.0    #类别权重
COORD_SCALE = 5.0    #边界框权重



‘‘‘
训练参数设置
‘‘‘

GPU = ‘‘
#学习率
LEARNING_RATE = 0.0001
#退化学习率衰减步数
DECAY_STEPS = 30000
#衰减率
DECAY_RATE = 0.1
STAIRCASE = True
#批量大小
BATCH_SIZE = 45
#最大迭代次数
MAX_ITER = 15000
#日志文件保存间隔步
SUMMARY_ITER = 10
#模型保存间隔步
SAVE_ITER = 500


‘‘‘
测试时的相关参数
‘‘‘
#阈值参数
THRESHOLD = 0.2
#IoU 参数
IOU_THRESHOLD = 0.5

各个参数我已经在上面注释了,下面就不在重复了。下面我们来介绍yolo网络的构建。

四 yolo.py文件讲解

yolo网络的建立是通过yolo文件夹中的yolo_net.py文件的代码实现的,yolo_net.py文件定义了YOLONet类,该类包含了网路初始化(__init__()),建立网络(build_networks)和loss函数(loss_layer())等方法。

# -*- coding: utf-8 -*-
"""
Created on Tue Jun 12 12:08:15 2018

@author: lenovo
"""

‘‘‘
定义YOLO网络模型
https://blog.csdn.net/qq_34784753/article/details/78803423
https://blog.csdn.net/qq1483661204/article/details/79681926
‘‘‘

import numpy as np
import tensorflow as tf
import yolo.config as cfg
import logging
import sys

slim = tf.contrib.slim

#配置logging
logging.basicConfig(format=%(asctime)s %(levelname)s %(message)s,
                    level=logging.INFO,
                    stream=sys.stdout)

class YOLONet(object):

1、网络参数初始化

网络的所有初始化参数包含于__init__()方法中。

 

    def __init__(self, is_training=True):
        ‘‘‘
        构造函数 
        利用 cfg 文件对网络参数进行初始化,同时定义网络的输入和输出 size 等信息,
        其中 offset 的作用应该是一个定长的偏移
        boundery1和boundery2 作用是在输出中确定每种信息的长度(如类别,置信度等)。
        其中 boundery1 指的是对于所有的 cell 的类别的预测的张量维度,所以是 self.cell_size * self.cell_size * self.num_class
        boundery2 指的是在类别之后每个cell 所对应的 bounding boxes 的数量的总和,所以是self.boundary1 + self.cell_size * self.cell_size * self.boxes_per_cell
        
        args:
            is_training:训练?
        ‘‘‘
        #VOC 2012数据集类别名
        self.classes = cfg.CLASSES
        #类别个数C 20
        self.num_class = len(self.classes)
        #网络输入图像大小448, 448 x 448
        self.image_size = cfg.IMAGE_SIZE
        #单元格大小S=7  将图像分为SxS的格子
        self.cell_size = cfg.CELL_SIZE
        #每个网格边界框的个数B=2
        self.boxes_per_cell = cfg.BOXES_PER_CELL
        #网络输出的大小 S*S*(B*5 + C) = 1470
        self.output_size = (self.cell_size * self.cell_size) *            (self.num_class + self.boxes_per_cell * 5)
        #图片的缩放比例 64
        self.scale = 1.0 * self.image_size / self.cell_size        
        ‘‘‘#将网络输出分离为类别和置信度以及边界框的大小,输出维度为7*7*20 + 7*7*2 + 7*7*2*4=1470‘‘‘
        #7*7*20
        self.boundary1 = self.cell_size * self.cell_size * self.num_class
        #7*7*20+7*7*2
        self.boundary2 = self.boundary1 +            self.cell_size * self.cell_size * self.boxes_per_cell

        #代价函数 权重
        self.object_scale = cfg.OBJECT_SCALE  #1
        self.noobject_scale = cfg.NOOBJECT_SCALE  #1
        self.class_scale = cfg.CLASS_SCALE  #2.0
        self.coord_scale = cfg.COORD_SCALE  #5.0
        
        #学习率0.0001
        self.learning_rate = cfg.LEARNING_RATE
        #批大小 45
        self.batch_size = cfg.BATCH_SIZE
        #泄露修正线性激活函数 系数0.1
        self.alpha = cfg.ALPHA

        #偏置 形状[7,7,2]
        self.offset = np.transpose(np.reshape(np.array(
            [np.arange(self.cell_size)] * self.cell_size * self.boxes_per_cell),
            (self.boxes_per_cell, self.cell_size, self.cell_size)), (1, 2, 0))

        #输入图片占位符 [NONE,image_size,image_size,3]
        self.images = tf.placeholder(
            tf.float32, [None, self.image_size, self.image_size, 3],
            name=images)
        #构建网络 获取YOLO网络的输出(不经过激活函数的输出)  形状[None,1470]
        self.logits = self.build_network(
            self.images, num_outputs=self.output_size, alpha=self.alpha,
            is_training=is_training)

        if is_training:
            #设置标签占位符 [None,S,S,5+C]  即[None,7,7,25]
            self.labels = tf.placeholder(
                tf.float32,
                [None, self.cell_size, self.cell_size, 5 + self.num_class])
            #设置损失函数
            self.loss_layer(self.logits, self.labels)
            #加入权重正则化之后的损失函数
            self.total_loss = tf.losses.get_total_loss()
            #将损失以标量形式显示,该变量命名为total_loss
            tf.summary.scalar(total_loss, self.total_loss)

2、构建网络

网络的建立是通过build_network()函数实现的,网络由卷积层,池化层和全连接层组成,网络的输入维度是[None,448,448,3],输出维度为[None,1470]。

 def build_network(self,
                      images,
                      num_outputs,
                      alpha,
                      keep_prob=0.5,
                      is_training=True,
                      scope=yolo):
        ‘‘‘
        构建YOLO网络
        
        args:
            images:输入图片占位符 [None,image_size,image_size,3]  这里是[None,448,448,3]
            num_outputs:标量,网络输出节点数 1470
            alpha:泄露修正线性激活函数 系数0.1
            keep_prob:弃权 保留率
            is_training:训练?
            scope:命名空间名
            
        return:
            返回网络最后一层,激活函数处理之前的值  形状[None,1470]
        ‘‘‘
        #定义变量命名空间
        with tf.variable_scope(scope):
            #定义共享参数  使用l2正则化
            with slim.arg_scope(
                [slim.conv2d, slim.fully_connected],
                activation_fn=leaky_relu(alpha),
                weights_regularizer=slim.l2_regularizer(0.0005),
                weights_initializer=tf.truncated_normal_initializer(0.0, 0.01)
            ):
                logging.info(image shape0.format(images.shape))
                #pad_1 填充 454x454x3
                net = tf.pad(
                    images, np.array([[0, 0], [3, 3], [3, 3], [0, 0]]),
                    name=pad_1)
                logging.info(Layer pad_1  0.format(net.shape))
                #卷积层conv_2 s=2    (n-f+1)/s向上取整    224x224x64
                net = slim.conv2d(
                    net, 64, 7, 2, padding=VALID, scope=conv_2)         
                logging.info(Layer conv_2 0.format(net.shape))
                #池化层pool_3 112x112x64
                net = slim.max_pool2d(net, 2, padding=SAME, scope=pool_3)
                logging.info(Layer pool_3 0.format(net.shape))
                #卷积层conv_4、3x3x192 s=1  n/s向上取整   112x112x192
                net = slim.conv2d(net, 192, 3, scope=conv_4)
                logging.info(Layer conv_4 0.format(net.shape))
                #池化层pool_5 56x56x192
                net = slim.max_pool2d(net, 2, padding=SAME, scope=pool_5)
                logging.info(Layer pool_5 0.format(net.shape))
                #卷积层conv_6、1x1x128 s=1  n/s向上取整  56x56x128
                net = slim.conv2d(net, 128, 1, scope=conv_6)
                logging.info(Layer conv_6 0.format(net.shape))
                #卷积层conv_7、3x3x256 s=1  n/s向上取整 56x56x256
                net = slim.conv2d(net, 256, 3, scope=conv_7)
                logging.info(Layer conv_7 0.format(net.shape))
                #卷积层conv_8、1x1x256 s=1  n/s向上取整 56x56x256
                net = slim.conv2d(net, 256, 1, scope=conv_8)
                logging.info(Layer conv_8 0.format(net.shape))
                #卷积层conv_9、3x3x512 s=1  n/s向上取整 56x56x512
                net = slim.conv2d(net, 512, 3, scope=conv_9)
                logging.info(Layer conv_9 0.format(net.shape))
                #池化层pool_10 28x28x512
                net = slim.max_pool2d(net, 2, padding=SAME, scope=pool_10)
                logging.info(Layer pool_10 0.format(net.shape))
                #卷积层conv_11、1x1x256 s=1  n/s向上取整 28x28x256
                net = slim.conv2d(net, 256, 1, scope=conv_11)
                logging.info(Layer conv_11 0.format(net.shape))
                #卷积层conv_12、3x3x512 s=1  n/s向上取整 28x28x512
                net = slim.conv2d(net, 512, 3, scope=conv_12)
                logging.info(Layer conv_12 0.format(net.shape))
                #卷积层conv_13、1x1x256 s=1  n/s向上取整 28x28x256
                net = slim.conv2d(net, 256, 1, scope=conv_13)
                logging.info(Layer conv_13 0.format(net.shape))
                #卷积层conv_14、3x3x512 s=1  n/s向上取整 28x28x512
                net = slim.conv2d(net, 512, 3, scope=conv_14)
                logging.info(Layer conv_14 0.format(net.shape))
                #卷积层conv_15、1x1x256 s=1  n/s向上取整 28x28x256
                net = slim.conv2d(net, 256, 1, scope=conv_15)
                logging.info(Layer conv_15 0.format(net.shape))                
                #卷积层conv_16、3x3x512 s=1  n/s向上取整 28x28x512
                net = slim.conv2d(net, 512, 3, scope=conv_16)
                logging.info(Layer conv_16 0.format(net.shape))
                #卷积层conv_17、1x1x256 s=1  n/s向上取整 28x28x256
                net = slim.conv2d(net, 256, 1, scope=conv_17)
                logging.info(Layer conv_17 0.format(net.shape))                
                #卷积层conv_18、3x3x512 s=1  n/s向上取整 28x28x512
                net = slim.conv2d(net, 512, 3, scope=conv_18)
                logging.info(Layer conv_18 0.format(net.shape))
                #卷积层conv_19、1x1x512 s=1  n/s向上取整 28x28x512
                net = slim.conv2d(net, 512, 1, scope=conv_19)
                logging.info(Layer conv_19 0.format(net.shape))
                #卷积层conv_20、3x3x1024 s=1  n/s向上取整 28x28x1024
                net = slim.conv2d(net, 1024, 3, scope=conv_20)
                logging.info(Layer conv_20 0.format(net.shape))
                #池化层pool_21 14x14x1024
                net = slim.max_pool2d(net, 2, padding=SAME, scope=pool_21)
                logging.info(Layer pool_21 0.format(net.shape))
                #卷积层conv_22、1x1x512 s=1  n/s向上取整 14x14x512
                net = slim.conv2d(net, 512, 1, scope=conv_22)
                logging.info(Layer conv_22 0.format(net.shape))
                #卷积层conv_23、3x3x1024 s=1  n/s向上取整 14x14x1024
                net = slim.conv2d(net, 1024, 3, scope=conv_23)
                logging.info(Layer conv_23 0.format(net.shape))
                #卷积层conv_24、1x1x512 s=1  n/s向上取整 14x14x512
                net = slim.conv2d(net, 512, 1, scope=conv_24)
                logging.info(Layer conv_24 0.format(net.shape))
                #卷积层conv_25、3x3x1024 s=1  n/s向上取整 14x14x1024
                net = slim.conv2d(net, 1024, 3, scope=conv_25)
                logging.info(Layer conv_25 0.format(net.shape))
                #卷积层conv_26、3x3x1024 s=1  n/s向上取整 14x14x1024
                net = slim.conv2d(net, 1024, 3, scope=conv_26)
                logging.info(Layer conv_26 0.format(net.shape))
                #pad_27 填充 16x16x2014
                net = tf.pad(
                    net, np.array([[0, 0], [1, 1], [1, 1], [0, 0]]),
                    name=pad_27)
                logging.info(Layer pad_27 0.format(net.shape))
                #卷积层conv_28、3x3x1024 s=2  (n-f+1)/s向上取整 7x7x1024
                net = slim.conv2d(
                    net, 1024, 3, 2, padding=VALID, scope=conv_28)
                logging.info(Layer conv_28 0.format(net.shape))
                #卷积层conv_29、3x3x1024 s=1  n/s向上取整 7x7x1024
                net = slim.conv2d(net, 1024, 3, scope=conv_29)
                logging.info(Layer conv_29 0.format(net.shape))
                #卷积层conv_30、3x3x1024 s=1  n/s向上取整 7x7x1024
                net = slim.conv2d(net, 1024, 3, scope=conv_30)
                logging.info(Layer conv_30 0.format(net.shape))
                #trans_31 转置[None,1024,7,7]
                net = tf.transpose(net, [0, 3, 1, 2], name=trans_31)
                logging.info(Layer trans_31 0.format(net.shape))
                #flat_32 展开 50176
                net = slim.flatten(net, scope=flat_32)
                logging.info(Layer flat_32 0.format(net.shape))
                #全连接层fc_33  512
                net = slim.fully_connected(net, 512, scope=fc_33)
                logging.info(Layer fc_33 0.format(net.shape))
                #全连接层fc_34  4096
                net = slim.fully_connected(net, 4096, scope=fc_34)
                logging.info(Layer fc_34 0.format(net.shape))
                #弃权层dropout_35 4096
                net = slim.dropout(
                    net, keep_prob=keep_prob, is_training=is_training,
                    scope=dropout_35)
                logging.info(Layer dropout_35 0.format(net.shape))
                #全连接层fc_36 1470
                net = slim.fully_connected(
                    net, num_outputs, activation_fn=None, scope=fc_36)
                logging.info(Layer fc_36 0.format(net.shape))
        return net

3、代价函数

代价函数是通过loss_layer()实现的,在代码中,我们优化以下多部分损失函数:

技术分享图片

def loss_layer(self, predicts, labels, scope=loss_layer):
        ‘‘‘
        计算预测和标签之间的损失函数
        
        args:
            predicts:Yolo网络的输出 形状[None,1470]  
                      0:7*7*20:表示预测类别   
                      7*7*20:7*7*20 + 7*7*2:表示预测置信度,即预测的边界框与实际边界框之间的IOU
                      7*7*20 + 7*7*2:1470:预测边界框    目标中心是相对于当前格子的,宽度和高度的开根号是相对当前整张图像的(归一化的)
            labels:标签值 形状[None,7,7,25]
                      0:1:置信度,表示这个地方是否有目标
                      1:5:目标边界框  目标中心,宽度和高度(没有归一化)
                      5:25:目标的类别
        ‘‘‘
        with tf.variable_scope(scope):
            ‘‘‘#将网络输出分离为类别和置信度以及边界框的大小,输出维度为7*7*20 + 7*7*2 + 7*7*2*4=1470‘‘‘
            #预测每个格子目标的类别 形状[45,7,7,20]
            predict_classes = tf.reshape(
                predicts[:, :self.boundary1],
                [self.batch_size, self.cell_size, self.cell_size, self.num_class])
            #预测每个格子中两个边界框的置信度 形状[45,7,7,2]
            predict_scales = tf.reshape(
                predicts[:, self.boundary1:self.boundary2],
                [self.batch_size, self.cell_size, self.cell_size, self.boxes_per_cell])
            #预测每个格子中的两个边界框,(x,y)表示边界框相对于格子边界框的中心 w,h的开根号相对于整个图片  形状[45,7,7,2,4]
            predict_boxes = tf.reshape(
                predicts[:, self.boundary2:],
                [self.batch_size, self.cell_size, self.cell_size, self.boxes_per_cell, 4])

            #标签的置信度,表示这个地方是否有框 形状[45,7,7,1]
            response = tf.reshape(
                labels[..., 0],
                [self.batch_size, self.cell_size, self.cell_size, 1])
            #标签的边界框 (x,y)表示边界框相对于整个图片的中心 形状[45,7,7,1,4]
            boxes = tf.reshape(
                labels[..., 1:5],
                [self.batch_size, self.cell_size, self.cell_size, 1, 4])
            #标签的边界框 归一化后 张量沿着axis=3重复两边,扩充后[45,7,7,2,4]
            boxes = tf.tile(
                boxes, [1, 1, 1, self.boxes_per_cell, 1]) / self.image_size
            classes = labels[..., 5:]

            ‘‘‘
            predict_boxes_tran:offset变量用于把预测边界框predict_boxes中的坐标中心(x,y)由相对当前格子转换为相对当前整个图片
            
            offset,这个是构造的[7,7,2]矩阵,每一行都是[7,2]的矩阵,值为[[0,0],[1,1],[2,2],[3,3],[4,4],[5,5],[6,6]]
            这个变量是为了将每个cell的坐标对齐,后一个框比前一个框要多加1
            比如我们预测了cell_size的每个中心点坐标,那么我们这个中心点落在第几个cell_size
            就对应坐标要加几,这个用法比较巧妙,构造了这样一个数组,让他们对应位置相加
            ‘‘‘
            #offset shape为[1,7,7,2]  如果忽略axis=0,则每一行都是  [[0,0],[1,1],[2,2],[3,3],[4,4],[5,5],[6,6]]
            offset = tf.reshape(
                tf.constant(self.offset, dtype=tf.float32),
                [1, self.cell_size, self.cell_size, self.boxes_per_cell])
            #shape为[45,7,7,2]
            offset = tf.tile(offset, [self.batch_size, 1, 1, 1])
            #shape为[45,7,7,2]  如果忽略axis=0 第i行为[[i,i],[i,i],[i,i],[i,i],[i,i],[i,i],[i,i]]
            offset_tran = tf.transpose(offset, (0, 2, 1, 3))
            #shape为[45,7,7,2,4]  计算每个格子中的预测边界框坐标(x,y)相对于整个图片的位置  而不是相对当前格子
            #假设当前格子为(3,3),当前格子的预测边界框为(x0,y0),则计算坐标(x,y) = ((x0,y0)+(3,3))/7
            predict_boxes_tran = tf.stack(
                [(predict_boxes[..., 0] + offset) / self.cell_size,         #x
                 (predict_boxes[..., 1] + offset_tran) / self.cell_size,    #y
                 tf.square(predict_boxes[..., 2]),                          #width
                 tf.square(predict_boxes[..., 3])], axis=-1)                #height

            #计算每个格子预测边界框与真实边界框之间的IOU  [45,7,7,2]
            iou_predict_truth = self.calc_iou(predict_boxes_tran, boxes)

            # calculate I tensor [BATCH_SIZE, CELL_SIZE, CELL_SIZE, BOXES_PER_CELL]  
            #这个是求论文中的1ijobj参数,[45,7,7,2]     1ijobj:表示网格单元i的第j个编辑框预测器’负责‘该预测
            #先计算每个框交并比最大的那个,因为我们知道,YOLO每个格子预测两个边界框,一个类别。在训练时,每个目标只需要
            #一个预测器来负责,我们指定一个预测器"负责",根据哪个预测器与真实值之间具有当前最高的IOU来预测目标。
            #所以object_mask就表示每个格子中的哪个边界框负责该格子中目标预测?哪个边界框取值为1,哪个边界框就负责目标预测
            #当格子中的确有目标时,取值为[1,1],[1,0],[0,1]
            #比如某一个格子的值为[1,0],表示第一个边界框负责该格子目标的预测  [0,1]:表示第二个边界框负责该格子目标的预测
            #当格子没有目标时,取值为[0,0]
            object_mask = tf.reduce_max(iou_predict_truth, 3, keep_dims=True)            
            object_mask = tf.cast(
                (iou_predict_truth >= object_mask), tf.float32) * response

            # calculate no_I tensor [CELL_SIZE, CELL_SIZE, BOXES_PER_CELL]
            # noobject_mask就表示每个边界框不负责该目标的置信度,
            #使用tf.onr_like,使得全部为1,再减去有目标的,也就是有目标的对应坐标为1,这样一减,就变为没有的了。[45,7,7,2]
            noobject_mask = tf.ones_like(
                object_mask, dtype=tf.float32) - object_mask

            # boxes_tran 这个就是把之前的坐标换回来(相对整个图像->相对当前格子),长和宽开方(原因在论文中有说明),后面求loss就方便。 shape为(4, 45, 7, 7, 2)
            boxes_tran = tf.stack(
                [boxes[..., 0] * self.cell_size - offset,
                 boxes[..., 1] * self.cell_size - offset_tran,
                 tf.sqrt(boxes[..., 2]),
                 tf.sqrt(boxes[..., 3])], axis=-1)

            #class_loss 分类损失,如果目标出现在网格中 response为1,否则response为0  原文代价函数公式第5项
            #该项表名当格子中有目标时,预测的类别越接近实际类别,代价值越小  原文代价函数公式第5项
            class_delta = response * (predict_classes - classes)
            class_loss = tf.reduce_mean(
                tf.reduce_sum(tf.square(class_delta), axis=[1, 2, 3]),
                name=class_loss) * self.class_scale

            # object_loss 有目标物体存在的置信度预测损失   原文代价函数公式第3项
            #该项表名当格子中有目标时,负责该目标预测的边界框的置信度越越接近预测的边界框与实际边界框之间的IOU时,代价值越小
            object_delta = object_mask * (predict_scales - iou_predict_truth)
            object_loss = tf.reduce_mean(
                tf.reduce_sum(tf.square(object_delta), axis=[1, 2, 3]),
                name=object_loss) * self.object_scale

            #noobject_loss  没有目标物体存在的置信度的损失(此时iou_predict_truth为0)  原文代价函数公式第4项
            #该项表名当格子中没有目标时,预测的两个边界框的置信度越接近0,代价值越小
            noobject_delta = noobject_mask * predict_scales
            noobject_loss = tf.reduce_mean(
                tf.reduce_sum(tf.square(noobject_delta), axis=[1, 2, 3]),
                name=noobject_loss) * self.noobject_scale

            # coord_loss 边界框坐标损失 shape 为 [batch_size, 7, 7, 2, 1]  原文代价函数公式1,2项
            #该项表名当格子中有目标时,预测的边界框越接近实际边界框,代价值越小
            coord_mask = tf.expand_dims(object_mask, 4)                 #1ij
            boxes_delta = coord_mask * (predict_boxes - boxes_tran)
            coord_loss = tf.reduce_mean(
                tf.reduce_sum(tf.square(boxes_delta), axis=[1, 2, 3, 4]),
                name=coord_loss) * self.coord_scale

            #将所有损失放在一起
            tf.losses.add_loss(class_loss)
            tf.losses.add_loss(object_loss)
            tf.losses.add_loss(noobject_loss)
            tf.losses.add_loss(coord_loss)

            # 将每个损失添加到日志记录
            tf.summary.scalar(class_loss, class_loss)
            tf.summary.scalar(object_loss, object_loss)
            tf.summary.scalar(noobject_loss, noobject_loss)
            tf.summary.scalar(coord_loss, coord_loss)

            tf.summary.histogram(boxes_delta_x, boxes_delta[..., 0])
            tf.summary.histogram(boxes_delta_y, boxes_delta[..., 1])
            tf.summary.histogram(boxes_delta_w, boxes_delta[..., 2])
            tf.summary.histogram(boxes_delta_h, boxes_delta[..., 3])
            tf.summary.histogram(iou, iou_predict_truth)

在计算代价函数时,我们需要计算预测的box与实际边界框之间的IOU。其代码如下:

   def calc_iou(self, boxes1, boxes2, scope=iou):
        """calculate ious
        这个函数的主要作用是计算两个 bounding box 之间的 IoU。输入是两个 5 维的bounding box,输出的两个 bounding Box 的IoU 
        
        Args:          
          boxes1: 5-D tensor [BATCH_SIZE, CELL_SIZE, CELL_SIZE, BOXES_PER_CELL, 4]  ====> (x_center, y_center, w, h)
          boxes2: 5-D tensor [BATCH_SIZE, CELL_SIZE, CELL_SIZE, BOXES_PER_CELL, 4] ===> (x_center, y_center, w, h)
          注意这里的参数x_center, y_center, w, h都是归一到[0,1]之间的,分别表示预测边界框的中心相对整张图片的坐标,宽和高
        Return:
          iou: 4-D tensor [BATCH_SIZE, CELL_SIZE, CELL_SIZE, BOXES_PER_CELL]
        """
        with tf.variable_scope(scope):
            # transform (x_center, y_center, w, h) to (x1, y1, x2, y2)            
            #把以前的中心点坐标和长和宽转换成了左上角和右下角的两个点的坐标
            boxes1_t = tf.stack([boxes1[..., 0] - boxes1[..., 2] / 2.0,   #左上角x
                                 boxes1[..., 1] - boxes1[..., 3] / 2.0,   #左上角y
                                 boxes1[..., 0] + boxes1[..., 2] / 2.0,   #右下角x
                                 boxes1[..., 1] + boxes1[..., 3] / 2.0],  #右下角y
                                axis=-1)

            boxes2_t = tf.stack([boxes2[..., 0] - boxes2[..., 2] / 2.0,
                                 boxes2[..., 1] - boxes2[..., 3] / 2.0,
                                 boxes2[..., 0] + boxes2[..., 2] / 2.0,
                                 boxes2[..., 1] + boxes2[..., 3] / 2.0],
                                axis=-1)

            # calculate the left up point & right down point
            #lu和rd就是分别求两个框相交的矩形的左上角的坐标和右下角的坐标,因为对于左上角,
            #选择的是x和y较大的,而右下角是选择较小的,可以想想两个矩形框相交是不是这中情况
            lu = tf.maximum(boxes1_t[..., :2], boxes2_t[..., :2])       #两个框相交的矩形的左上角(x1,y1)
            rd = tf.minimum(boxes1_t[..., 2:], boxes2_t[..., 2:])       #两个框相交的矩形的右下角(x2,y2)

            # intersection 这个就是求相交矩形的长和宽,所以有rd-ru,相当于x1-x2和y1-y2,
            #之所以外面还要加一个tf.maximum是因为删除那些不合理的框,比如两个框没交集,
            #就会出现左上角坐标比右下角还大。
            intersection = tf.maximum(0.0, rd - lu)
            #inter_square这个就是求面积了,就是长乘以宽。
            inter_square = intersection[..., 0] * intersection[..., 1]

            # calculate the boxs1 square and boxs2 square 
            #square1和square2这个就是求面积了,因为之前是中心点坐标和长和宽,所以这里直接用长和宽
            square1 = boxes1[..., 2] * boxes1[..., 3]
            square2 = boxes2[..., 2] * boxes2[..., 3]

            #union_square就是就两个框的交面积,因为如果两个框的面积相加,那就会重复了相交的部分,
            #所以减去相交的部分,外面有个tf.maximum这个就是保证相交面积不为0,因为后面要做分母。
            union_square = tf.maximum(square1 + square2 - inter_square, 1e-10)

        #最后有一个tf.clip_by_value,这个是将如果你的交并比大于1,那么就让它等于1,如果小于0,那么就
        #让他变为0,因为交并比在0-1之间。
        return tf.clip_by_value(inter_square / union_square, 0.0, 1.0)

 4、其他函数

漏泄修正线性激活:

 

#def leaky_relu(alpha):
    ‘‘‘
    激活函数
    ‘‘‘
    #def op(inputs):
     #   return tf.nn.leaky_relu(inputs, alpha=alpha, name=‘leaky_relu‘)
    #return op

def leaky_relu(alpha):
    def op(inputs):
        with tf.variable_scope(leaky_relu):
         f1 = 0.5 * (1 + alpha)
         f2 = 0.5 * (1 - alpha)
         return f1 * inputs + f2 * tf.abs(inputs)  
    return op

 

五 读取数据pascal_voc.py文件解析

我们在YOLENet类中定义了两个占位符,一个是输入图片占位符,一个是图片对应的标签占位符,如下:

        #输入图片占位符 [NONE,image_size,image_size,3]
        self.images = tf.placeholder(
            tf.float32, [None, self.image_size, self.image_size, 3],
            name=images)
        #设置标签占位符 [None,S,S,5+C]  即[None,7,7,25]
        self.labels = tf.placeholder(
            tf.float32,
            [None, self.cell_size, self.cell_size, 5 + self.num_class])        

而pascal_voc.py文件的目的就是为了准备数据,赋值给占位符。在pascal_voc.py文件中定义了一个pascal_voc,该类包含了类初始化函数(__init__()),准备数据函数(prepare()),读取batch大小的图片以及图片对应的标签(get())等函数。

import os
import xml.etree.ElementTree as ET
import numpy as np
import cv2
import pickle
import copy
import yolo.config as cfg


‘‘‘
VOC2012数据集处理
‘‘‘

class pascal_voc(object):

1、类初始化函数

‘‘‘
VOC2012数据集处理
‘‘‘

class pascal_voc(object):
    ‘‘‘
    VOC2012数据集处理的类,主要用来获取训练集图片文件,以及生成对应的标签文件
    ‘‘‘
    def __init__(self, phase, rebuild=False):
        ‘‘‘
        准备训练或者测试的数据
        
        args:
            phase:传入字符串 ‘train‘:表示训练
                              ‘test‘:测试
            rebuild:是否重新创建数据集的标签文件,保存在缓存文件夹下
        ‘‘‘
        #VOCdevkit文件夹路径
        self.devkil_path = os.path.join(cfg.PASCAL_PATH, VOCdevkit)
        #VOC2012文件夹路径
        self.data_path = os.path.join(self.devkil_path, VOC2012)
        #catch文件所在路径
        self.cache_path = cfg.CACHE_PATH
        #批大小
        self.batch_size = cfg.BATCH_SIZE
        #图像大小
        self.image_size = cfg.IMAGE_SIZE
        #单元格大小S
        self.cell_size = cfg.CELL_SIZE
        #VOC 2012数据集类别名
        self.classes = cfg.CLASSES
        #类别名->索引的dict
        self.class_to_ind = dict(zip(self.classes, range(len(self.classes))))
        ##图片是否采用水平镜像扩充训练集?
        self.flipped = cfg.FLIPPED
        #训练或测试?
        self.phase = phase
        #是否重新创建数据集标签文件
        self.rebuild = rebuild
        #从gt_labels加载数据,cursor表明当前读取到第几个
        self.cursor = 0
        #存放当前训练的轮数
        self.epoch = 1
        #存放数据集的标签 是一个list 每一个元素都是一个dict,对应一个图片 
        #如果我们在配置文件中指定flipped=True,则数据集会扩充一倍,每一张原始图片都有一个水平对称的镜像文件
        #      imname:图片路径 
        #      label:图片标签
        #      flipped:图片水平镜像?
        self.gt_labels = None
        #加载数据集标签  初始化gt_labels
        self.prepare()

2、prepare()所有数据准备函数

prepare()函数调用load_labels()函数,加载所有数据集的标签,保存在遍历gt_labels集合中,如果在配置文件中指定了水平镜像,则追加一倍的训练数据集。

    def prepare(self):
        ‘‘‘
        初始化数据集的标签,保存在变量gt_labels中
        
        return:
            gt_labels:返回数据集的标签 是一个list  每一个元素对应一张图片,是一个dict                       
                                     imname:图片文件路径
                                     label:图片文件对应的标签 [7,7,25]的矩阵
                                     flipped:是否使用水平镜像? 设置为False
        ‘‘‘
        #加载数据集的标签
        gt_labels = self.load_labels()
        #如果水平镜像,则追加一倍的训练数据集
        if self.flipped:
            print(Appending horizontally-flipped training examples ...)
            #深度拷贝
            gt_labels_cp = copy.deepcopy(gt_labels)
            #遍历每一个图片标签
            for idx in range(len(gt_labels_cp)):
                #设置flipped属性为True
                gt_labels_cp[idx][flipped] = True
                #目标所在格子也进行水平镜像 [7,7,25]
                gt_labels_cp[idx][label] =                    gt_labels_cp[idx][label][:, ::-1, :]
                for i in range(self.cell_size):
                    for j in range(self.cell_size):
                        #置信度==1,表示这个格子有目标
                        if gt_labels_cp[idx][label][i, j, 0] == 1:
                            #中心的x坐标水平镜像
                            gt_labels_cp[idx][label][i, j, 1] =                                 self.image_size - 1 -                                gt_labels_cp[idx][label][i, j, 1]
            #追加数据集的标签   后面的是由原数据集标签扩充的水平镜像数据集标签
            gt_labels += gt_labels_cp
        #打乱数据集的标签
        np.random.shuffle(gt_labels)
        self.gt_labels = gt_labels
        return gt_labels

3、get()批量数据读取函数

get()函数用在训练的时候,每次从gt_labels集合随机读取batch大小的图片以及图片对应的标签。

    def get(self):
        ‘‘‘
        加载数据集 每次读取batch大小的图片以及图片对应的标签
        
        return:
            images:读取到的图片数据 [45,448,448,3]
            labels:对应的图片标签 [45,7,7,25]
        ‘‘‘
        #[45,448,448,3]
        images = np.zeros(
            (self.batch_size, self.image_size, self.image_size, 3))
        #[45,7,7,25]
        labels = np.zeros(
            (self.batch_size, self.cell_size, self.cell_size, 25))
        count = 0
        #一次加载batch_size个图片数据
        while count < self.batch_size:
            #获取图片路径
            imname = self.gt_labels[self.cursor][imname]
            #是否使用水平镜像?
            flipped = self.gt_labels[self.cursor][flipped]
            #读取图片数据
            images[count, :, :, :] = self.image_read(imname, flipped)
            #读取图片标签
            labels[count, :, :, :] = self.gt_labels[self.cursor][label]
            count += 1
            self.cursor += 1
            #如果读取完一轮数据,则当前cursor置为0,当前训练轮数+1
            if self.cursor >= len(self.gt_labels):
                #打乱数据集
                np.random.shuffle(self.gt_labels)
                self.cursor = 0                
                self.epoch += 1
        return images, labels

4、image_read()函数读取图片

图片读取函数,先读取图片,然后缩放,转换为RGB格式,再对数据进行归一化处理。

    def image_read(self, imname, flipped=False):
        ‘‘‘
        读取图片
        
        args:
            imname:图片路径
            flipped:图片是否水平镜像处理? 
            
        return:
            image:图片数据 [448,448,3]
        ‘‘‘
        #读取图片数据
        image = cv2.imread(imname)
        #缩放处理
        image = cv2.resize(image, (self.image_size, self.image_size))
        #BGR->RGB  uint->float32
        image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB).astype(np.float32)
        #归一化处理 [-1.0,1.0]
        image = (image / 255.0) * 2.0 - 1.0
        #宽倒序  即水平镜像
        if flipped:
            image = image[:, ::-1, :]
        return image

5、load_labels()加载标签函数

    def load_labels(self):
        ‘‘‘
        加载数据集标签
        
        return:
            gt_labels:是一个list  每一个元素对应一张图片,是一个dict                       
                                     imname:图片文件路径
                                     label:图片文件对应的标签 [7,7,25]的矩阵
                                     flipped:是否使用水平镜像? 设置为False   
        ‘‘‘
        #缓冲文件名:即用来保存数据集标签的文件
        cache_file = os.path.join(
            self.cache_path, pascal_ + self.phase + _gt_labels.pkl)

        #文件存在,且不重新创建则直接读取
        if os.path.isfile(cache_file) and not self.rebuild:
            print(Loading gt_labels from:  + cache_file)
            with open(cache_file, rb) as f:
                gt_labels = pickle.load(f)
            return gt_labels

        print(Processing gt_labels from:  + self.data_path)

        #如果缓冲文件目录不存在,创建
        if not os.path.exists(self.cache_path):
            os.makedirs(self.cache_path)
            
        #获取训练测试集的数据文件名
        if self.phase == train:
            txtname = os.path.join(
                self.data_path, ImageSets, Main, trainval.txt)
        #获取测试集的数据文件名
        else:
            txtname = os.path.join(
                self.data_path, ImageSets, Main, test.txt)
        with open(txtname, r) as f:
            self.image_index = [x.strip() for x in f.readlines()]

        #存放图片的标签,图片路径,是否使用水平镜像?
        gt_labels = []
        #遍历每一张图片的信息
        for index in self.image_index:
            #读取每一张图片的标签label [7,7,25]
            label, num = self.load_pascal_annotation(index)
            if num == 0:
                continue
            #图片文件路径
            imname = os.path.join(self.data_path, JPEGImages, index + .jpg)
            #保存该图片的信息
            gt_labels.append(imname: imname,
                              label: label,
                              flipped: False)
        print(Saving gt_labels to:  + cache_file)
        #保存
        with open(cache_file, wb) as f:
            pickle.dump(gt_labels, f)
        return gt_labels

6、load_pascal_annotation()函数

    def load_pascal_annotation(self, index):
        """
        Load image and bounding boxes info from XML file in the PASCAL VOC
        format.
        
        args:
            index:图片文件的index
            
        return :
            label:标签 [7,7,25] 
                      0:1:置信度,表示这个地方是否有目标
                      1:5:目标边界框  目标中心,宽度和高度(这里是实际值,没有归一化)
                      5:25:目标的类别
            len(objs):objs对象长度
        """
        #获取图片文件名路径
        imname = os.path.join(self.data_path, JPEGImages, index + .jpg)
        #读取数据
        im = cv2.imread(imname)
        #宽和高缩放比例
        h_ratio = 1.0 * self.image_size / im.shape[0]
        w_ratio = 1.0 * self.image_size / im.shape[1]
        # im = cv2.resize(im, [self.image_size, self.image_size])
        #用于保存图片文件的标签
        label = np.zeros((self.cell_size, self.cell_size, 25))
        #图片文件的标注xml文件
        filename = os.path.join(self.data_path, Annotations, index + .xml)
        tree = ET.parse(filename)
        objs = tree.findall(object)

        for obj in objs:
            bbox = obj.find(bndbox)
            # Make pixel indexes 0-based  当图片缩放到image_size时,边界框也进行同比例缩放
            x1 = max(min((float(bbox.find(xmin).text) - 1) * w_ratio, self.image_size - 1), 0)
            y1 = max(min((float(bbox.find(ymin).text) - 1) * h_ratio, self.image_size - 1), 0)
            x2 = max(min((float(bbox.find(xmax).text) - 1) * w_ratio, self.image_size - 1), 0)
            y2 = max(min((float(bbox.find(ymax).text) - 1) * h_ratio, self.image_size - 1), 0)
            #根据图片的分类名 ->类别index 转换
            cls_ind = self.class_to_ind[obj.find(name).text.lower().strip()]
            #计算边框中心点x,y,w,h(没有归一化)
            boxes = [(x2 + x1) / 2.0, (y2 + y1) / 2.0, x2 - x1, y2 - y1]
            #计算当前物体的中心在哪个格子中
            x_ind = int(boxes[0] * self.cell_size / self.image_size)
            y_ind = int(boxes[1] * self.cell_size / self.image_size)
            #表明该图片已经初始化过了
            if label[y_ind, x_ind, 0] == 1:
                continue
            #置信度,表示这个地方有物体
            label[y_ind, x_ind, 0] = 1
            #物体边界框
            label[y_ind, x_ind, 1:5] = boxes
            #物体的类别
            label[y_ind, x_ind, 5 + cls_ind] = 1

        return label, len(objs)

六 训练网络

模型训练包含于train.py文件,Solver类的train()方法之中,训练部分只需要看懂了初始化参数,整个结构就很清晰了。

import os
import argparse
import datetime
import tensorflow as tf
import yolo.config as cfg
from yolo.yolo_net import YOLONet
from utils.timer import Timer
from utils.pascal_voc import pascal_voc

slim = tf.contrib.slim

‘‘‘
用来训练YOLO网络模型
‘‘‘

class Solver(object):
    ‘‘‘
    求解器的类,用于训练YOLO网络
    ‘‘‘

1、类初始化函数

   def __init__(self, net, data):
        ‘‘‘
        构造函数,加载训练参数
        
        args:
            net:YOLONet对象
            data:pascal_voc对象
        ‘‘‘
        #yolo网络
        self.net = net
        #voc2012数据处理
        self.data = data
        #检查点文件路径
        self.weights_file = cfg.WEIGHTS_FILE
        #训练最大迭代次数
        self.max_iter = cfg.MAX_ITER
        #初始学习率
        self.initial_learning_rate = cfg.LEARNING_RATE
        ##退化学习率衰减步数
        self.decay_steps = cfg.DECAY_STEPS
        #衰减率
        self.decay_rate = cfg.DECAY_RATE
        self.staircase = cfg.STAIRCASE
        ##日志文件保存间隔步
        self.summary_iter = cfg.SUMMARY_ITER
        ##模型保存间隔步
        self.save_iter = cfg.SAVE_ITER
        
        #输出文件夹路径
        self.output_dir = os.path.join(
            cfg.OUTPUT_DIR, datetime.datetime.now().strftime(%Y_%m_%d_%H_%M))
        if not os.path.exists(self.output_dir):
            os.makedirs(self.output_dir)
        #保存配置信息
        self.save_cfg()
        #指定保存的张量 这里指定所有变量
        self.variable_to_restore = tf.global_variables()        
        self.saver = tf.train.Saver(self.variable_to_restore, max_to_keep=None)
        #指定保存的模型名称
        self.ckpt_file = os.path.join(self.output_dir, yolo.cpkt)
        #合并所有的summary
        self.summary_op = tf.summary.merge_all()
        #创建writer,指定日志文件路径,用于写日志文件
        self.writer = tf.summary.FileWriter(self.output_dir, flush_secs=60)

        #创建变量,保存当前迭代次数
        self.global_step = tf.train.create_global_step()
        #退化学习率
        self.learning_rate = tf.train.exponential_decay(
            self.initial_learning_rate, self.global_step, self.decay_steps,
            self.decay_rate, self.staircase, name=learning_rate)
        #创建求解器
        self.optimizer = tf.train.GradientDescentOptimizer(
            learning_rate=self.learning_rate)
        # create_train_op that ensures that when we evaluate it to get the loss,
        # the update_ops are done and the gradient updates are computed.
        self.train_op = slim.learning.create_train_op(
            self.net.total_loss, self.optimizer, global_step=self.global_step)

        #设置GPU使用资源
        gpu_options = tf.GPUOptions()
        #按需分配GPU使用的资源
        config = tf.ConfigProto(gpu_options=gpu_options)
        self.sess = tf.Session(config=config)
        
        #运行图之前,初始化变量
        self.sess.run(tf.global_variables_initializer())

        #恢复模型
        if self.weights_file is not None:
            print(Restoring weights from:  + self.weights_file)
            self.saver.restore(self.sess, self.weights_file)

        #将图写入日志文件
        self.writer.add_graph(self.sess.graph)

 2、train()训练函数

 def train(self):
        ‘‘‘
        开始训练
        ‘‘‘
        #训练时间
        train_timer = Timer()
        #数据集加载时间
        load_timer = Timer()

        #开始迭代
        for step in range(1, self.max_iter + 1):
            #计算每次迭代加载数据的起始时间
            load_timer.tic()
            #加载数据集 每次读取batch大小的图片以及图片对应的标签
            images, labels = self.data.get()
            #计算这次迭代加载数据集所使用的时间
            load_timer.toc()
            
            feed_dict = self.net.images: images,
                         self.net.labels: labels

            #迭代summary_iter次,保存一次日志文件,迭代summary_iter*10次,输出一次的迭代信息
            if step % self.summary_iter == 0:
                if step % (self.summary_iter * 10) == 0:
                    #计算每次迭代训练的起始时间
                    train_timer.tic()
                    loss = 0.0001  
                    #开始迭代训练,每一次迭代后global_step自加1
                    summary_str, loss, _ = self.sess.run(
                        [self.summary_op, self.net.total_loss, self.train_op],
                        feed_dict=feed_dict)
                    #输出信息
                    log_str =  Epoch: , Step: , Learning rate: , Loss: :5.3f
Speed: :.3fs/iter,Load: :.3fs/iter, Remain: .format(
                        datetime.datetime.now().strftime(%m-%d %H:%M:%S),
                        self.data.epoch,
                        int(step),
                        round(self.learning_rate.eval(session=self.sess), 6),
                        loss,
                        train_timer.average_time,
                        load_timer.average_time,
                        train_timer.remain(step, self.max_iter))
                    print(log_str)

                else:
                    #计算每次迭代训练的起始时间
                    train_timer.tic()           
                    #开始迭代训练,每一次迭代后global_step自加1
                    summary_str, _ = self.sess.run(
                        [self.summary_op, self.train_op],
                        feed_dict=feed_dict)  
                    #计算这次迭代训练所使用的时间
                    train_timer.toc()
                    
                #将summary写入文件
                self.writer.add_summary(summary_str, step)

            else:
                #计算每次迭代训练的起始时间
                train_timer.tic()
                #开始迭代训练,每一次迭代后global_step自加1
                self.sess.run(self.train_op, feed_dict=feed_dict)
                #计算这次迭代训练所使用的时间
                train_timer.toc()

            #没迭代save_iter次,保存一次模型
            if step % self.save_iter == 0:
                print( Saving checkpoint file to: .format(
                    datetime.datetime.now().strftime(%m-%d %H:%M:%S),
                    self.output_dir))
                self.saver.save(
                    self.sess, self.ckpt_file, global_step=self.global_step)

3、保存配置参数

    def save_cfg(self):
        ‘‘‘
        保存配置信息
        ‘‘‘
        with open(os.path.join(self.output_dir, config.txt), w) as f:
            cfg_dict = cfg.__dict__
            for key in sorted(cfg_dict.keys()):
                if key[0].isupper():
                    cfg_str = : 
.format(key, cfg_dict[key])
                    f.write(cfg_str)

train.py文件除了上面介绍的求解器Solver这个类外,还包含了两个函数,一个是update_config_paths()函数,这个函数主要使用了设定数据集路径,以及检查点文件路径。

def update_config_paths(data_dir, weights_file):
    ‘‘‘
    数据集路径,和模型检查点文件路径
    
    args:
        data_dir:数据文件夹  数据集放在pascal_voc目录下  
        weights_file:检查点文件名 该文件放在数据集目录下的weights文件夹下
        
    ‘‘‘
    cfg.DATA_PATH = data_dir                                                   #数据所在文件夹
    cfg.PASCAL_PATH = os.path.join(data_dir, pascal_voc)                     #VOC2012数据所在文件夹
    cfg.CACHE_PATH = os.path.join(cfg.PASCAL_PATH, cache)                    #保存生成的数据集标签缓冲文件所在文件夹
    cfg.OUTPUT_DIR = os.path.join(cfg.PASCAL_PATH, output)                   #保存生成的网络模型和日志文件所在的文件夹
    cfg.WEIGHTS_DIR = os.path.join(cfg.PASCAL_PATH, weights)                 #检查点文件所在的目录

    cfg.WEIGHTS_FILE = os.path.join(cfg.WEIGHTS_DIR, weights_file)

我们主要来说一下另一个函数main()函数,先解析命令行参数,然后创建YOLONet、pascal_voc、Solver对象,最后开始训练。

def main():
    #创建一个解析器对象,并告诉它将会有些什么参数。当程序运行时,该解析器就可以用于处理命令行参数。
    #https://www.cnblogs.com/lovemyspring/p/3214598.html
    parser = argparse.ArgumentParser()
    #定义参数
    parser.add_argument(--weights, default="YOLO_small.ckpt", type=str)    #权重文件名
    parser.add_argument(--data_dir, default="data", type=str)              #数据集路径
    parser.add_argument(--threshold, default=0.2, type=float)
    parser.add_argument(--iou_threshold, default=0.5, type=float)
    parser.add_argument(--gpu, default=‘‘, type=str)
    #定义了所有参数之后,你就可以给 parse_args() 传递一组参数字符串来解析命令行。默认情况下,参数是从 sys.argv[1:] 中获取
    #parse_args() 的返回值是一个命名空间,包含传递给命令的参数。该对象将参数保存其属性
    args = parser.parse_args()

    #判断是否是使用gpu
    if args.gpu is not None:
        cfg.GPU = args.gpu

    #设定数据集路径,以及检查点文件路径
    if args.data_dir != cfg.DATA_PATH  and args.data_dir is not None:
        update_config_paths(args.data_dir, args.weights)

    #设置环境变量
    os.environ[CUDA_VISIBLE_DEVICES] = cfg.GPU

    #创建YOLO网络对象
    yolo = YOLONet()
    #数据集对象
    pascal = pascal_voc(train)
    #求解器对象
    solver = Solver(yolo, pascal)

    print(Start training ...)
    #开始训练
    solver.train()
    print(Done training.)

我们只想如下代码,开始训练网络:

if __name__ == __main__:
    tf.reset_default_graph()
    # python train.py --weights YOLO_small.ckpt --gpu 0
    main()

在控制台会输出以下信息:

 技术分享图片

技术分享图片

七 测试网络

 模型测试包含于test.py文件,Detector类的image_detector()函数用于检测目标。

import os
import cv2
import argparse
import numpy as np
import tensorflow as tf
import yolo.config as cfg
from yolo.yolo_net import YOLONet
from utils.timer import Timer

‘‘‘
用于测试
‘‘‘

class Detector(object):

1、类初始化函数

 def __init__(self, net, weight_file):
        ‘‘‘
        构造函数
        利用 cfg 文件对网络参数进行初始化,
        其中 offset 的作用应该是一个定长的偏移
        boundery1和boundery2 作用是在输出中确定每种信息的长度(如类别,置信度等)。
        其中 boundery1 指的是对于所有的 cell 的类别的预测的张量维度,所以是 self.cell_size * self.cell_size * self.num_class
        boundery2 指的是在类别之后每个cell 所对应的 bounding boxes 的数量的总和,所以是self.boundary1 + self.cell_size * self.cell_size * self.boxes_per_cell
        
        
        args:
            net:YOLONet对象
            weight_file:检查点文件路径
        ‘‘‘
        #yolo网络
        self.net = net
        #检查点文件路径
        self.weights_file = weight_file
        #输出文件夹路径
        self.output_dir = os.path.dirname(self.weights_file)
         #VOC 2012数据集类别名
        self.classes = cfg.CLASSES
        # #VOC 2012数据类别数
        self.num_class = len(self.classes)
        ##图像大小
        self.image_size = cfg.IMAGE_SIZE
        #单元格大小S
        self.cell_size = cfg.CELL_SIZE
        #每个网格边界框的个数B=2
        self.boxes_per_cell = cfg.BOXES_PER_CELL
        #阈值参数
        self.threshold = cfg.THRESHOLD
        #IoU 阈值参数
        self.iou_threshold = cfg.IOU_THRESHOLD
        ‘‘‘#将网络输出分离为类别和置信度以及边界框的大小,输出维度为7*7*20 + 7*7*2 + 7*7*2*4=1470‘‘‘
         #7*7*20
        self.boundary1 = self.cell_size * self.cell_size * self.num_class
         #7*7*20+7*7*2
        self.boundary2 = self.boundary1 +            self.cell_size * self.cell_size * self.boxes_per_cell

        #运行图之前,初始化变量
        self.sess = tf.Session()
        self.sess.run(tf.global_variables_initializer())

        #恢复模型
        print(Restoring weights from:  + self.weights_file)
        self.saver = tf.train.Saver()
        #直接载入最近保存的检查点文件
        ckpt = tf.train.latest_checkpoint(self.output_dir)
        print("ckpt:",ckpt)         
        #如果存在检查点文件 则恢复模型
        if ckpt!=None:
            #恢复最近的检查点文件
            self.saver.restore(self.sess, ckpt) 
        else:
            #从指定检查点文件恢复
            self.saver.restore(self.sess, self.weights_file)

2、draw_result()函数

    def draw_result(self, img, result):
        ‘‘‘
        在原图上绘制边界框,以及附加信息
        
        args:
            img:原始图片数据
            result:yolo网络目标检测到的边界框,list类型 每一个元素对应一个目标框 
                  包含类别名,x_center,y_center,w,h,置信度 
        ‘‘‘
        #遍历每一个边界框
        for i in range(len(result)):
            #x_center
            x = int(result[i][1])
            #y_center
            y = int(result[i][2])
            #w/2
            w = int(result[i][3] / 2)
            #h/2
            h = int(result[i][4] / 2)
            #绘制矩形框(目标边界框) 矩形左上角,矩形右下角
            cv2.rectangle(img, (x - w, y - h), (x + w, y + h), (0, 255, 0), 2)            
            #绘制矩形框,用于存放类别名称,使用灰度填充
            cv2.rectangle(img, (x - w, y - h - 20),
                          (x + w, y - h), (125, 125, 125), -1)
            #线型
            lineType = cv2.LINE_AA if cv2.__version__ > 3 else cv2.CV_AA
            #绘制文本信息 写上类别名和置信度
            cv2.putText(
                img, result[i][0] +  : %.2f % result[i][5],
                (x - w + 5, y - h - 7), cv2.FONT_HERSHEY_SIMPLEX, 0.5,
                (0, 0, 0), 1, lineType)

3、detect()函数

 def detect(self, img):
        ‘‘‘
        图片目标检测
        
        args:
            img:原始图片数据
            
        return:
            result:返回检测到的边界框,list类型 每一个元素对应一个目标框 
            包含类别名,x_center,y_center,w,h,置信度
        ‘‘‘
        #获取图片的高和宽
        img_h, img_w, _ = img.shape
        #图片缩放 [448,448,3]
        inputs = cv2.resize(img, (self.image_size, self.image_size))
        #BGR->RGB  uint->float32
        inputs = cv2.cvtColor(inputs, cv2.COLOR_BGR2RGB).astype(np.float32)
        #归一化处理 [-1.0,1.0]
        inputs = (inputs / 255.0) * 2.0 - 1.0
        #reshape [1,448,448,3]
        inputs = np.reshape(inputs, (1, self.image_size, self.image_size, 3))

        #获取网络输出第一项(即第一张图片) [1,1470]
        result = self.detect_from_cvmat(inputs)[0]

        #对检测的图片的边界框进行缩放处理,一张图片可以有多个边界框
        for i in range(len(result)):
            #x_center, y_center, w, h都是真实值,分别表示预测边界框的中心坐标,宽和高,都是浮点型
            result[i][1] *= (1.0 * img_w / self.image_size)    #x_center
            result[i][2] *= (1.0 * img_h / self.image_size)    #y_center
            result[i][3] *= (1.0 * img_w / self.image_size)    #w
            result[i][4] *= (1.0 * img_h / self.image_size)    #h

        #<class ‘list‘> 6 [‘person‘, 405.83171163286482, 161.40340532575334, 166.17623397282193, 298.85661533900668, 0.69636690616607666]
        #Average detecting time: 0.571s
        print(type(result),len(result),result[0])
        return result

4、detect_from_cvmat()函数

 def detect_from_cvmat(self, inputs):
        ‘‘‘
        运行yolo网络,开始检测
        
        args:
            inputs:输入数据  [None,448,448,3]
            
        return:
            results:返回目标检测的结果,每一个元素对应一个测试图片,每个元素包含着若干个边界框
        
        ‘‘‘
        #返回网络最后一层,激活函数处理之前的值  形状[None,1470]
        net_output = self.sess.run(self.net.logits,
                                   feed_dict=self.net.images: inputs)
        results = []
        
        #对网络输出每一行数据进行处理
        for i in range(net_output.shape[0]):
            results.append(self.interpret_output(net_output[i]))

        #返回处理后的结果
        return results

 

参考文章:

argparse - 命令行选项与参数解析(转)


yolo目标检测之iou计算及其衍变体(代码片段)

IOU损失函数目前主要应用于目标检测的领域,其演变的过程如下:IOU-->GIOU-->DIOU-->CIOU损失函数,每一种损失函数都较上一种损失函数有所提升。下面来具体介绍这几种损失函数。IOU(IntersectionoverUnion)IoU就是我们... 查看详情

2018-08-24第三十六课(代码片段)

第三十六课非关系统型数据库-mangodb目录二十四mongodb介绍二十五mongodb安装二十六连接mongodb二十七mongodb用户管理二十八mongodb创建集合、数据管理二十九php的mongodb扩展三十php的mongo扩展三十一mongodb副本集介绍三十二mongodb副本集搭... 查看详情

正点原子fpga连载第三十六章双路高速da实验-摘自正点原子新起点之fpga开发指南_v2.1(代码片段)

1)实验平台:正点原子新起点V2开发板2)平台购买地址:https://detail.tmall.com/item.htm?id=6097589511132)全套实验源码+手册+视频下载地址:http://www.openedv.com/thread-300792-1-1.html3 查看详情

yolo_v3代码解析以及相关注意事项(代码片段)

...来源于机器之心翻译的项目---从零开始PyTorch项目:YOLOv3目标检测实现以及从零开始PyTorch项目:YOLOv3目标检测实现(下)两部分组成,原版的博客在此Series:YOLOobjectdetectorinPyTorch,原始博客的GitHub地址为:ayooshkathuria/pytorch-yolo-v3,... 查看详情

#yolo_v3代码解析以及相关注意事项(代码片段)

...来源于机器之心翻译的项目---从零开始PyTorch项目:YOLOv3目标检测实现以及从零开始PyTorch项目:YOLOv3目标检测实现(下)两部分组成,原版的博客在此Series:YOLOobjectdetectorinPyTorch,原始博客的GitHub地址为:ayooshkathuria/pytorch-yolo-v3,... 查看详情

一文带你学会使用yolo及opencv完成图像及视频流目标检测(上)|附源码(代码片段)

计算机视觉领域中,目标检测一直是工业应用上比较热门且成熟的应用领域,比如人脸识别、行人检测等,国内的旷视科技、商汤科技等公司在该领域占据行业领先地位。相对于图像分类任务而言,目标检测会更加复杂一些,不... 查看详情

keras深度学习实战(15)——从零开始实现yolo目标检测(代码片段)

Keras深度学习实战(15)——从零开始实现YOLO目标检测0.前言1.YOLO目标检测模型1.1锚框(anchorboxes)1.2YOLO目标检测模型原理2.从零开始实现YOLO目标检测2.1加载数据集2.2计算锚框尺寸2.3创建训练数据集2.4实现YOLO目标检测模型2.5... 查看详情

使用labelimg制作yolo系列目标检测数据集(.xml文件)(代码片段)

第一步:WIN键+R输入cmd打开命令行窗口第二步:在命令行窗口中输入pip3installlabelImg,安装labelImg第三步:输入labelImg打开labelImg窗口第四步: 查看详情

使用labelimg制作yolo系列目标检测数据集(.xml文件)(代码片段)

第一步:WIN键+R输入cmd打开命令行窗口第二步:在命令行窗口中输入pip3installlabelImg,安装labelImg第三步:输入labelImg打开labelImg窗口第四步: 查看详情

深度学习之目标检测(代码片段)

算法的设计往往与名字有着绝对的关联性,目标定位检测即目标定位+检测。在深度学习中比较常用的目标定位检测方法有RCNN系列方法和YOLO系列方法。其中RCNN系列方法的定位过程和检测过程是分开的,即先定位目标&#x... 查看详情

vue教程(三十六)webpack之代码混淆插件uglifyjs(代码片段)

Vue教程(三十六)webpack之代码混淆插件UglifyjsUglifyjs插件,可以对js等文件进行压缩安装插件npminstalluglifyjs-webpack-plugin@1.1.1--save-dev修改webpack.config.js文件//导入Node中path常量constpath=require("path");constwe 查看详情

opencvdnn之yolo实时对象检测(代码片段)

OpenCVDNN之YOLO实时对象检测OpenCV在3.3.1的版本中开始正式支持Darknet网络框架并且支持YOLO1与YOLO2以及YOLOTiny网络模型的导入与使用。YOLO是一种比SSD还要快的对象检测网络模型,算法作者在其论文中说FPS是FastR-CNN的100倍,基于COCO数据... 查看详情

第三十六篇hashlib模块hmac模块和logging模块(代码片段)

目录第三十七篇hashlib模块、hmac模块和logging模块一、hashlib模块1.hash是什么2.撞库破解hash算法加密二、hmac模块三、logging模块1.日志的五个级别2.V33.日志配置文件4.总结第三十七篇hashlib模块、hmac模块和logging模块一、hashlib模块1.hash... 查看详情

yolo系列目标检测算法-yolov7(代码片段)

YOLO系列目标检测算法目录YOLO系列目标检测算法总结对比YOLOv1YOLOv2YOLOv3YOLOv4Scaled-YOLOv4YOLOv5YOLOv6YOLOv7深度学习知识点总结专栏链接:https://blog.csdn.net/qq_39707285/article/details/124005405此专栏主要总结深度学习中的知识点,从各大数据... 查看详情

23年车辆检测+车距检测+行人检测+车辆识别+车距预测(附yolov5最新版源码)(代码片段)

...(双目测距)_SYBH.的博客-CSDN博客_yolo测距基于yolo目标检测算法实现的车前道路中的车辆和行人检测,并且可以估测出目标与本车之间的距离。_1671465600htt 查看详情

目标检测算法-yolo-v4代码详解(代码片段)

Yolo-V4算法中对网络进行了改进,使用CSPDarknet53。网络结构如下:Yolo-V4与Yolo-V3上相比较:(1)对主干网络进行了修改,将原先的Darknet53改为CSPDarknet53,其中是将激活函数改为Mish激活函数,并且在网络中加入了CSP结构。(2)对特征... 查看详情

python-opencv学习第三十课:人脸检测(代码片段)

Python-opencv学习第三十课:人脸检测文章目录Python-opencv学习第三十课:人脸检测一、学习部分二、代码部分1.引入库2.完整代码三、运行结果总结一、学习部分记录笔者学习Python-opencv学习第三十课:人脸检测,代码... 查看详情

目标检测之yolov1(代码片段)

前面介绍的R-CNN系的目标检测采用的思路是:首先在图像上提取一系列的候选区域,然后将候选区域输入到网络中修正候选区域的边框以定位目标,对候选区域进行分类以识别。虽然,在FasterR-CNN中利用RPN网络将候选区域的提取... 查看详情