bp神经网络训练自己的数据(tensorflow2.x版本)(代码片段)

伤心兮 伤心兮     2022-12-03     256

关键词:

一、开发环境

  • python3.6
  • Tensorflow2.x
  • numpy1.19
  • matplotlib3.3
  • scikit-learn0.24

二、数据集介绍

本次训练数据使用的是鸢尾花数据集,具体做法是将鸢尾花数据集保存在本地,充当自己的数据集。鸢尾花数据集中内包含 3 个类分别为山鸢尾(Iris-setosa)、变色鸢尾(Iris-versicolor)和维吉尼亚鸢尾(Iris-virginica),共 150 条记录,每类各 50 个数据,每条记录都有 4 项特征:花萼长度、花萼宽度、花瓣长度、花瓣宽度。其部分数据如下:

花萼长度花萼宽度花瓣长度花瓣宽度所属类别
5.13.51.40.2山鸢尾
4.931.40.2山鸢尾
…………………………
5.52.43.71变色鸢尾
5.82.73.91.2变色鸢尾
…………………………
6.23.45.42.3维吉尼亚鸢尾
5.935.11.8维吉尼亚鸢尾

三、BP神经算法推导与结构

《BP神经网络算法推导》

四、文件介绍

--data 
	--x_train.txt(用于存放训练数据)
	--result.txt(用于存放标签数据)
--train.py(训练脚本)
--predict.py(预测脚本)

五、程序代码

  • train.py
# -*- coding: utf-8 -*-

import tensorflow as tf
import numpy as np
import os
from matplotlib import pyplot as plt
from sklearn.model_selection import train_test_split


def main():
    np.set_printoptions(threshold=np.inf)   # 设置打印/存取无行数/列数上限

    # 1.读取文件
    x_ = np.loadtxt('./data/x_train.txt')       # 训练数据
    y_ = np.loadtxt('./data/result.txt')        # 标签数据
    x_train, x_test, y_train, y_test = train_test_split(x_, y_, test_size=0.25)   # 将数据集分为训练集和验证集

    # 2.定义模型
    model = tf.keras.models.Sequential([
        # tf.keras.layers.Dense(64, activation='relu'),
        tf.keras.layers.Dense(10, activation='relu'),
        tf.keras.layers.Dense(3, activation='softmax')
    ])

    # 3.模型总结(用于查看模型参数和结构)
    model.build((32, 4))  # when using subclass model
    model.summary()

    # 4.定义优化方法和损失函数等
    model.compile(optimizer='adam',
                  loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),
                  metrics=['sparse_categorical_accuracy'])

    # 5.模型保存(可以断点集训)
    checkpoint_save_path = "./checkpoint/mask.ckpt"
    if os.path.exists(checkpoint_save_path + '.index'):
        print('-------------load the model-----------------')
        model.load_weights(checkpoint_save_path)

    cp_callback = tf.keras.callbacks.ModelCheckpoint(filepath=checkpoint_save_path,
                                                     save_weights_only=True,
                                                     save_best_only=True)
    # 6.开始训练
    history = model.fit(x_train, y_train, batch_size=32, epochs=1000, validation_data=(x_test, y_test), validation_freq=1,
                        callbacks=[cp_callback])
    print(x_train)
    print(y_train)

    # 7.保存模型参数
    file = open('./weights.txt', 'w')
    for v in model.trainable_variables:
        file.write(str(v.name) + '\\n')
        file.write(str(v.shape) + '\\n')
        file.write(str(v.numpy()) + '\\n')
    file.close()

    # 8.显示训练集和验证集的acc和loss曲线
    acc = history.history['sparse_categorical_accuracy']
    val_acc = history.history['val_sparse_categorical_accuracy']
    loss = history.history['loss']
    val_loss = history.history['val_loss']

    plt.subplot(1, 2, 1)
    plt.plot(acc, label='Training Accuracy')
    plt.plot(val_acc, label='Validation Accuracy')
    plt.title('Training and Validation Accuracy')
    plt.legend()

    plt.subplot(1, 2, 2)
    plt.plot(loss, label='Training Loss')
    plt.plot(val_loss, label='Validation Loss')
    plt.title('Training and Validation Loss')
    plt.legend()
    plt.show()


if __name__ == '__main__':
    main()

  • predict.py
import tensorflow as tf
import numpy as np


def main():
    # 1. 加载数据
    x_train = np.loadtxt('./data/x_train.txt')
    y_train = np.loadtxt('./data/result.txt')

    # 2.定义模型(须和训练脚本(train.py)一致)
    model = tf.keras.models.Sequential([
        # tf.keras.layers.Dense(64, activation='relu'),
        tf.keras.layers.Dense(10, activation='relu'),
        tf.keras.layers.Dense(3, activation='softmax')
    ])

    # 3.加载模型
    model_save_path = './checkpoint/mask.ckpt'
    model.load_weights(model_save_path)

    # 4.进行预测
    result = model.predict(x_train)
    pred = np.array(tf.argmax(result, axis=1))      # 预测值
    acc = np.sum([pred[i] == y_train[i] for i in range(len(y_train))])/len(y_train)     # 计算准确率
    print(f'准确率为:acc*100%')


if __name__ == '__main__':
    main()

六、结果展示

  • 最终经过1000个epochs之后,准确率达到98%左右。

  • 最后使用predict.py计算训练样本准确率为98.6%(这样做法其实是不对的,应该使用新的数据来评估模型的准确率与泛化能力)

bp神经网络训练自己的数据(tensorflow2.x版本)(代码片段)

...尾5.935.11.8维吉尼亚鸢尾三、BP神经算法推导与结构见《BP神经网络算法推导》四、文件介绍--data --x_train.txt(用于存放训练数据) --result.txt(用于存放标签数据)--train.py(训练脚本ÿ 查看详情

有人知道bp神经网络matlabr2012a的newff用法么

newff()这个函数是建立一个神经网络的函数,其中括号里面的参数含义依次是:输入数据和输出数据的范围,隐含层神经元个数,传递函数设置像BP网编程这块,需要先给出输入和期望输出的数据矩阵,然后newff函数建立网络,然... 查看详情

基于tensorflow2.x实现bp神经网络,实践mnist手写数字识别(代码片段)

一、MNIST数据集MNIST是一个非常有名的手写数字识别数据集,在很多资料中都会被用作深度学习的入门样例。在Tensorflow2.x中该数据集已被封装在了tf.keras.datasets工具包下,如果没有指定数据集的位置,并先前也没有使... 查看详情

基于tensorflow2.x实现bp神经网络,实践mnist手写数字识别(代码片段)

一、MNIST数据集MNIST是一个非常有名的手写数字识别数据集,在很多资料中都会被用作深度学习的入门样例。在Tensorflow2.x中该数据集已被封装在了tf.keras.datasets工具包下,如果没有指定数据集的位置,并先前也没有使... 查看详情

基于tensorflow2.x实现bp神经网络,实践mnist手写数字识别(代码片段)

一、MNIST数据集MNIST是一个非常有名的手写数字识别数据集,在很多资料中都会被用作深度学习的入门样例。在Tensorflow2.x中该数据集已被封装在了tf.keras.datasets工具包下,如果没有指定数据集的位置,并先前也没有使... 查看详情

bp神经网络的训练组训练是把所有的数据一起计算然后求它们的误差和吗?

参考技术A不是,BP神经网络与传统机器学习的一个不同点就是BP网络是分批(batch)把数据喂给模型,分批次求误差和进行反向传播。传统机器学习如贝叶斯,svm都是把数据一次性喂给模型,进行求解。但当数据量太大时,时间... 查看详情

bp神经网络的训练集需要大样本吗?一般样本个数为多少?

BP神经网络的训练集需要大样本吗?一般样本个数为多少?那如果我的训练集样本为69个,算是属于大样本数据集吗?对于建立BP神经网络够用吗?BP神经网络的训练集需要大样本吗?一般样本个数为多少?BP神经网络样本数有什... 查看详情

基于tensorflow2.x实现多层卷积神经网络,实践mnist手写数字识别(代码片段)

...、MNIST数据集上篇文章中使用了Tensorflow2.x搭建了对层的BP神经网络,经过训练后发现准确率只有96.8%对于单环境的图片识别场景来说,还是有点偏低,本文使用多层的卷积代替BP网络中的隐藏层对模型进行优化。下面是... 查看详情

基于tensorflow2.x实现多层卷积神经网络,实践mnist手写数字识别(代码片段)

...、MNIST数据集上篇文章中使用了Tensorflow2.x搭建了对层的BP神经网络,经过训练后发现准确率只有96.8%对于单环境的图片识别场景来说,还是有点偏低,本文使用多层的卷积代替BP网络中的隐藏层对模型进行优化。下面是... 查看详情

基于tensorflow2.x实现多层卷积神经网络,实践mnist手写数字识别(代码片段)

...、MNIST数据集上篇文章中使用了Tensorflow2.x搭建了对层的BP神经网络,经过训练后发现准确率只有96.8%对于单环境的图片识别场景来说,还是有点偏低,本文使用多层的卷积代替BP网络中的隐藏层对模型进行优化。下面是... 查看详情

bp神经网络的模型已经训练好,想用多一些数据继续训练,怎么在原来的基础上训练呢?

参考技术A保存权重,下次赋值给新定义的网络。本回答被提问者采纳 参考技术B楼主你好,不知你是怎么处理这个问题的,因为若是在MATLAB上的话,是没法更改训练模型的,毕竟权重是一直在变,若是在C的话,我也在研究最近 ... 查看详情

matlab基于多层前馈网络bp神经网络实现多分类预测(excel可直接替换数据)

【Matlab】基于多层前馈网络BP神经网络实现多分类预测(Excel可直接替换数据)1.算法简介1.1算法原理1.2算法流程2.测试数据集3.替换数据4.混淆矩阵5.对比结果6.代码及注释1.算法简介1.1算法原理多层网络的学习能力比单层感知器增... 查看详情

bp网络实例(iris数据)

...训练数据→归一化→构造期望输出矩阵(01矩阵)→创建神经网络并设置参数→通过输入与期望输出值训练→读取测试数据并归一化→仿真clc[ 查看详情

bp算法在人工神经网络中的作用是啥?

BP(BackPropagation)算法是一种常用的人工神经网络训练算法,是通过反向传播来调整神经网络权值的算法。在人工神经网络中,BP算法的作用是帮助神经网络对输入的数据进行学习,并通过学习来调整神经网络的权值,以使得神... 查看详情

matlab-bp神经网络

一、工作流程  1、加载数据,产生训练集与测试集(验证集)    首先加载样本,其中样本的输入叫做:特征(变量),其输出值叫做:理想值,将样本分为训练样本(学习所用)和测试样本(效果测试仿真所用)  ... 查看详情

用matlab做bp神经网络的预测,训练的挺好。但是预测误差很大,是啥原因,怎么解决啊

我的数据是递增的,预测数据比训练数据大些。1.训练样本有可能不够多。2.样本不具有代表性,不具有特征性3.网络模型设计有问题,需要TryErrorandTry4.可以使用Trainbr(贝叶斯正则化训练函数),这个函数对网络的泛化能力比较... 查看详情

java实现bp神经网络mnist手写数字识别(代码片段)

Java实现BP神经网络,内含BP神经网络类,采用MNIST数据集,包含服务器和客户端程序,可在服务器训练后使客户端直接使用训练结果,界面有画板,可以手写数字Java实现BP神经网络MNIST手写数字识别如果需要源码,请在下方评论区... 查看详情

用matlab建立bp神经网络模型,求高手,在线等

...525594202@qq.com,谢!!!自己解决了……谢各位……Matlab神经网络工具箱提供了一系列用于建立和训练bp神经网络模型的函数命令,很难一时讲全。下面仅以一个例子列举部分函数的部分用法。更多的函数和用法请仔细查阅NeuralNet... 查看详情