一文详解tensorflow模型迁移及模型训练实操步骤(代码片段)

华为云开发者联盟 华为云开发者联盟     2023-02-24     711

关键词:

摘要:本文介绍将TensorFlow网络模型迁移到昇腾AI平台,并执行训练的全流程。然后以TensorFlow 1.15训练脚本为例,详细介绍了自动迁移、手工迁移以及模型训练的操作步骤。

本文分享自华为云社区《将TensorFlow模型快速迁移到昇腾平台》,作者:昇腾CANN。

当前业界很多训练脚本是基于TensorFlow的Python API进行开发的,默认运行在CPU/GPU/TPU上,为了使这些脚本能够利用昇腾AI处理器的强大算力执行训练,需要对TensorFlow的训练脚本进行迁移。

首先,我们了解下模型迁移的全流程:

通过上图可以看出,模型迁移包括“脚本迁移 –> 模型训练 –> 精度调优 –> 性能调优 –> 模型固化”几个流程,其中:

  • “脚本迁移”是将TensorFlow训练脚本经过少量修改,可以运行在昇腾AI处理器上。
  • “模型训练”是根据模型参数进行多轮次的训练迭代,并在训练过程中评估模型准确度,达到一定阈值后停止训练,并保存训练好的模型。
  • “精度调优”与“性能调优”是在用户对精度或性能有要求时需要执行的操作。
  • “模型固化”是将训练好的、精度性能达标的模型固化为pb模型。

下面我们针对“脚本迁移”和“模型训练”两个阶段进行详细的介绍。

脚本迁移

将TensorFlow训练脚本迁移到昇腾平台有自动迁移和手工迁移两种方式。

  • 自动迁移:算法工程师通过迁移工具,可自动分析出原生的TensorFlow Python API在昇腾AI处理器上的支持度情况,同时将原生的TensorFlow训练脚本自动迁移成昇腾AI处理器支持的脚本,对于少量无法自动迁移的API,可以参考工具输出的迁移报告,对训练脚本进行相应的适配修改。
  • 手工迁移:算法工程师需要参考文档人工分析TensorFlow训练脚本的API支持度,并进行相应API的修改,以支持在昇腾AI处理器上执行训练,该种方式相对复杂,建议优先使用自动迁移方式。

下面以TensorFlow 1.15的训练脚本为例,讲述训练脚本的详细迁移操作,TensorFlow 2.6的迁移操作类似,详细的迁移点可参见“昇腾文档中心[1]”。

自动迁移

自动迁移的流程示意图如下所示:

详细步骤如下;

1. 安装迁移工具依赖。

pip3 install pandas
pip3 install xlrd==1.2.0
pip3 install openpyxl
pip3 install tkintertable
pip3 install google_pasta

2. 执行自动迁移命令。

进入迁移工具所在目录,例如“tfplugin安装目录/tfplugin/latest/python/site-packages/npu_bridge/convert_tf2npu/”,执行类似如下命令可同时完成脚本扫描和自动迁移:

python3 main.py -i /root/models/official/resnet -r /root/models/official/

其中main.py是迁移工具入口脚本,-i指定待迁移原始脚本路径,-r指定迁移报告存储路径。

3. 查看迁移报告。

在/root/models/official/output_npu_*下查看迁移后的脚本,在root/models/official/report_npu_*下查看迁移报告。

迁移报告示例如下:

手工迁移

手工迁移训练脚本主要包括如下迁移点:

1. 导入NPU库文件。

from npu_bridge.npu_init import *

2. 将部分TensorFlow接口迁移成NPU接口。

例如,修改基于Horovod开发的分布式训练脚本,使能昇腾AI处理器的分布式训练。

# Add Horovod Distributed Optimizer
opt = hvd.DistributedOptimizer(opt)
# Add hook to broadcast variables from rank 0 to all other processes during
# initialization.
hooks = [hvd.BroadcastGlobalVariablesHook(0)]

修改后:

# NPU allreduce
# 将hvd.DistributedOptimizer修改为npu_distributed_optimizer_wrapper"
opt = npu_distributed_optimizer_wrapper(opt) 
# Add hook to broadcast variables from rank 0 to all other processes during initialization.
hooks = [NPUBroadcastGlobalVariablesHook(0)]

3. 通过配置关闭TensorFlow与NPU冲突的功能。

关闭TensorFlow中的remapping、xla等功能,避免与NPU中相关功能冲突。例如:

config = tf.ConfigProto(allow_soft_placement=True)
# 显式关闭remapping功能
config.graph_options.rewrite_options.remapping = RewriterConfig.OFF
# 显示关闭memory_optimization功能
config.graph_options.rewrite_options.memory_optimization = RewriterConfig.OFF

4. 配置NPU相关参数

Ascend平台提供了功能调试、性能/精度调优等功能,用户可通过配置使能相关功能,例如enable_dump_debug配置,支持以下取值:

  • True:开启溢出检测功能。
  • False:关闭溢出检测功能。

配置示例:

custom_op.parameter_map["enable_dump_debug"].b = True

模型训练

迁移成功后的脚本可在昇腾AI处理器上执行单Device训练,也可以在多个Device上执行分布式训练。

单Device训练

1)配置训练进程启动依赖的环境变量。

# 配置昇腾软件栈的基础环境变量,包括CANN、TF Adapter依赖的内容。
source /home/HwHiAiUser/Ascend/nnae/set_env.sh 
source /home/HwHiAiUser/Ascend/tfplugin/set_env.sh
# 添加当前脚本所在路径到PYTHONPATH,例如:
export PYTHONPATH="$PYTHONPATH:/root/models"
# 训练任务ID,用户自定义,不建议使用以0开始的纯数字
export JOB_ID=10066 
# 指定昇腾AI处理器逻辑ID,单P训练也可不配置,默认为0,在0卡执行训练 
export ASCEND_DEVICE_ID=0 

2)执行训练脚本拉起训练进程。

python3 /home/xxx.py

分布式训练

分布式训练需要先配置参与训练的昇腾AI处理器的资源信息,然后再拉起训练进程。当前有两种配置资源信息的方式:通过配置文件(即ranktable文件)或者通过环境变量的方式。下面以配置文件的方式介绍分布式训练的操作。

1)准备配置文件。

配置文件(即ranktable文件)为json格式,示例如下:


"server_count":"1", //AI server数目
"server_list":
[
 
 "device":[ // server中的device列表
 
 "device_id":"0", 
 "device_ip":"192.168.1.8", // 处理器真实网卡IP
 "rank_id":"0" // rank的标识,rankID从0开始
 ,
 
 "device_id":"1",
 "device_ip":"192.168.1.9", 
 "rank_id":"1"
 
 ],
 "server_id":"10.0.0.10" //server标识,以点分十进制表示IP字符串
 
],
"status":"completed", // ranktable可用标识,completed为可用
"version":"1.0" // ranktable模板版本信息,当前必须为"1.0"

2)执行分布式训练。

依次设置环境变量配置集群参数,并拉起训练进程。

拉起训练进程0:

# 配置昇腾软件栈的基础环境变量,包括CANN、TF Adapter依赖的内容。
source /home/HwHiAiUser/Ascend/nnae/set_env.sh 
source /home/HwHiAiUser/Ascend/tfplugin/set_env.sh
export PYTHONPATH=/home/test:$PYTHONPATH
export JOB_ID=10086
export ASCEND_DEVICE_ID=0
# 当前Device在集群中的唯一索引,与资源配置文件中的索引一致
export RANK_ID=0
# 参与分布式训练的Device数量
export RANK_SIZE=2
export RANK_TABLE_FILE=/home/test/rank_table_2p.json
python3 /home/xxx.py

拉起训练进程1:

# 配置昇腾软件栈的基础环境变量,包括CANN、TF Adapter依赖的内容。
source /home/HwHiAiUser/Ascend/nnae/set_env.sh 
source /home/HwHiAiUser/Ascend/tfplugin/set_env.sh
export PYTHONPATH=/home/test:$PYTHONPATH
export JOB_ID=10086
export ASCEND_DEVICE_ID=1
# 当前Device在集群中的唯一索引,与资源配置文件中的索引一致
export RANK_ID=1
# 参与分布式训练的Device数量
export RANK_SIZE=2
export RANK_TABLE_FILE=/home/test/rank_table_2p.json
python3 /home/xxx.py

以上就是TensorFlow模型迁移训练的相关知识点,您也可以在“昇腾社区在线课程[2]”板块学习视频课程,学习过程中的任何疑问,都可以在“昇腾论坛[3]”互动交流!

相关参考:

[1]昇腾文档中心:昇腾社区-官网丨昇腾万里 让智能无所不及

[2]昇腾社区在线课程:昇腾社区-官网丨昇腾万里 让智能无所不及

[3]昇腾论坛:https://www.hiascend.com/forum

点击关注,第一时间了解华为云新鲜技术~

一文读懂!最新transformer预训练模型综述!

点击机器学习算法与Python学习,选择加星标精彩内容不迷路机器之心报道在如今的NLP领域,几乎每项任务中都能看见「基于Transformer的预训练语言模型(T-PTLM)」成功的身影。这些模型的起点是GPT和BERT。而这些模... 查看详情

一文读懂!最新transformer预训练模型综述!

点击机器学习算法与Python学习,选择加星标精彩内容不迷路机器之心报道在如今的NLP领域,几乎每项任务中都能看见「基于Transformer的预训练语言模型(T-PTLM)」成功的身影。这些模型的起点是GPT和BERT。而这些模... 查看详情

从预训练模型中移除顶层,迁移学习,张量流(load_model)

...【英文标题】:Removetoplayerfrompre-trainedmodel,transferlearning,tensorflow(load_model)【发布时间】:2022-01-1413:00:36【问题描述】:我已经预训练了一个包含两个类的模型(我自己保存的模型),我想将其用于迁移学习来训练一个包含六个类... 查看详情

yolov8详解网络结构+代码+实操(代码片段)

文章目录YOLOv8概述模型结构Loss计算训练数据增强训练策略模型推理过程网络模型解析卷积神经单元(model.py)Yolov8实操快速入门环境配置数据集准备模型的训练/验证/预测/导出使用CLI使用python多任务支持检测实例分割分... 查看详情

一文探索“预训练”的奥秘!

 Datawhale干货 作者:王奥迪,单位:中国移动云能力中心2022年下半年开始,涌现出一大批“大模型”的优秀应用,其中比较出圈的当属AI作画与ChatGPT,刷爆了各类社交平台,其让人惊艳的效果,让... 查看详情

一文详解扩散模型:ddpm(代码片段)

人工智能生成内容(AIGeneratedContent,AIGC)近年来成为了非常前沿的一个研究方向,生成模型目前有四个流派,分别是生成对抗网络(GenerativeAdversarialModels,GAN),变分自编码器(VarianceAuto-Encoder,VAE),标准化流模型(Normalizatio... 查看详情

tensorflow如何在线训练模型

参考技术A在tensorflow2.0以后可以用keras来创建、训练、评估模型:其中训练模型可以用fit方法来批量训练数据:model.fit(x,y,epochs=1)#x为数据,y为相应标签,epochs为训练次数,默认为1 查看详情

yoloyolov8实操:环境配置/自定义数据集准备/模型训练/预测(代码片段)

...ff0c;以及yolov8的模型结构,推荐下面的链接:YOLOv8详解【网络结构+代码+实操】笔者直接从实操入手1环境配置安装pytorch、torchvision和其他依赖库环境配置部分可以参考笔者的博客【YOLO】YOLOv5-6.0环境搭建(不定时... 查看详情

基于tensorflow2.x低阶api搭建神经网络模型并训练及解决梯度爆炸与消失方法实践(代码片段)

1.低阶API神经网络模型1.1.关于tf.Module关于Tensorflow2.x,最令我觉得有意思的功能就是tf.function和AutoGraph了.他们可以把Python风格的代码转为效率更好的Tensorflow计算图。TensorFlow2.0主要使用的是动态计算图和Autograph。Autograph机... 查看详情

基于tensorflow2.x低阶api搭建神经网络模型并训练及解决梯度爆炸与消失方法实践(代码片段)

1.低阶API神经网络模型1.1.关于tf.Module关于Tensorflow2.x,最令我觉得有意思的功能就是tf.function和AutoGraph了.他们可以把Python风格的代码转为效率更好的Tensorflow计算图。TensorFlow2.0主要使用的是动态计算图和Autograph。Autograph机... 查看详情

基于tensorflow2.x低阶api搭建神经网络模型并训练及解决梯度爆炸与消失方法实践(代码片段)

1.低阶API神经网络模型1.1.关于tf.Module关于Tensorflow2.x,最令我觉得有意思的功能就是tf.function和AutoGraph了.他们可以把Python风格的代码转为效率更好的Tensorflow计算图。TensorFlow2.0主要使用的是动态计算图和Autograph。Autograph机... 查看详情

美团云tensorflow迁移学习识花实战案例(transferlearning)(代码片段)

TensorFlow迁移学习识花实战案例(TransferLearning)TensorFlow迁移学习识花实战案例什么是迁移学习为什么要使用迁移学习识花模型中迁移学习的思路VGG模型介绍迁移VGG的思路演示代码文件介绍用例执行过程TensorFlow迁移学习识... 查看详情

如何训练 tensorflow deeplab 模型?

】如何训练tensorflowdeeplab模型?【英文标题】:HowcanItraintensorflowdeeplabmodel?【发布时间】:2020-06-0713:08:48【问题描述】:我需要用我的鞋子数据集训练tensorflowdeeplab模型。然后我将使用这个模型来去除图像鞋的背景。我怎么能训练... 查看详情

(转)darknet模型与tensorflow模型相互转换

...在C环境下训练的,难免较为晦涩,如果能将模型转换到Tensorflow环境下完成模型的训练,在将训练好的权重转为Darknet可以识别的权重部署到实际应用中。这样就可以将算法的训练和实际部署分开!1、将Darknet框架下的.cfg与.weights... 查看详情

线性回归详解(代码实现+理论证明)

文章目录1.使用numpy和tensorflow进行线性回归的案例1.1使用numpy实现线性回归1.1.1代码实现1.1.2生成随机样本点1.1.3训练模型得到线性回归的模型参数1.1.4模型验证1.2使用tensorflow实现线性回归1.2.1导库1.2.2生成随机样本点1.2.3训练模型... 查看详情

线性回归详解(代码实现+理论证明)

文章目录1.使用numpy和tensorflow进行线性回归的案例1.1使用numpy实现线性回归1.1.1代码实现1.1.2生成随机样本点1.1.3训练模型得到线性回归的模型参数1.1.4模型验证1.2使用tensorflow实现线性回归1.2.1导库1.2.2生成随机样本点1.2.3训练模型... 查看详情

一文带你了解知识图谱融入预训练模型哪家强?九大模型集中放送

©原创作者 |疯狂的Max01预训练模型与知识图谱1.预训练模型近年来,随着语言模型的技术发展,其在NLP领域获得巨大的成功,业界SOTA的前沿模型也大多是Transformer结构模型的变体。Transformer结构模型使用注意力机制来获取文本... 查看详情

无法使用经过训练的 Tensorflow 模型

】无法使用经过训练的Tensorflow模型【英文标题】:unabletouseTrainedTensorflowmodel【发布时间】:2018-08-1313:11:32【问题描述】:我是深度学习和Tensorflow的新手。我将预训练的tensorflowinceptionv3模型重新训练为saved_model.pb以识别不同类型... 查看详情