一文浅谈深度学习泛化能力

Python数据科学 Python数据科学     2022-11-29     769

关键词:

论文主要探讨的是, 为什么过参数的神经网络模型还能有不错的泛化性?即并不是简单记忆训练集,而是从训练集中总结出一个通用的规律,从而可以适配于测试集(泛化能力)。

以经典的决策树模型为例, 当树模型学习数据集的通用规律时:一种好的情况,假如树第一个分裂节点时,刚好就可以良好区分开不同标签的样本,深度很小,相应的各叶子上面的样本数是够的(即统计规律的数据量的依据也是比较多的),那这会得到的规律就更有可能泛化到其他数据。(即:拟合良好, 有泛化能力)。

另外一种较差的情况,如果树学习不好一些通用的规律,为了学习这个数据集,那树就会越来越深,可能每个叶子节点分别对应着少数样本(少数据带来统计信息可能只是噪音),最后,死记硬背地记住所有数据(即:过拟合 无泛化能力)。我们可以看到过深(depth)的树模型很容易过拟合。

那么过参数化的神经网络如何达到良好的泛化性呢?

本文是从一个简单通用的角度解释——在神经网络的梯度下降优化过程上,探索泛化能力的原因:

我们总结了梯度相干理论 :来自不同样本的梯度产生相干性,是神经网络能有良好的泛化能力原因。当不同样本的梯度在训练过程中对齐良好,即当它们相干时,梯度下降是稳定的,可以很快收敛,并且由此产生的模型可以有良好的泛化性。否则,如果样本太少或训练时间过长,可能无法泛化。

基于该理论,我们可以做出如下解释。

2.1 宽度神经网络的泛化性

更宽的神经网络模型具有良好的泛化能力。这是因为,更宽的网络都有更多的子网络,对比小网络更有产生梯度相干的可能,从而有更好的泛化性。换句话说,梯度下降是一个优先考虑泛化(相干性)梯度的特征选择器,更广泛的网络可能仅仅因为它们有更多的特征而具有更好的特征。

论文原文:Generalization and width.  Neyshabur et al. [2018b] found that wider networks generalize better.  Can  we  now  explain  this?  Intuitively,  wider  networks  have  more  sub-networks  at any given level, and so the sub-network with maximum coherence in a wider network may be more coherent than its counterpart in a thinner network, and hence generalize better.  In other words,  since—as discussed in Section 10—gradient descent is a feature selector that prioritizes  well-generalizing  (coherent)  features,  wider  networks  are  likely  to  have  better features  simply  because  they  have  more  features.  In  this  connection,  see  also  the  Lottery Ticket Hypothesis [Frankle and Carbin, 2018]

论文链接:https://github.com/aialgorithm/Blog

但是个人觉得,这还是要区分下网络输入层/隐藏层的宽度。特别对于数据挖掘任务的输入层,由于输入特征是通常是人工设计的,需要考虑下做下特征选择(即减少输入层宽度),不然直接输入特征噪音,对于梯度相干性影响不也是有干扰的。

2.2 深度神经网络的泛化性

越深的网络,梯度相干现象被放大,有更好的泛化能力。在深度模型中,由于层之间的反馈加强了有相干性的梯度,存在相干性梯度的特征(W6)和非相干梯度的特征(W1)之间的相对差异在训练过程中呈指数放大。从而使得更深的网络更偏好相干梯度,从而更好泛化能力。

2.3 早停(early-stopping)

通过早停我们可以减少非相干梯度的过多影响,提高泛化性。

在训练的时候,一些容易样本比其他样本(困难样本)更早地拟合。训练前期,这些容易样本的相干梯度做主导,并很容易拟合好。训练后期,以困难样本的非相干梯度主导了平均梯度g(wt),从而导致泛化能力变差,这个时候就需要早停。(注:简单的样本,是那些在数据集里面有很多梯度共同点的样本,正由于这个原因,大多数梯度对它有益,收敛也比较快。)

2.4  全梯度下降 VS  学习率

我们发现全梯度下降也可以有很好的泛化能力。此外,仔细的实验表明随机梯度下降并不一定有更优的泛化,但这并不排除随机梯度更易跳出局部最小值、起着正则化等的可能性。

Based on our theory, finite learning rate, and mini-batch stochasticity are not necessary for generalization

我们认为较低的学习率可能无法降低泛化误差,因为较低的学习率意味着更多的迭代次数(与早停相反)。

Assuming  a  small  enough  learning  rate,  as  training  progresses,  the  generalization  gap cannot  decrease.  This  follows  from  the  iterative  stability  analysis  of  training:  with 40 more  steps,  stability  can  only  degrade.  If  this  is  violated  in  a  practical  setting,  it  would point to an interesting limitation of the theory

2.5 L2、L1正则化

目标函数加入L2、L1正则化,相应的梯度计算, L1正则项需增加的梯度为sign(w) ,L2梯度为w。以L2正则为例,相应的梯度W(i+1)更新公式为:我们可以把“L2正则化(权重衰减)”看作是一种“背景力”,可将每个参数推近于数据无关的零值 ( L1容易得到稀疏解,L2容易得到趋近0的平滑解) ,来消除在弱梯度方向上影响。只有在相干梯度方向的情况下,参数才比较能脱离“背景力”,基于数据完成梯度更新。

2.6 梯度下降算法的进阶
  • Momentum 、Adam等梯度下降算法
  • Momentum 、Adam等梯度下降算法,其参数W更新方向不仅由当前的梯度决定,也与此前累积的梯度方向有关(即,保留累积的相干梯度的作用)。这使得参数中那些梯度方向变化不大的维度可以加速更新,并减少梯度方向变化较大的维度上的更新幅度,由此产生了加速收敛和减小震荡的效果。

  • 抑制弱梯度方向的梯度下降
  • 我们可以通过优化批次梯度下降算法,来抑制弱梯度方向的梯度更新,进一步提高了泛化能力。比如,我们可以使用梯度截断(winsorized gradient descent),排除梯度异常值后的再取平均值。或者取梯度的中位数代替平均值,以减少梯度异常值的影响。

    小结

    文末说两句,对于深度学习的理论,有兴趣可以看下论文提及的相关研究。个人水平有限,不足之处还望指教,有什么见解,欢迎学习群相互讨论下。

    - END -

    推荐阅读
    1. pandas100个骚操作
    2. pandas数据清洗
    机器学习原创系列
    4. 数据科学干货下载

    [人工智能-深度学习-19]:神经网络基础-模型训练-泛化过拟合欠拟合以及常见的解决办法

    作者主页(文火冰糖的硅基工坊):文火冰糖(王文兵)的博客_文火冰糖的硅基工坊_CSDN博客本文网址:https://blog.csdn.net/HiWangWenBing/article/details/120591865目录第1章学习效果评估标准与学习效果状态1.1概述1.2 泛化能力1... 查看详情

    深度学习——计算机视觉

    提高模型泛化能力的方法——图像增广和微调图像增广图像增广(imageaugmentation)技术通过对训练图像做一系列随机改变,来产生相似但又不同的训练样本,从而扩大训练数据集的规模。图像增广的另一种解释是&#... 查看详情

    李航统计学习方法(第二版)基本概念:泛化能力

     1泛化误差学习方法的泛化能力(generalizationability)是指由该方法学习到的模型对未知数据的预测能力,是学习方法本质重要的性质。泛化误差反映了学习方法的泛化能力,如果一种方法学习的模型比另一种方法学习的模型具有... 查看详情

    深度学习为何泛化好?cmu博士论文《解释深度学习中的泛化性》

    ...学术分享,如有侵权,联系删除转载于:专知深度学习具有良好的泛化性。如何对此进行理论性解释,一直是研究热点。来自CMU的博士生VaishnavhNagarajan对深度学习泛化性进行了系统性研究,并整理成博士论文&# 查看详情

    深度学习正则化(代码片段)

    目录1L1与L2正则化2Dropout正则化3提前停止4批标准化5总结1L1与L2正则化在设计机器学习算法时不仅要求在训练集上误差小,而且希望在新样本上的泛化能力强。许多机器学习算法都采用相关的策略来减小测试误差,这些策... 查看详情

    深度学习为何泛化好?cmu博士论文《解释深度学习中的泛化性》

    ...学术分享,如有侵权,联系删除转载于:专知深度学习具有良好的泛化性。如何对此进行理论性解释,一直是研究热点。来自CMU的博士生VaishnavhNagarajan对深度学习泛化性进行了系统性研究,并整理成博士论文&#... 查看详情

    深度学习wide&deepmodel

    推荐系统在电商等平台使用广泛,这里讨论wide&deep推荐模型,初始是由google推出的,主要用于app的推荐。概念理解Wide&Deep模型,旨在使得训练得到的模型能够同时获得记忆(memorization)和泛化(generalization)能力:记忆(me... 查看详情

    如何提高深度学习的泛化能力?

    数据增强在样本有限的情况下,采用数据增强的方法对原有样本进行变换:平移、旋转、镜像翻转几何变换、对比度变换、颜色变换、添加随机噪声、图像模糊弹性变换算法:双线性插值、双三次插值预处理均值减法... 查看详情

    《繁凡的深度学习笔记》前言目录大纲一文弄懂深度学习所有基础

    《繁凡的深度学习笔记》前言、目录大纲一文弄懂深度学习所有基础!●●●本文《繁凡的深度学习笔记》是我自学完成深度学习相关的教材、课程、论文、项目实战等内容之后,自我总结的学习笔记^q^写文章就图一乐&#... 查看详情

    什么是机器学习泛化能力举例子?

    机器学习泛化能力是指机器学习模型在训练集上学到的知识能够应用到新的数据上,并能够正确预测新数据的结果。举个例子,比如我们使用机器学习模型训练了一个预测房价的模型,训练集包含了历史房价数据,训练出来的模... 查看详情

    如何将知识引入机器学习模型提升泛化能力?

    摘要:近年来,基于数据驱动的机器学习模型开始提供可替代的方法,并在许多任务中优于纯物理学驱动模型。本文分享自华为云社区《如何将知识引入机器学习模型提升泛化能力?》,作者:PG13。基于... 查看详情

    一文看懂深度学习——人工智能系列学习笔记

    深度学习有很好的表现,引领了第三次人工智能的浪潮。目前大部分表现优异的应用都用到了深度学习,大红大紫的AlphaGo就使用到了深度学习。本文将详细的给大家介绍深度学习的基本概念、优缺点和主流的几种算法。... 查看详情

    你都有哪些炼丹神器深度学习(rnn、cnn)调参的经验?

    对于rnn和cnn这种深度学习模型,常用的炼丹神器可能包括:调节学习率:学习率较小可以保证模型在训练时稳定,但是训练速度较慢;学习率较大可能会使模型在训练时快速收敛,但是有可能导致过拟合。调节隐藏单元数量:隐... 查看详情

    浅谈机器学习之深度学习(代码片段)

    个人公众号yk坤帝获取更多学习资料,学习建议1.1.4深度学习之“深度”深度学习是机器学习的一个分支领域:它是从数据中学习表示的一种新方法,强调从连续的层(layer)中进行学习,这些层对应于越来... 查看详情

    「深度学习一遍过」必修12:激活函数池化归一化泛化正则化

    本专栏用于记录关于深度学习的笔记,不光方便自己复习与查阅,同时也希望能给您解决一些关于深度学习的相关问题,并提供一些微不足道的人工神经网络模型设计思路。专栏地址:「深度学习一遍过」必修篇... 查看详情

    一文详解深度学习中的normalization

    一、深度学习中的InternalCovariateShift(ICS)深度学习的训练过程可以看成很多层的叠加,而每一层的参数更新会导致下一层输入数据的分布发生变化,通过层层累加,高层的输入分布变化会非常剧烈导致上层的数据需要不断去变... 查看详情

    机器学习模型的泛化能力不足,有啥改进思路

    ...在测试集上效果更差。这时候你要考虑的是你选择的机器学习算法到底有没有用,你选取的特征到底有没有用,换个算法,换个特征,也许才能提高。本回答被提问者采纳 查看详情

    《繁凡的深度学习笔记》前言目录大纲一文让你完全弄懂深度学习所有基础(dl笔记整理系列)

    《繁凡的深度学习笔记》前言、目录大纲(DL笔记整理系列)一文弄懂深度学习所有基础!3043331995@qq.comhttps://fanfansann.blog.csdn.net/https://github.com/fanfansann/fanfan-deep-learning-note作者:繁凡version1.0 2022-1 查看详情