腾讯论文入选ai国际顶会,详细解读nlp研究成果

AI科技大本营 AI科技大本营     2022-12-18     709

关键词:

近日,自然语言处理(NLP)领域顶级会议ACL-IJCNLP 2021公布了论文接收情况。腾讯有50余篇论文被接收,又一次刷新了论文录取数量纪录,领跑国内业界AI研究第一梯队。

本文将对腾讯 AI Lab 主导的两篇论文进行详细解读。

ACL2021杰出论文:

基于单语翻译记忆的神经网络机器翻译技术

论文地址:https://arxiv.org/pdf/2105.11269.pdf

从2017年开始,包括微软、Facebook、腾讯在内的多支研究团队均致力于尝试利用检索式对话系统的结果引导生成式模型,以生成更加相关且更为丰富的对话回复。无独有偶,在机器翻译领域,来自CMU、NYU、腾讯的多个团队也一直在推进利用翻译记忆 (Translation Memory) 提升翻译效果的研究工作。无论是对话还是翻译领域,之前他们的工作均集中在利用输入端相似度的检索方式从平行语料中检索数据,并以某种方式输入到深度生成网络来提升生成/翻译效果( 如下图所示)。

不同于上述工作,在本论文中,作者提出了一种全新的基于单语翻译记忆的翻译框架——训练过程中利用一个双塔结构(dual-encoder framework)的检索模型将源端句子和目标端句子在向量空间对齐,而推理过程中与源端句子在向量空间中距离最近的k条目标端句子,则会被选中作为翻译记忆。需要注意的是,该模型的检索范围并不限定在训练集的句子中,而可以来自任意的单语语料。随后,为了将检索模型与下游翻译模型统一为一个可以端到端训练的整体,检索模型输出的相似度分值将引导翻译模型的注意力(attention)集中到更为有用的检索结果上。基于这样的方式,检索模型可以通过如下逻辑被优化:对最终翻译过程有帮助(能提升参考译文似然度)的检索结果应该被奖励,而那些无用的检索结果则应被惩罚。

实验结果表明,本论文提出的模型即使不使用额外单语数据,翻译效果都要超出目前最好的,而在低资源场景下,一旦模型获得了更多额外的单语语料,模型的翻译效果会大幅度提升。最后,该模型只需对翻译记忆进行热切换就可以实现领域自适应,而不需要对模型进行任何微调。

一、模型设计

本论文提出的方法将整个翻译过程分为检索和生成两步。如图一所示,该方法中翻译记忆库是一堆目标语言句子的集合。在翻译过程中,对于输入,检索模型(Retrieval Model)根据相关度函数从翻译记忆库中找到个可能对翻译有帮助的句子,其中。然后翻译模型根据条件概率生成翻译结果。在训练过程中,最大化参考译文的似然度能够同时优化检索模型和翻译模型的参数。(本部分省略了部分细节,有关模型的更多详情与数学描述请参阅原论文)

  • 检索模型

本论文采取了双塔框架模型进行检索,该框架的优点在于能将搜索问题转化为最大内积搜索(Maximum Inner Product Search)。源端句子和目标端句子的相似度可以通过对应的向量表示的点积得到:

其中分别是源端句子编码器和目标端句子编码器,用两个独立的Transformer实现。在推理时,翻译记忆库中所有句子的向量表示可以用目标端句子编码器提前计算得到,并用FAISS搭建索引。

  • 翻译模型

在翻译过程中,本论文为标准翻译框架(包括一个源端编码器和一个解码器)添加了一个额外的记忆编码器来输入翻译记忆。为了使检索模型和翻译模型能够一同被最终的翻译目标所优化,我们将检索模型得到的相关性分数加入到注意力中的计算中

  (2)

其中是第条翻译记忆中第个片段的的注意力分数, 而是上文提到的相关性得分。简单来说,更有益于提升翻译质量的记忆片段应该收到更多的注意力,进而得到更大的相关性得分,直接优化翻译目标就可以优化检索模型。

  • 跨语言对齐预训练任务

本论文提出的模型存在冷启动问题,因此作者提出了两种跨语言对齐预训练任务为检索模型热身。作者称这两个预训练任务在实践中缺一不可。

二、实验

本论文共进行了三种不同设置的实验:1)传统设置:所有模型都只能用训练集作为翻译记忆库,2)低资源设置:双语训练对数量较少,但模型可以使用额外的单语数据作为翻译记忆,3)利用单语数据实现翻译模型的非参数领域自适应。请注意已有的方法仅能直接适用于第一种设置,而2) 3)两种设置只能依赖本论文提出的模型才成为可能。

  • 实验一:传统设置

本实验使用了翻译记忆的经典数据集JRC-Acquis,并挑选了西英,英西,德英,英德四个翻译方向进行实验。实验中,作者复现了三种经典的基线模型的实验结果,并实现了一系列模型的变种来验证模型不同模块对翻译性能的影响。上表中的Model 1-5分别表示:

1. 没有使用翻译记忆的基本翻译模型 Transformer base。

2. 使用双语翻译记忆的基本翻译模型。

3. 本论文提出的模型,但不进行端到端优化,训练时仅更新翻译模型不更新检索模型。

4 & 5:本论文提出的模型,区别在于异步更新策略 (因字数限制,该部分介绍被省略,详情请参阅原论文)

从实验结果可以看出,在所有任务上,本论文提出的完整模型均取得了最好效果,相对于不使用翻译记忆的基线模型(Model #1)平均提升了3.26 BLEU值。其中端到端训练是关键所在,Model #4 & 5,相对于没有进行端到端训练的Model 3都有超过1 BLEU值的性能提升。最令人惊奇的是,仅仅只使用单语翻译记忆的Model #4 和 #Model 5在性能上居然超过了使用双语翻译记忆的Model 2以及三种复现的基线模型。这可以归因于是端到端训练使跨语言检索模型能更好的适应下游的翻译任务。

  • 实验二:低资源设置

如前文所说,本论文提出的模型最大优势在于能够将单语数据作为翻译记忆。为了证明单语翻译记忆的有效性,作者进行了低资源场景实验,实验中模型只能获得部分双语数据以及额外的单语数据作为翻译记忆。

本场景下仍然有两种不同的训练选择:1)切换翻译记忆时不重新训练翻译模型;以及 2)切换翻译记忆时重新训练翻译模型。在上图中,蓝色虚线代表选择1,而红色实线代表选择2。可以看到,翻译质量随着翻译记忆库规模的增大而显著提升。另一个有趣的现象是,即使使用选择1) 的方式训练,模型的性能也不会受到很大影响。

与Back-translation方法的对比:本论文也与back-translation (BT) 方法进行了对比。如上表所示,本论文提出的方法与BT方法各有所长,但令人惊喜的是,结果表明两种方法是互补的,他们的结合使翻译性能取得了进一步的巨大提升。

  • 实验三:非参数领域自适应

本论文提出的模型的另一个独特优点是可以通过切换翻译记忆,不改变或增加参数即可以适用于特定领域。在最后一个实验中,作者通过切换翻译记忆,实现了翻译领域的自适应。上表中的实验结果表明,只使用双语翻译记忆时,基于翻译记忆的模型和不使用翻译记忆的模型效果各有千秋,但一旦增加了额外的单语翻译记忆,本论文提出的模型在五个领域上的平均BLEU值提升了1.87。

三、总结

本论文首次提出了利用单语翻译记忆提升翻译模型,并发现跨语言的检索模型可以通过端到端的方式进行优化。本论文提出的方法在低资源场景下取得了巨大的性能提升,并且可以实现一个模型适用于所有领域。

作者指出了两个未来可能的提升方向:1)为了保证公平,本研究中所用到的编码器均从随机参数开始训练,使用预训练语言模型将进一步提升翻译性能;2)增大翻译记忆的多样性有可能显著提升翻译性能,但本论文中的模型结构并未考虑这一点。

NAACL最佳论文:

视频辅助无监督语法归纳

论文地址:https://arxiv.org/abs/2104.04369v2

长久以来,句法分析一直都是NLP研究的热点话题之一。很多现有的方法都是在有语法标注的数据集上学习。但是这种有监督的学习存在两个弱点:1. 标注这样的数据集需要大量的语言专家,费时费力。2. 只有几个常见语种有标注好的数据集,许多小语种甚至没有足够的语言专家来标数据。因此,近些年来有越来越多的研究试图从海量未标注的文本中来进行无监督的句法学习。以C-PCFG[1]为例(见下图),给定一个句子,句法抽取器(Grammar Inducer)预测出一个句法图(Chart),并对句子的边缘似然函数进行优化。

除了以上的商业价值以外,无监督句法分析还有着重要的科学价值,长期以来认知科学(cognitive science)界一直争论着人类能习得语言的原因:是人脑中天生就存在某种机制,还是单纯靠统计学习(statistical learning)的方式,而无监督句法分析正是用来验证统计学习理论的重要手段之一。

过去的无监督句法分析的方法都是以纯文本为输入,而视觉中含有很多文本所不具备的知识,因此最近有一些方法[2,3]试图通过图片信息来辅助无监督句法分析。以VC-PCFG [3] 为例(见下图),它在C-PCFG的基础上额外增加了一个图片和句子之间的损失函数,通过图片特征对文本特征进行正则化,可进一步提高句法抽取器的性能。

但是这种方法的提升是有局限的。从VC-PCFG论文的实验部分可以看到,相较于C-PCFG,VC-PCFG主要提升的是NP的性能,而在其他常见的短语类型上的提升并不明显,如VP,PP,SBAR, ADJP和ADVP。这一现象也存在在另一篇文章VG-NSL [2] 中。一个可能的解释是这两篇文章用到的图片特征提取器是在物体分类上训练的,这种特征对于物体有比较准确的描述从而提升了NP。但对于涉及到物体的动作和变化的短语类型,如VP,因为图片是静态的,这种物体分类的特征并不不能提供这样的变化信息。但如果我们将静态图片换成动态视频,很有可能对涉及到动词的短语类型也会有所提升。

本文提出了Multi-Modal Compound PCFGs (MMC-PCFG)用于视频辅助的无监督句法分析 ,框架如下。与VC-PCFG [3]不同的是,本模型以视频作为输入,并融合了视频多种模态的信息,是VC-PCFG [3] 在视频上的泛化。

一、模型设计

对于每个视频我们首先在时间上等间隔抽取包括物体,动作,场景,声音,字符,人脸,语音在内的共M种特征。本文借鉴多模态transformer[4]来计算视频和文本片段之间的相似度。具体来说,我们首先把输入特征的连接在一起, 这里的平均。此外我们还使用特征类型编码和位置编码来区分不同视频特征的种类和时间顺序。然后将这三者的加和作为transformer的输入,并使用与各平均特征对应位置的输出作为视频特征的输出,记作

接下来我们计算视频和某个句子中某个片段之间的相似度。这里用表示该片段的特征。我们利用gated embedding module将映射到个不同的编码,记作。然后视频和文中片段的相似度可以通过加权求和这对视频和文中片段的cosine值得到,即。这里的权重是将输入到一个线性层通过softmax得到。

我们用hinge loss来计算视频V和某文本片段c的损失函数,即。这里分别表示的是其他句子的某个片段和其他视频的特征。视频和句子也相应地定义为所有片段的加权求和,这里的权重通过句法图获得。

训练时,我们同时优化句子的边缘概率函数和句子视频的匹配函数。测试时,只需要输入文本,通过CKY算法即可推导出句法树

二、实验

我们在三个数据集(DiDeMo, YouCook2, MSRVTT)上做了实验。因为这些数据集没有语法标注,我们用一个监督学习的方法[5]预测出来的结果当作reference tree。对于物体和动作特征,我们还用不同模型提取了多种不同的特征,包括物体(ResNeXt-101,SENet-154)和动作(I3D,R2P1D,S3DG)。每组实验都跑10个epoch并用不同的种子跑了4次。实验结果见表1。LBranch,RBranch和Random代表left branching tree, right branching tree 和random tree。因为VC-PCFG是为图片设计的,不能直接以视频作为输入。为了对比VC-PCFG,我们设计了一些简单的baseline。第一种baseline是将单个特征在时间轴上取平均,作为VC-PCFG输入 (ResNeXt, SENet …, Speech)。另一个baseline是将这些取平均的特征连接在一起然后作为VC-PCFG的输入 (Concat)。

首先我们比较C-F1和S-F1这两个综合评指标。Right Branching性能很强主要因为英语很大程度上是right branching的。VC-PCFG整体上要比比C-PCFG效果要好,说明利用视频信息是有帮助的。简单的将所有特征连在一起并不能让效果变的更好,有时甚至还不如单个特征(比如Concat 和 R2P1D)。其主要原因是没有考虑特征直接的关系。而我们提出的MMC-PCFG在所有三个数据集中性能都达到了最好的结果,说明我们的模型可以有效利用所有特征的信息。

接下来我们比较这些方法在NP,VP 和PP三种常见短语类型的召回率。对比在单个特征训练的VC-PCFG,使用物体特征(ResNeXt-101,SENet-154)在NP上的效果更好,而使用动作特征(I3D,R2P1D,S3DG)在VP和PP上效果更好。这验证了不同特征对不同的句法结构贡献不同。和VC-PCFG相比,MMC-PCFG在NP,VP和PP的召回率都是前两名且标准差较小,再次说明MMC-PCFG可以有效利用所有特征的信息,并给出较为一致的预测。

三、总结

受限于静态图片的表达能力,现有基于图片的无监督句法分析方法对于动词相关的短语提升有限。本文所提出的利用视频来辅助无监督句法分析可有效的解决这个问题。同时本文还提出了Multi-Modal Compound PCFG用来集成多种不同的特征。该模型的有效性在三个数据集上得到了验证。

从认知科学的角度看,考虑视觉信息、尤其是视频信息,更加接近人类所处的多模态环境,因此本文的结论推进了语言习得中统计学习理论的可能性,而如果这一理论最终得以验证,那么最终打造一个能实时捕捉多模态信息的机器人去习得人类语言将更有可能。

引用:

[1] Kim et al. Compound Probabilistic Context-Free Grammars for Grammar Induction. ACL 2019

[2] Shi et al. Visually Grounded Neural Syntax Acquisition. ACL 2019

[3] Zhao et al. Visually Grounded Compound PCFGs. EMNLP 2020

[4] Gabeur et al. Multi-modal Transformer for Video Retrieval. ECCV 2020

[5] Kitaev et al. Constituency Parsing with a Self-Attentive Encoder. ACL 2018

技术

Python实现对脑电数据情绪分析

技术

大有乾坤,售前机器人背后 AI 技术

新闻

AI 新技术,遏制在线骚扰

转载

DPU加持下的阿里云如何做加密运算?

分享

点收藏

点点赞

点在看

腾讯turinglab论文入选icassp,图像ai研究成果获国际认可

近日,全球顶级信号处理技术会议ICASSP2022公布了论文入选名单。由王君乐博士带领的腾讯TuringLab实验室论文——《针对手机游戏的主观与客观视频质量评价》(SubjectiveandObjectiveQualityAssessmentofMobileGamingVideo)、《引入... 查看详情

腾讯ailab解读两项nlp成果

...仅做学术分享,如有侵权,联系删除转载于:腾讯AI实验室自然语言处理(NLP)领域顶级会议ACL2021于8月2日至5日在线上举行。本届ACL共收到3350篇论文投稿,其中主会论文录用率为21.3%。据不完 查看详情

腾讯ailab解读两项nlp成果

...仅做学术分享,如有侵权,联系删除转载于:腾讯AI实验室自然语言处理(NLP)领域顶级会议ACL2021于8月2日至5日在线上举行。本届ACL共收到3350篇论文投稿,其中主会论文录用率为21.3%。据不完 查看详情

学术顶会再突破!计算平台maxcompute论文入选国际顶会vldb2021

简介: VLDB2021上,阿里云计算平台MaxCompute参与的论文入选,核心分布式调度执行引擎Fangorn、基于TVRCost模型的通用增量计算优化器框架Tempura等分别被IndustryTrack、ResearchTrack录取。一、顶会概览VLDB2021上,阿里云计... 查看详情

聚焦计算机视觉前沿,蚂蚁技术研究院4篇论文入选顶会neurips

...#xff0c;成立一年的蚂蚁技术研究院共四篇论文被录用,研究成果聚焦计算机视觉技术的前沿问题。 NeurIPS2022NeurIPS(NeuralInformationProcessingSystems)是全球最负盛名的机 查看详情

高精尖中心论文入选国际顶会acl2022,进一步拓展长安链隐私计算能力

...,未来区块链与隐私计算高精尖创新中心研究团队的论文《THE-X:Privacy-PreservingTransformerInferencewithHomomorphicEncryption》成功入选自然语言处理领域国际顶级学术会议ACL2022Findings。THE-X是面向预训练大模型的同态加密解决方案,... 查看详情

interspeech2022|钉钉蜂鸣鸟音频实验室论文入选国际顶会,创新提出窄带滤波网络架构

...去混响联合语音增强效果,提升音频质量,相关论文已被语音领域顶会INTERSPEECH2022收录。INTERSPEECH是由国际语音通讯协会(ISCA)创办的顶级学术会议,也是全球最大的综合性语音领域的科技盛会,在国际上... 查看详情

国际顶会osdi首度收录淘宝系统论文,端云协同智能获大会主旨演讲推荐

大淘宝技术团队论文入选计算机系统领域顶级国际学术会议OSDI,这是淘宝系统论文首次入选该国际顶会,论文详解了阿里历经四年、自主研发的首个端到端、通用型、规模化产业应用的端云协同机器学习系统“瓦力”—... 查看详情

最牛的nlp都在研究啥?统计400多篇顶会论文发现:统一泛化标准是关键

Alex詹士发自凹非寺量子位|公众号QbitAI一篇NLP (自然语言处理)研究综述文章火了。根据paperswithcode统计,此文目前已经获赞超800,转发超200次。来自MetaAI、亚马逊、剑桥大学和纽约大学等的研究人员,针对NL... 查看详情

阿里云飞天论文获国际架构顶会atc2021最佳论文:全球仅三篇

...8;JAVA语言的前身)、QEMU、ZooKeeper等一系列有影响力的研究成果都在USENIXATC发表或公 查看详情

阿里云飞天论文获国际架构顶会atc2021最佳论文:全球仅三篇

...8;JAVA语言的前身)、QEMU、ZooKeeper等一系列有影响力的研究成果都在USENIXATC发表或公布 查看详情

nlp/cl顶会收录

...料(2016修订版)。1. 国际学术组织、学术会议与学术论文自然语言处理(naturallanguageprocessing,NLP)在很大程度上与计算语言学(computationallinguistics,CL)重合,是计算机科学与语言学的交叉学科,也是人工智能的重要方向。... 查看详情

cvpr2023|旷视研究院入选论文亮点解读

近日,CVPR2023论文接收结果出炉。近年来,CVPR的投稿数量持续增加,今年收到有效投稿9155篇,和CVPR2022相比增加12%,创历史新高。最终,大会收录论文2360篇,接收率为25.78%。本次,旷视研究院有13... 查看详情

解读顶会icde’21论文:利用daemon算法解决多维时序异常检测问题

摘要:该论文针对多维时序数据的异常检测问题,提出了基于GAN和AutoEncoder的深度神经网络算法,并取得了当前StateoftheArt(SOTA)的检测效果。论文是云数据库创新LAB在轨迹分析层面取得的关键技术成果之一。本文分享自... 查看详情

腾讯游戏ai可以诊断疾病;妄议马斯克?员工遭解雇后再起诉;geohot任职twitter5.5周后离职...

...I新鲜事?产业界把游戏AI用于疾病诊断,腾讯AILab研究成果登上国际顶会12月19日,腾讯AILab发布其决策智能AI“绝悟”的最新成果“绝悟RLogist”,将AI深度强化学习技术迁移到病理全片扫描图像诊断领域,在性... 查看详情

数据库“自动驾驶”,腾讯云原生数据库xai探索与突破!

导语 | 腾讯云原生数据库团队最新研究成果入选国际顶会SIGMOD,数据库结合AI形成自治大脑,并在2022年智能调优人机大赛中战绩不菲,标志着腾讯云在数据库自治领域取得重大突破,实现性能领先。加入AI技术&#x... 查看详情

acmmm论文放榜!淘系技术内容互动算法团队4篇论文入选!

国际多媒体顶级学术会议(ACMMM2021)论文接收名录公开!淘系技术内容互动算法团队4篇论文入选!恭喜恭喜~国际多媒体学术会议(ACMMM)是计算机学科公认的多媒体领域和计算机视觉领域的国际顶级会议&#... 查看详情

ai新技术革命将如何重塑就业和全球化格局?深度解读un报告(下篇)

欢迎大家前往腾讯云社区,获取更多腾讯海量技术实践干货哦~相关推荐:AI新技术革命将如何重塑就业和全球化格局?深度解读UN报告(上篇)AI新技术革命将如何重塑就业和全球化格局?深度解读UN报告(中篇)(四)国际合作... 查看详情