论文泛读162问答系统中答案验证的联合模型

及时行樂_ 及时行樂_     2022-12-05     545

关键词:

贴一下汇总贴:论文阅读记录

论文链接:《Joint Models for Answer Verification in Question Answering Systems》

一、摘要

本文研究了在前几名中选择正确答案句的联合模型。 克由回答句选择 (AS2) 模块提供,这些模块是基于检索的问答 (QA) 系统的核心组件。我们的工作表明,有效利用答案集的关键步骤是对答案对之间的相关信息进行建模。为此,我们构建了一个三向多分类器,它决定一个答案是否支持、反驳或相对于另一个答案是中立的。更具体地说,我们的神经架构将最先进的 AS2 模型与多分类器以及连接所有组件的联合层集成在一起。我们在 WikiQA、TREC-QA 和真实数据集上测试了我们的模型。结果表明,我们的模型在 AS2 中获得了最新的技术水平。

二、结论

我们为AS2提出了新的联合模式。ASR使用额外的Transformer模型和答案支持分类器对目标答案和所有其他候选答案之间的关系进行编码,而MASR联合为所有目标答案的ASR表示建模。我们广泛测试了KGAT,ASR,MASR和其他我们设计的联合模型基线。

结果表明,我们的模型可以超越最先进的水平。最有趣的是,在所有数据集上,通过所有度量,对于基本和大型变压器,ASR总是优于所有模型(除了MASR-FP)。例如,ASR在WikiQA和TRECQA上获得了最佳的报告结果,即MAP值分别为92.80%和94.88%。MASR在WQA的ASR提高了2%,因为这包含了足够的数据来联合训练ASR表示。

三、框架

描述了我们的基线模型,它由逐点、成对和列表策略组成。

多答案支持重新排序器及其构建模块:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

论文泛读190基于子图搜索的在线问答系统

贴一下汇总贴:论文阅读记录论文链接:《AnOnlineQuestionAnsweringSystembasedonSub-graphSearching》一、摘要知识图(KG)已广泛用于问答(QA)应用程序,尤其是基于实体的QA。然而,从整个大规模知识图中搜索答案非常耗时,... 查看详情

论文泛读63弱监督的开放域问答中的潜在检索(orqa-开放检索问答)

贴一下汇总贴:论文阅读记录论文链接:《LatentRetrievalforWeaklySupervisedOpenDomainQuestionAnswering》一、摘要关于开放域问答(QA)的最新工作假设对支持证据的严格监督和/或假设使用黑匣子信息检索(IR)系统来... 查看详情

论文泛读186qa数据集爆炸:用于问答和阅读理解的nlp资源分类

贴一下汇总贴:论文阅读记录论文链接:《QADatasetExplosion:ATaxonomyofNLPResourcesforQuestionAnsweringandReadingComprehension》一、摘要近年来,除了对NLP中的深度学习模型进行大量研究外,还对跟踪建模进度所需的基准数据集进... 查看详情

论文泛读186qa数据集爆炸:用于问答和阅读理解的nlp资源分类

贴一下汇总贴:论文阅读记录论文链接:《QADatasetExplosion:ATaxonomyofNLPResourcesforQuestionAnsweringandReadingComprehension》一、摘要近年来,除了对NLP中的深度学习模型进行大量研究外,还对跟踪建模进度所需的基准数据集进... 查看详情

论文泛读196seq2seq的微型神经模型

贴一下汇总贴:论文阅读记录论文链接:《TinyNeuralModelsforSeq2Seq》一、摘要在面向任务的对话系统中应用的语义解析模型需要高效的序列到序列(seq2seq)架构在设备上运行。为此,我们提出了一种基于投影的编码器-解码... 查看详情

论文泛读196seq2seq的微型神经模型

贴一下汇总贴:论文阅读记录论文链接:《TinyNeuralModelsforSeq2Seq》一、摘要在面向任务的对话系统中应用的语义解析模型需要高效的序列到序列(seq2seq)架构在设备上运行。为此,我们提出了一种基于投影的编码器-解码... 查看详情

论文泛读196seq2seq的微型神经模型

贴一下汇总贴:论文阅读记录论文链接:《TinyNeuralModelsforSeq2Seq》一、摘要在面向任务的对话系统中应用的语义解析模型需要高效的序列到序列(seq2seq)架构在设备上运行。为此,我们提出了一种基于投影的编码器-解码... 查看详情

论文泛读185考虑情绪成分过程模型的情绪识别

贴一下汇总贴:论文阅读记录论文链接:《EmotionRecognitionunderConsiderationoftheEmotionComponentProcessModel》一、摘要文本中的情感分类通常使用神经网络模型执行,该模型学习将语言单元与情感联系起来。虽然这通常会带来良... 查看详情

论文泛读185考虑情绪成分过程模型的情绪识别

贴一下汇总贴:论文阅读记录论文链接:《EmotionRecognitionunderConsiderationoftheEmotionComponentProcessModel》一、摘要文本中的情感分类通常使用神经网络模型执行,该模型学习将语言单元与情感联系起来。虽然这通常会带来良... 查看详情

论文泛读168对训练数据进行重复数据消除会使语言模型变得更好

贴一下汇总贴:论文阅读记录论文链接:《DeduplicatingTrainingDataMakesLanguageModelsBetter》一、摘要我们发现现有的语言建模数据集包含许多几乎重复的示例和长重复的子字符串。结果,在这些数据集上训练的语言模型的自... 查看详情

论文泛读168对训练数据进行重复数据消除会使语言模型变得更好

贴一下汇总贴:论文阅读记录论文链接:《DeduplicatingTrainingDataMakesLanguageModelsBetter》一、摘要我们发现现有的语言建模数据集包含许多几乎重复的示例和长重复的子字符串。结果,在这些数据集上训练的语言模型的自... 查看详情

论文泛读191简化的多模态预训练模型上的多阶段预训练

贴一下汇总贴:论文阅读记录论文链接:《Multi-stagePre-trainingoverSimplifiedMultimodalPre-trainingModels》一、摘要LXMERT等多模态预训练模型在下游任务中取得了优异的成绩。然而,当前的预训练模型需要大量的训练数据,... 查看详情

论文泛读191简化的多模态预训练模型上的多阶段预训练

贴一下汇总贴:论文阅读记录论文链接:《Multi-stagePre-trainingoverSimplifiedMultimodalPre-trainingModels》一、摘要LXMERT等多模态预训练模型在下游任务中取得了优异的成绩。然而,当前的预训练模型需要大量的训练数据,... 查看详情

论文泛读193lichee:使用多粒度标记化改进语言模型预训练

贴一下汇总贴:论文阅读记录论文链接:《LICHEE:ImprovingLanguageModelPre-trainingwithMulti-grainedTokenization》一、摘要基于大型语料库的语言模型预训练在构建丰富的上下文表示方面取得了巨大成功,并在各种自然语言理解(NLU)... 查看详情

论文泛读193lichee:使用多粒度标记化改进语言模型预训练

贴一下汇总贴:论文阅读记录论文链接:《LICHEE:ImprovingLanguageModelPre-trainingwithMulti-grainedTokenization》一、摘要基于大型语料库的语言模型预训练在构建丰富的上下文表示方面取得了巨大成功,并在各种自然语言理解(NLU)... 查看详情

论文泛读193lichee:使用多粒度标记化改进语言模型预训练

贴一下汇总贴:论文阅读记录论文链接:《LICHEE:ImprovingLanguageModelPre-trainingwithMulti-grainedTokenization》一、摘要基于大型语料库的语言模型预训练在构建丰富的上下文表示方面取得了巨大成功,并在各种自然语言理解(NLU)... 查看详情

论文笔记unifiedqa:新sota,生成模型一统问答任务

...xff0c;解码器生成回答。Table1展示了四个问答任务的样例。论文名称:UNIFIEDQA:CrossingFormatBoundarieswithaSingleQASystem论文链接:https://aclanthology.org/2020.findings-emnlp.171 查看详情

论文泛读·adversariallearningforneuraldialoguegeneration

原文翻译导读  这篇文章的主要工作在于应用了对抗训练(adversarialtraining)的思路来解决开放式对话生成(open-domaindialoguegeneration)这样一个无监督的问题。  其主体思想就是将整体任务划分到两个子系统上,一个是生成器... 查看详情