哈工大SCIR八篇论文被AAAI-20录用
2019年11月11日AAAI-20(The Thirty-Fourth AAAI Conference on Artificial Intelligence)将于2020年2月7日至12日在美国纽约举行。AAAI是人工智能领域的顶级国际会议,CCF A类会议,每年举办一次。本届AAAI-20共计收到7737个有效投稿,最终共有1591篇论文被大会录用,总录用率为20.6%。
哈尔滨工业大学社会计算与信息检索研究中心共有8篇长文被AAAI-20录用,下面是论文列表及介绍:
题目:Discriminative Sentence Modeling for Story Ending Prediction
作者:崔一鸣,车万翔,张伟男,刘挺,王士进,胡国平
简介:故事结局预测(Story Ending Prediction)任务的目标是让机器阅读故事并且根据上下文以及常识从两个候选结局中挑选出正确的结局。为了解决这个问题,我们提出了Diff-Net模型来更好地建模两个结局的差异性。该模型能够从三个层面对结局的不同点进行建模:上下文级别、故事理解级别、区分性级别。在Story Cloze Test(SCT)数据集上的实验结果表明该模型能够显著提升故事结局预测的效果,并且我们给出了详细的消融实验来验证模型的有效性。除此之外,我们也详细分析了传统神经网络模型和基于BERT的模型在SCT v1.0和v1.5下的表现,并且得到了一些有趣的发现,这对于未来在该任务上的研究有一定的价值。
题目:Generating Persona Consistent Dialogues by Exploiting Natural Language Inference
作者:宋皓宇,张伟男,胡景雯,刘挺
简介:一致性问题是对话生成任务面临的主要挑战之一。高质量的对话不仅需要对输入作出自然的回复,而且还需要保持一致的角色特征。在这项工作中,我们利用了文本蕴含技术建模了人物角色的一致性问题。不同于已有的基于重排序的工作,我们把该项任务建模为强化学习问题,并利用文本蕴含信号优化对话生成模型。具体来说,我们的生成模型使用了基于注意力机制的编码器-解码器来生成基于角色文本的回复。另一方面,我们的评估器由两部分组成:一个由对抗训练方法训练得到的自然度模块和一个基于文本蕴含的一致性模块。此外,我们引入了另一个性能良好的文本蕴含模型来客观评价生成回复的角色一致性。我们进行了定性和定量的实验,结果表明,我们的方法优于强基线模型,尤其是在生成回复的角色一致性方面。
题目:Learning to Select Bi-Aspect Information for Document-Scale Text Content Manipulation
作者:冯骁骋,孙亚威,秦兵,龚恒,闭玮,刘晓江,刘挺
简介:在本文中我们专注于段落级文本内容操作这一新的并具有很高实用价值的任务,与文本风格迁移相反,该任务的目标是替换文本主题而保留文本风格。任务的输入是一组结构化数据(例如一场篮球比赛的统计表格)和描写另一个类似数据集合的摘要文本(另一场比赛的新闻),输出则是尽可能用给出摘要文本的描述方式来生成描写输入结构化数据的摘要文本。整个任务由于缺少对齐语料而只能通过非监督的文本生成方法来进行操作,其挑战主要是需要生成器从两类输入数据中选择合适的数据记录和风格词去生成新的摘要。在本论文中,我们利用篮球比赛数据(ROTOWIRE)构造了对应的段落级文本内容操作数据集,并开发了一个非监督的交互注意力模型去同时对两方面输入数据进行选择,在此基础之上应用反向翻译方法进一步提高模型生成性能,最终实验结果显示,我们的方法在段落级文本内容操作和句子级文本操作语料上均取得了最好的结果。
题目:Neural Semantic Parsing in Low-Resource Settings with Back-Translation and Meta-Learning
作者:孙一博,唐都钰,段楠,宫叶云,冯骁骋,秦兵,Daxin Jiang
简介:神经语义解析近年来取得了令人瞩目的成果,但它的成功依赖于大量的训练数据。在这个工作中,我们尝试在只有有限数量的简单规则的先验知识可用时(语料中既没有自然语言对应的目标逻辑表达式,也没有程序执行的结果)构建一个神经语义解析器。我们的方法是由规则初始化的,并在反向翻译范式中使用语义解析器和问题生成器生成的(问题,程序)对不断迭代训练。同时我们利用在训练过程中自动构建并更新的短语表来控制生成数据的质量。在训练阶段,我们利用元学习策略(MAML)对模型进行训练,保证了模型处理“规则覆盖的实例”的准确性和稳定性,同时使得模型在处理“非规则覆盖的实例”时保持良好的泛化性。在三个不同领域的基准数据集上的结果表明,我们的方法有效地提高了在语料稀缺条件下模型的效果。
题目:DCR-Net: A Deep Co-Interactive Relation Network for Joint Dialog Act Recognition and Sentiment Classification
作者:覃立波,车万翔,李扬名,倪旻恒,刘挺
简介:在对话系统中,对话行为识别和情感分类是捕获说话人意图的两个相关任务,其中对话行为和情感可以分别表示显式和隐式意图。现有的大多数系统要么将它们视为单独的任务,要么只是通过隐式共享参数来联合建模两个任务,但没有显示地建模两个任务相互的交互和关系。为了解决这个问题,我们提出了一个深度交互关系网络(DCR-Net),通过引入交互关系层来明确考虑双方的相互关系。并且,可以将提出关系层堆叠起来从而实现双方关系交互的逐渐捕获。此外,我们还彻底研究了不同的关系层及其影响。在两个公共数据集的实验结果显示,我们的模型取得了sota性能。充分的分析实验也验证了提出的关系交互层以及多步交互机制进行显式建模的有效性。
题目:Knowledge Graph Grounded Goal Planning for Open-Domain Conversation Generation
作者:徐俊,王海峰,牛正雨,吴华,车万翔
简介:经典的基于神经网络的开放域对话生成没有有效的机制来管理聊天主题,并且往往产生不太连贯的多轮对话。在人-人对话策略的启发下,我们将多轮开放域会话生成任务分为两个子任务:显式目标(话题选择)序列规划和目标细化(深入话题聊天)。为此,我们提出了一个基于知识的三层强化学习模型(KnowHRL)。具体来说,对于第一个子任务,上层策略学习遍历知识图(KG),以规划显式目标序列,从而在对话一致性、主题一致性与用户兴趣之间取得良好平衡。对于第二个子任务,中间层策略和下层策略协同工作,借助目标完成机制,围绕给定话题的同用户进行深入聊天。显式目标序列规划功能使开放域聊天机器人具备主动引导对话能力,具有许多实际应用场景,如推荐学习资源。实验表明,我们的模型在用户兴趣一致性、对话一致性和知识准确性方面优于最新的基线。
题目:Understanding Medical Conversations with Scattered Keyword Attention and Weak Supervision from Responses
作者:施晓明,胡海峰,车万翔,孙钟前,刘挺,黄俊洲
简介:本工作研究的任务是医疗槽填充任务,该工作被定义为多标签分类问题。我们从医疗咨询网站上收集了大量的医疗对话数据,并进行筛选和小规模标注,该数据集将会公开。针对医疗对话的两个问题:(1)医疗实体词汇不连续性 (2)医疗对话数据缺乏,标注成本高,本工作提出了(1)利用注意力机制缓解医疗实体不连续的问题(2)利用医疗请求和回复之间的强逻辑关系,将无标注数据中的回复中的医疗实体作为医疗请求的弱监督,在上述方式构建的大量弱监督数据上进行预训练,然后在小规模精标注数据上进行fine-tuning。实验结果显示,我们的模型取得了显著的提升。
题目:Multi-Task Self-Supervised Learning for Disfluency Detection
作者:王少磊,车万翔,刘琦,秦鹏达,刘挺,王洋(王威廉)
简介:目前大部分在不流畅度检测(Disfluency Detection)任务上的工作都严重依赖人工标注数据。为了减少对有标注数据的依赖,我们尝试用自监督学习的方法来处理不流畅度检测任务,并提出了两种高效的自监督学习任务。实验结果证明我们的方法能有效减少对有标注数据的依赖,只利用1%左右的有标注数据就能实现与之前最好方法类似的性能。