哈工大社会计算与信息检索研究中心
友爱  力行  乐学  日新

HIT-SCIR

哈工大SCIR两篇论文被IJCAI 2019录用

哈工大SCIR两篇论文被IJCAI 2019录用

2019年05月11日

IJCAI 2019, the 28th International Joint Conference on Artificial Intelligence将于2019年8月10日至16日中国澳门举行。IJCAI是人工智能领域的顶级国际会议,是CCF A类会议,起于1969年每两年举办一次,自2016年起每年举办一次。IJCAI 2019收到有效投稿4752篇,最终录用850篇,录用率17.8%

哈尔滨工业大学社会计算与信息检索研究中心共有2篇论文被IJCAI 2019录用。下面是论文列表及介绍:

 

题目Exploiting Persona Information for Diverse Generation of Conversational Responses

作者:宋皓宇,张伟男,崔一鸣,王栋,刘挺

简介:在人与人的对话过程中,由于个人信息(Persona)的存在,人们可以很容易地进行和维持对话。给聊天机器人提供特定的身份信息,如何利用这些信息来产生多样化且可持续的对话仍然不是一项容易的任务。已有的基于角色信息的对话模型成功地利用了预定义的信息,并且在生成更加真实的回复方面表现出了巨大的潜力。在这些模型的训练过程中,给定一个输入,学习目标是一个唯一的回复。然而,在人类对话中,对于一个输入,往往存在着不止一个的恰当回复(One-to-Many)。在这项工作中,我们提出了一个基于记忆机制的模型来建模聊天机器人的个人信息,并结合了条件变分自编码器,以产生多样的和可持续的回复。我们在标准评测数据集PERSONA-CHAT上进行了实验,客观指标和人工评价的结果都表明,与基线方法相比,我们的模型能够生成更多样、更具吸引力的回复。

 

题目:Story Ending Prediction by Transferable BERT

作者:李忠阳,丁效,刘挺

简介:最近的研究进展显示通过集成一个预训练好的语言模型和微调操作可以提升下游NLP系统的性能,例如GPT和BERT模型。然而,这一框架仍存在一些基本问题,例如不能够有效利用其它语义相关任务可以提供的有监督信息。在这篇论文中,我们研究了一个叫做Transferable BERT (TransBERT)的训练框架。对于一个目标任务,它不仅可以学习大规模未标注数据中的通用语言知识,而且可以有效利用各种语义相关任务提供的有监督信息。具体地,针对故事结尾预测任务,我们提出了三种语义相关的中间迁移任务,包括自然语言推断、情感分类和后续动作预测,在预训练模型的基础上来进一步训练BERT。这使得BERT可以学到更好的初始化参数。最终,我们在Story Cloze Test测试集上取得了91.8%的准确率,大幅超越了前人的模型。对比实验提供了一些关于如何选择中间迁移任务的建议,错误分析显示了在故事结尾预测任务上基于BERT的模型具有怎样的优缺点。


Copyright © Research Center for Social Computing and Information Retrieval 2001 - 2015
P.O.Box 321, HIT, P.R.China 150001
webmaster at ir dot hit dot edu dot cn