我中心3篇长文被ACL 2018录用
2018年04月25日ACL 2018, the 56th Annual Meeting of the Association for Computational Linguistics将于2018年7月15日至20日在澳大利亚墨尔本举行。ACL年会是计算语言学和自然语言处理领域最重要的顶级国际会议,CCF A类会议,由计算语言学协会主办,每年举办一次。其接收的论文覆盖了对话交互系统、语义分析、摘要生成、信息抽取、问答系统、文本挖掘、机器翻译、语篇语用学、情感分析和意见挖掘、社会计算等自然语言处理领域众多研究方向。ACL 2018共收到长文投稿1018篇,录用258篇,收到短文投稿526篇,共录用126篇,总体录用率为24.9%。
哈尔滨工业大学社会计算与信息检索研究中心共有三篇论文被ACL 2018录用,祝贺大家!下面是论文列表及介绍:
• Distilling Knowledge for Search-based Structured Prediction.
作者:刘一佳,车万翔,赵怀鹏,秦兵,刘挺
类似句法分析、基于神经网络的机器翻译等自然语言处理任务都可以建模为基于搜索的结构预测。这类方法通常面临训练数据歧义、训练测试不一致的问题。本文研究了如何利用知识蒸馏解决上述问题。本文针对基于搜索的结构预测的特点提出一种带有探索的知识蒸馏方式,并经验性地验证其可行性。通过与传统知识蒸馏方法进行结合,本文提出的方法在句法和翻译任务上分别取得了1.3 LAS和2.6 BLEU的提升。除了性能提升,本文也经验性地验证了本文提出的知识蒸馏方法训练更稳定,并能在“错误”状态下做出更好的搜索决策。
• Deep Reinforcement Learning for Chinese Zero Pronoun Resolution.
作者:尹庆宇,张宇,张伟男,刘挺,王洋(王威廉)
关于中文零指代消解,最近的研究都集中在如何通过上下文表示获取更多的零代词和先行语之间的联系。传统的方法每次只预测零代词和一个先行语的可消解性,因此不能够获取长距离的先行词对当前消解的影响。而这种长距离的影响对于先行语的选择是很有帮助的。为了解决这个问题,我们提出了一种基于强化学习的零指代消解模型,它能够通过前序先行语的决定帮助对后续先行语的选择,从而提高了零指代消解的效果。我们在OntoNotes 5.0数据集上进行了实验,实验效果表明我们的方法超越了传统的方法,达到了最好的水平。
• Semantic Parsing with Syntax- and Table-Aware SQL Generation.
作者:孙一博, 唐都钰, 段楠,Jianshu Ji, Guihong Cao, 冯骁骋, 秦兵, 刘挺,周明
本文提出一种将自然语言转化为SQL数据库查询语言的生成模型。这个模型在传统的seq2seq模型的基础上综合考虑了SQL的语法信息和数据库表的结构信息,并在公开数据集WikiSQL上取得了很好的效果。
好事成双,哈工大讯飞联合实验室(HFL)也有一篇长文被ACL 2018录用。其论文与介绍如下:
• Disconnected Recurrent Neural Networks for Text Categorization.
作者:王宝鑫
RNN模型擅长对整个句子进行编码,捕捉长距离依赖信息,但是却不能很好的捕捉一些关键短语。CNN模型则正相反,更擅长抽取局部的位置不变特征。为此,我们提出了一个DRNN模型,通过限制RNN模型信息的流动,将位置不变性引入RNN模型中。我们提出的模型在多个文本分类数据集上取得了最好的效果。
我们后续会陆续发布论文作者对其论文的详细介绍,敬请期待赛尔原创系列推送。