哈工大社会计算与信息检索研究中心
友爱  力行  乐学  日新

HIT-SCIR

我中心7篇长文被COLING 2016录用

我中心7篇长文被COLING 2016录用

2016年09月30日

COLING 2016, the 26th International Conference on Computational Linguistics,将于2016年12月13日至16日在日本大阪举行。COLING为自然语言处理领域重要的国际会议之一,每两年举办一次。

我中心共有7篇论文被COLING 2016录用,下面是论文列表及介绍:

  • A Neural Attention Model for Disfluency Detection. 作者:王少磊,车万翔,刘挺.

    Disfluency Detection任务的目的是识别口语句子中冗余的部分,其核心问题是如何建模长距离依赖现象和保证删除冗余后的句子的语法完整性。以往的研究方法主要有两种:一种是将Disfluency Detection看做序列标注任务,另一种是将Disfluency Detection和依存句法分析任务相结合。本文将Disfluency Detection定义为sequence-to-sequence任务,通过对pointer network的框架进行修改,从而保证生成的句子是输入句子的有序子序列,取得了非常不错的实验结果,欢迎关注。

  • A Unified Architecture for Semantic Role Labeling and Relation Classification. 作者:郭江,车万翔,王海峰,刘挺,徐俊.

    针对语义角色标注(SRL)和语义关系分类(RC)这两个典型的自然语言处理任务在问题定义、模型选择以及关键特征上的内在一致性,我们提出一个统一的网络结构,分别对词法特征、句法特征、全局上下文特征进行建模。该模型在多种语言的SRL上取得了当前最好的结果并显著优于其他基准系统。在该结构基础之上,SRL与RC能够有效地进行多任务学习,进一步显著提升SRL的效果。

  • A Universal Framework for Transfer Parsing across Multi-typed Treebanks. 作者:郭江,车万翔,王海峰,刘挺.

    对于依存句法分析任务,一个关键的挑战是由于树库标注的困难而导致的训练数据匮乏。我们提出一个通用的深度多任务学习框架,使得现有的不同类型依存句法树库(跨语言或者不同标注规范)之间能够有效地进行知识迁移,从而提升目标树库上的句法分析性能。在不同语言、不同树库上的实验证明了该框架的有效性,欢迎关注。

    论文:

    http://arxiv.org/pdf/1606.01161v1.pdf

  • Effective LSTMs for Target-Dependent Sentiment Classification. 作者:唐都钰,秦兵,冯骁骋, 刘挺.

    本文针对对象级情感分类任务,实现并对比了多种LSTM模型变种。在Twitter标准数据集上的结果表明,在传统LSTM RNN模型上加入target信息可以带来性能的显著提升。本文的最好模型与基于特征的SVM算法持平。

    论文:

    http://arxiv.org/abs/1512.01100

    代码:

    http://ir.hit.edu.cn/~dytang/paper/target-sa-lstm/codes.zip

  • English-Chinese Knowledge Base Translation with Neural Network.作者:冯骁骋,唐都钰,秦兵,刘挺.

    知识库是自然语言处理领域中的一项重要资源,然而绝大多数知识库都是由英文编写构建,例如Freebase和Yago。对于中文知识库构建而言,将英文知识库直接翻译成中文知识库是一种快速且有效的途径。本文基于此研究目标,提出提出一种基于Gated Neural Network的三元组表示方法,通过计算英文三元组与中文候选三元组的相似度选取出最优的翻译结果,结果优于传统神经网络方法。

  • Hashtag Recommendation with Topical Attention-Based LSTM. 作者:李洋,刘挺,蒋静,张靓.

    微博允许用户以创建标签的方式给他们的微博文本分类。近年来,微博标签推荐引起了广泛的研究。以往的研究多数基于人工构建的特征。鉴于长短期记忆网络(LSTM)在越来越多的NLP任务中取得了较好的效果,本文提出利用LSTM学习微博文本的表示。标签通常能够反映出微博的主题,为了利用微博主题,本文提出将主题模型与长短期记忆网络通过Attention机制结合,经过大规模真实数据集的测试,证明本文提出的方法优于当前最好的方法。与此同时,使用了Attention机制之后,较基本的LSTM方法在F值上提升7.4%。

  • Knowledge-Driven Event Embedding for Stock Prediction. 作者:丁效, 张岳,刘挺, 段俊文

    已有的event embedding工作以word embedding为基础,很少考虑事件元素的外部知识扩展,对于股市预测任务,事件的外延知识会起到重要作用,因此,本文提出在原有event embedding框架基础上引入YAGO作为事件扩展知识库,从而提升事件表示的效果,进而提高股市预测的精度。

 

 


Copyright © Research Center for Social Computing and Information Retrieval 2001 - 2015
P.O.Box 321, HIT, P.R.China 150001
webmaster at ir dot hit dot edu dot cn