哈工大社会计算与信息检索研究中心
友爱  力行  乐学  日新

HIT-SCIR

哈工大SCIR三篇长文被AAAI 2021录用

哈工大SCIR三篇长文被AAAI 2021录用

2021年01月01日

QQ截图20210101202424

2021年的首个人工智能顶级会议 AAAI 2021 将于美国纽约举办,时间在 2021年2 月 2 日至 9 日,本届大会将是第 35 届 AAAI 大会。

AAAI 的英文全称是 Association for the Advance of Artificial Intelligence。该协会是人工智能领域的主要学术组织之一,其主办的年会也是人工智能领域的国际顶级会议。在中国计算机学会的国际学术会议排名以及清华大学新发布的计算机科学推荐学术会议和期刊列表中,AAAI 均被列为人工智能领域的 A 类顶级会议。AAAI 2021官方发布接收论文列表,9034篇论文提交有1692篇论文接受,接受率21%

哈尔滨工业大学社会计算与信息检索研究中心有三篇长文被录用,下面是论文列表及介绍:

题目:C2C-GenDA: Cluster-to-Cluster Generation for Data Augmentation of Slot Filling

作者:侯宇泰、陈三元、车万翔、陈成、刘挺

录用类型:长文

简介:槽位提取(Slot Filling)作为一种对话语言理解的基本模块,经常受困于训练数据在数量和多样性上的不足。为此,我们提出了一种全新的Cluster-to-Cluster生成范式来实现数据增强(Data Augmentation, DA),称为C2C-GenDA。C2C-GenDA通过将现有句子重构为表达方式不同但语义相同的新句子,来扩大训练集。与过往的DA方法逐句(One-by-one)构造新句子的做法不同,C2C-GenDA采用一种多到多(Cluster-to-Cluster)的全新的新语料生成方式。具体的,它联合地编码具有相同语义的多个现有句子,并同时解码出多个未见表达方式的新句子。同时生成多个新话语可以让模型建模生成的新句子之间的关系,减少新句子间内部重复。此外,联合地对多个现有句子进行编码让模型可以更广泛地把握已有的现有表达式,从而减少无意义的对已有数据的重复。在ATIS和Snips数据集上进行的实验表明,在只有数百句训练数据的情况下,C2C-GenDA生成的新数据分别带来了7.99(11.9%↑)和5.76(13.6%↑)F-score的提升。

题目:Co-GAT: A Co-Interactive Graph Attention Network for Joint Dialog Act Recognition and Sentiment Classification

作者:覃立波,黎州扬,车万翔,倪旻恒,刘挺

录用类型:长文

简介:在对话系统中,对话行为识别和情感分类是捕获对话者意图的两个相关任务,其中对话行为可以捕获显式的意图,情感可以表达隐性的意图。其中上下文信息(contextual information)和相互交互信息(mutual interaction information)是这两个相关任务的关键因素。但是,现有方法都无法同时考虑这两个重要的信息。为了解决这个问题,在本文中,我们提出了一个协同交互图注意力网络(Co-GAT)来联合建模这两个任务。核心模块是我们提出的协同交互图交互层,可以在统一的图网络中构建跨历史连接(cross-utterances connection)和跨任务连接(cross-tasks connection)。我们的模型在两个公开的数据集达到了SOTA性能。此外,我们发现上下文和相互交互信息的贡献与预训练模型并不完全重叠,在多种预训练模型上(BERT,RoBERTa,XLNet)均取得了性能提升。

题目:Few-shot Learning for Multi-label Intent Detection

作者:侯宇泰、赖勇魁、吴禹杉、车万翔、刘挺

录用类型:长文

简介:小样本学习(Few-shot Learning)近年来吸引了大量的关注,但是针对多标签问题(Multi-label)的研究还相对较少。在本文中,我们以用户意图检测任务为切入口,研究了的小样本多标签分类问题。对于多标签分类的SOTA方法往往会先估计标签-样本相关性得分,然后使用阈值来选择多个关联的标签。 为了在只有几个样本的Few-shot场景下确定合适的阈值,我们首先在数据丰富的多个领域上学习通用阈值设置经验,然后采用一种基于非参数学习的校准(Calibration)将阈值适配到Few-shot的领域上。 为了更好地计算标签-样本相关性得分,我们将标签名称嵌入作为表示(Embedding)空间中的锚点,以优化不同类别的表示,使它们在表示空间中更好的彼此分离。 在两个数据集上进行的实验表明,所提出的模型在1-shot和5-shot实验均明显优于最强的基线模型(baseline)。

 


Copyright © Research Center for Social Computing and Information Retrieval 2001 - 2015
P.O.Box 321, HIT, P.R.China 150001
webmaster at ir dot hit dot edu dot cn