新闻列表

赛尔原创@EMNLP 2020 | 且回忆且学习:在更少的遗忘下精调深层预训练语言模型

本文录用于EMNLP 2020。本文提出且回忆且学习的机制,通过采用多任务学习同时学习预训练任\x0a务和目标任务,提出了预训练模拟机制和迁移机制。实验表明文章提出的方法在GLUE上达到了最优性能。

赛尔原创|EMNLP 2020 融合自训练和自监督方法的无监督文本顺滑研究

本文录用于EMNLP 2020。在自然语言处理中,顺滑任务的目是识别出话语中自带的不流畅现象。本文融合了自训练和自监督两种学习方法,探索无监督的文本顺滑方法。实验结果表明,本方法在不使用有标注数据进行训练的情况下,取得了非常不错的性能。

哈工大SCIR九篇长文被EMNLP 2020及子刊录用

EMNLP 2020(2020 Conference on Empirical Methods in Natural Language Processing)将于2020年11月16日至20日以在线会议的形式举办。EMNLP是计算语言学和自...

哈工大SCIR六篇文章被COLING 2020录用

COLING 2020, the 28th International Conference on Computational Linguistics将于2020年12月8日至13日在线举行。COLING是自然语言处理领域的重要国际会议,每...

赛尔原创 | ACL20 让模型“事半功倍”,探究少样本序列标注方法

少样本学习是近年来的热点,但是针对对话等NLP具体问题的研究仍然方兴未艾。本文从对话语义槽标记问题入手,首次研究了少样本序列标注问题。我们提出坍缩依赖迁移机制和L-TapNet模型,取得了14.64 F1的大幅提升。

赛尔原创 | ACL20 用于多领域端到端任务型对话系统的动态融合网络

本文录用于ACL2020。本文首次将 shared-private 应用在了多领域端到端对话任务中,并成功将表示用于query知识库提高性能,还提出了动态融合网络,有效地捕捉了领域间更细粒度的相关性,在低资源情况下也取得了很好的效果。

赛尔原创 | ACL20 基于图注意力网络的多粒度机器阅读理解文档建模

本文录用于ACL2020。在本文中,针对NQ数据集的两个粒度答案的特点,我们提出了基于BERT和图注意力网络的多粒度机器阅读理解框架,通过联合训练考虑NQ两个粒度答案之间的依赖关系,并且在NQ数据集上验证了方法的有效性。

赛尔原创 | ACL20 基于对话图谱的开放域多轮对话策略学习

本文录用于ACL2020。本文提出用图的形式捕捉对话转移规律作为先验信息,用于辅助开放域多轮对话策略学习,还提出了一个基于对话图的策略学习框架来指导回复生成。

LTP 4.0!单模型完成6项自然语言处理任务

语言技术平台(Language Technology Platform, LTP)是哈工大社会计算与信息检索研究中心(HIT-SCIR)历时多年研发的一整套高效、高精度的中文自然语言处理开源基础技术平台。该平台集词法分析(分词、词性标注、命...

LTP 4.0!单模型完成6项自然语言处理任务

语言技术平台(Language Technology Platform, LTP)是哈工大社会计算与信息检索研究中心(HIT-SCIR)历时多年研发的一整套高效、高精度的中文自然语言处理开源基础技术平台。该平台集词法分析(分词、词性标注、命...

ACL 2010-2020研究趋势总结

哈工大SCIR车万翔教授受邀在AIS(ACL-IJCAI-SIGIR)2020顶会论文预讲会上介绍了ACL会议近年来的研究趋势,特整理成幻灯片配文字版,希望对相关领域的研究者有所帮助!

ACL 2010-2020研究趋势总结

哈工大SCIR车万翔教授受邀在AIS(ACL-IJCAI-SIGIR)2020顶会论文预讲会上介绍了ACL会议近年来的研究趋势,特整理成幻灯片配文字版,希望对相关领域的研究者有所帮助!