新闻列表

HIT-SCIR发布首个中文扩词表增量预训练混合专家模型Chinese-Mixtral-8x7B

哈工大社会计算与信息检索研究中心(HIT-SCIR)基于Mixtral-8x7B进行了中文扩词表增量预训练。扩充后的词表显著提高了模型对中文的编解码效率,通过大规模开源语料对扩词表模型进行增量预训练,使模型具备了强大的中文生成和理解能力。

赛尔笔记 | 面向表格数据的大模型推理综述

我们在本文对现有的基于LLM的表格推理相关工作进行梳理,来促进该领域上的研究。我们介绍表格推理任务的定义与主流数据集;我们给出基于LLM的表格推理方法的分类,并总结了该任务现有的研究工作;我们给出各个研究方向的可能改进,启发未来的研究思路。

赛尔笔记 | 面向表格数据的大模型推理综述

我们在本文对现有的基于LLM的表格推理相关工作进行梳理,来促进该领域上的研究。我们介绍表格推理任务的定义与主流数据集;我们给出基于LLM的表格推理方法的分类,并总结了该任务现有的研究工作;我们给出各个研究方向的可能改进,启发未来的研究思路。

赛尔原创@EMNLP 2023 | 通过跨语言提示改进零样本 CoT 推理能力

本文引入了简单有效的CLP帮助思维链范式在不同语言间进行有效地对齐,并进一步提出了CLSP,利用不同语言专家的知识和不同语言间更加多样的思考方式,集成了多个推理路径,显著地提高了self-consistency的跨语言性能。

哈工大开源“活字”对话大模型

哈工大发布开源可商用的大规模预训练语言模型活字1.0和活字2.0。

哈工大SCIR 2023届29名同学顺利通过硕士答辩

2023年5月24日,哈尔滨工业大学社会计算与信息检索研究中心2023届29名同学顺利通过硕士答辩,获得工学或工程硕士学位。

哈工大SCIR三位博士生李家琦、袁建华、柳泽明顺利通过博士学位答辩

2023年5月26日上午,哈工大社会计算与信息检索研究中心王海峰教授指导的博士生柳泽明顺利通过博士学位论文答辩。赵铁军教授担任答辩委员会主席,王亚东教授、杨沐昀教授、车万翔教授、刘远超副教授、赵妍妍副教授和刘扬副教授担任答辩委员会成员,朱聪慧老师担任答辩秘书。

哈工大SCIR三位博士生李家琦、袁建华、柳泽明顺利通过博士学位答辩

2023年5月26日上午,哈工大社会计算与信息检索研究中心王海峰教授指导的博士生柳泽明顺利通过博士学位论文答辩。赵铁军教授担任答辩委员会主席,王亚东教授、杨沐昀教授、车万翔教授、刘远超副教授、赵妍妍副教授和刘扬副教授担任答辩委员会成员,朱聪慧老师担任答辩秘书。

哈工大SCIR 13篇长文被ACL 2023主会/Findings录用

ACL年会是计算语言学和自然语言处理领域最重要的顶级国际会议,CCF A类会议,由计算语言学协会主办,每年举办一次。哈尔滨工业大学社会计算与信息检索研究中心有5篇长文被ACL 2023主会录用,8篇长文被Findings of ACL录用。

哈工大SCIR 13篇长文被ACL 2023主会/Findings录用

ACL年会是计算语言学和自然语言处理领域最重要的顶级国际会议,CCF A类会议,由计算语言学协会主办,每年举办一次。哈尔滨工业大学社会计算与信息检索研究中心有5篇长文被ACL 2023主会录用,8篇长文被Findings of ACL录用。

哈工大自然语言处理研究所公开《ChatGPT调研报告》,内测哈工大“活字”对话大模型

2023年3月6日,哈工大自然语言处理研究所 ( HIT-NLP, since 1979 ) 师生联合撰写出《ChatGPT调研报告》(84页),对“大模型”技术进行了系统的介绍。此外,哈工大自然语言处理研究所已经研制出哈工大“活字”对话大模型(通用),目前处于研究所内测阶段。

赛尔原创@AAAI 2023 | BridgeTower- 在视觉语言表示学习中建立编码器间的桥梁

在本文中,我们提出了BridgeTower,它引入了多个BridgeLayer,在单模态编码器的顶层和跨模态编码器的每一层之间建立连接。这使得预训练单模态编码器中的不同语义层次的视觉和文本表示,通过BridgeLayer与跨模态表示进行融合,从而促进了跨模态编码器中,高效的,自下而上的跨模态对齐与融合。仅使用400万张图像进行视觉语言预训练,BridgeTower在各种下游的视觉-语言任务中取得了非常强大的性能。

赛尔原创@AAAI 2023 | BridgeTower- 在视觉语言表示学习中建立编码器间的桥梁

在本文中,我们提出了BridgeTower,它引入了多个BridgeLayer,在单模态编码器的顶层和跨模态编码器的每一层之间建立连接。这使得预训练单模态编码器中的不同语义层次的视觉和文本表示,通过BridgeLayer与跨模态表示进行融合,从而促进了跨模态编码器中,高效的,自下而上的跨模态对齐与融合。仅使用400万张图像进行视觉语言预训练,BridgeTower在各种下游的视觉-语言任务中取得了非常强大的性能。

赛尔原创@COLING 2022 | 融合自适应机制与自训练框架的无监督文本顺滑方法

在这项工作中,我们提出了一种基于Re-weighting的自适应无监督训练框架来更好的解决文本顺滑任务。我们通过引入词级别置信与句子级别判别信息来赋予每个样本不同权重进行学习,同时采用更高效的基于对比的句对语法判别器,实现了一个更鲁棒、性能更好的无监督文本顺滑系统。实验表明,我们的优化方案能有效缓解选择偏差和错误累计的问题,在SWBD以及多个跨领域数据集上均有所提升。

赛尔原创@COLING 2022 | 融合自适应机制与自训练框架的无监督文本顺滑方法

在这项工作中,我们提出了一种基于Re-weighting的自适应无监督训练框架来更好的解决文本顺滑任务。我们通过引入词级别置信与句子级别判别信息来赋予每个样本不同权重进行学习,同时采用更高效的基于对比的句对语法判别器,实现了一个更鲁棒、性能更好的无监督文本顺滑系统。实验表明,我们的优化方案能有效缓解选择偏差和错误累计的问题,在SWBD以及多个跨领域数据集上均有所提升。