阿里达摩院33篇论文被国际顶会收录,多项成果已开放

阿里达摩院33篇论文被国际顶会收录,多项成果已开放

来源:中国日报网     2022-12-07 16:29
来源: 中国日报网
2022-12-07 16:29 
分享
分享到
分享到微信

12月7日,自然语言处理国际顶会EMNLP 2022在阿联酋阿布扎比召开,本次大会,中国研究团队表现优异,阿里巴巴达摩院共有33篇论文被接收,是论文入选数量最多的研究机构之一。达摩院相关研究成果涵盖跨模态理解和生成预训练、知识增强的多语言预训练、具有自我评估能力的机器翻译等领域,多项成果已在魔搭社区ModelScope平台开放。

EMNLP 2022在阿布扎比召开

EMNLP是自然语言处理领域高影响力的会议之一,其在Google Scholar计算语言学刊物指标中排名第二。和传统学术会议不同,EMNLP更注重自然语言算法与各领域应用的结合,吸引了Google、微软、麻省理工学院等全球顶级科技公司和研究机构的参与。据介绍,今年大会主会和Findings共接收1381篇论文,其中主会接收论文829篇,接收率创新低仅为20%。达摩院共有22篇论文被主会接收,11篇论文被接收为Findings(不上主会报告的论文)。

达摩院NLP实验室资深算法专家邴立东在本次大会上共有8篇论文入选主会,个人入选论文数量位居全球研究者前列。他表示:“今年大会学术界和工业界的研究趋势仍在发生微妙的变化,语言模型 (Language Model) 相关的研究热度居高不下,有155篇论文在标题里提到了该关键词,此外跨模态预训练、文本生成、对比学习等领域的论文数量也在持续增长。”

EMNLP 2022大会首日议程

以大模型为例,达摩院创新性地提出了skip-connected网络结构,可解决当下多模态预训练模型训练和推理效率低,以及跨模态对齐模块中存在语义信息被视觉序列掩盖的问题,该网络可提高视觉表示中self-attention的计算效率,提速至少4倍。实验结果显示,基于该网络,达摩院通义AliceMind体系下的多模态预训练模型mPLUG用1300万公开图文数据预训练的模型,超越了传统模型上亿训练数据的效果。相关研究可应用于图像描述、图文检索、视觉定位和视觉问答等领域,基于该底座,达摩院于2021年在VQA(视觉问答)任务上实现了首次超越人类结果的突破。

据介绍,达摩院研发的阿里通义AliceMind体系涵盖预训练模型、多语言预训练模型、超大中文预训练模型等,具备阅读理解、机器翻译、对话问答、文档处理等多种能力,该模型体系已斩获36项冠军。

【责任编辑:徐子茗】
中国日报网版权说明:凡注明来源为“中国日报网:XXX(署名)”,除与中国日报网签署内容授权协议的网站外,其他任何网站或单位未经允许禁止转载、使用,违者必究。如需使用,请与010-84883777联系;凡本网注明“来源:XXX(非中国日报网)”的作品,均转载自其它媒体,目的在于传播更多信息,其他媒体如需转载,请与稿件来源方联系,如产生任何问题与本网无关。
版权保护:本网登载的内容(包括文字、图片、多媒体资讯等)版权属中国日报网(中报国际文化传媒(北京)有限公司)独家所有使用。 未经中国日报网事先协议授权,禁止转载使用。给中国日报网提意见:rx@chinadaily.com.cn