欢迎光临“区块链产业研究院”官网!
人工智能

旦复旦兮!ACL 2020 复旦大学系列论文解读开始了!

AI 科技评论联合复旦大学,推出「ACL 2020-复旦大学系列论文解读」。

AI科技评论x复旦大学

4月3日,备受瞩目的 NLP 顶会 ACL 2020 公布了录用论文情况。本届 ACL 共收到 3429 篇投稿,相比于去年增加了500多篇,尽管接收论文数量还没有统计,但相比于去年必然将只多不少。

继上周AI科技评论联合哈工大 SCIR 实验室推出「ACL 2020 哈工大系列解读」之后,我们再次隆重推出 ACL 2020 实验室系列解读:ACL 2020 复旦大学系列解读。

复旦大学作为全国顶尖高校,在自然语言处理领域也当之无愧位列国内顶尖高校之列。其在 NLP 方向的研究历史,可追溯到上世纪80年代,由我国 NLP 开路人吴立德教授(同时也是我国 CV 领域早期少有的著名学者)一手带起,并由其弟子黄萱菁、邱锡鹏、张奇等学者继承和发扬光大。近年来,复旦大学每年在 NLP 各大顶会中都有十多篇论文发表。今年也不例外。在本届 ACL 2020 中,复旦大学自然语言处理团队再次有多篇论文( 4篇长文,1 篇短文,1 篇校外合作)录用。

为促进学术交流,让更多师生及时了解最新前沿研究,AI科技评论联合复旦大学,重磅推出「ACL 2020 复旦大学系列解读」。我们将在4月25-27日,连续三天进行 3 场直播,其中包含 5 篇 ACL 论文以及复旦大学在相关方面的研究进展。

在4月25 日(周六),我们将首先推出一场有关「提取式文摘」的直播。主讲人为王丹青(导师:邱锡鹏副教授,黄萱菁教授)、钟鸣(导师:邱锡鹏副教授)。在这场直播中,两位主讲人将重点介绍他们在 ACL 2019 和 ACL 2020的三篇抽取式摘要工作。

紧随其后,我们也将在4月26日(周日),推出一场关于「结合中文命名实体识别」的直播,主讲人为马若恬(导师:张奇教授、黄萱菁教授)和李孝男(西电大四学生,复旦大学计算机学院邱锡鹏副教授2020级博士生)。命名实体识别对 NLP 研究的重要性不言而喻,在这场直播分享中,两位主讲人将结合他们 ACL 2020 论文的研究介绍复旦大学在这方面的整体工作。

在4月27 日,直播内容与「鲁棒的依存分析」有关。主讲人为曾捷航(导师:郑骁庆副教授)。曾捷航的研究方向涉及文本对抗攻击与防御,模型鲁棒性等问题。在自然语言处理领域,与对抗样本相关的研究较少,这场直播分享将从文本对抗样本问题出发,分析主要做法、存在问题,并将其拓展到依存句法领域。

上述三场直播,简介如下:

主题一:不同粒度的抽取式文本摘要系统

论文:

1)Heterogeneous Graph Neural Networks for Extractive Document Summarization

2)Extractive Summarization as Text Matching

主讲人:王丹青、钟鸣

摘要:文本摘要任务涉及到语义理解等核心问题,是自然语言处理的主流任务之一,在信息爆炸时代的应用也愈发广泛。文本摘要任务主要分为生成式和抽取式,本次将重点分享我们在 ACL 2019 和 ACL 2020的三篇抽取式摘要工作。基于去年工作中对句子级摘要系统的分析与结论,我们此次提出一个新颖的基于图神经网络建模单词与句子以及句间关系的模型,并在另一篇工作中提出可以从摘要级的角度来建立匹配模型并解决抽取式摘要任务。

主题二:结合词典的中文命名实体识别

论文:

1)Simplify the Usage of Lexicon in Chinese NER

2)Chinese NER Using Flat-Lattice Transformer

主讲人:马若恬, 李孝男

摘要:命名实体识别(Named Entity Recognition,NER)是自然语言处理中最基础的任务之一,对很多下游任务来说必不可少。但在中文里,NER与分词耦合在了一起,结合词典的中文命名实体识别能够有效解决词级别和字级别中文命名实体识别的问题。本次我们将分享这一领域的相关工作,并介绍我们的工作:

1.简化中文命名实体识别中的词汇使用

2.使用Flat Lattice Transformer的中文命名实体识别

主题三:基于对抗样本的依存句法模型鲁棒性分析

论文:

1)Evaluating and Enhancing the Robustness of Neural Network-based Dependency Parsing Models with Adversarial Examples

主讲人:曾捷航

摘要:对抗样本问题的存在使得深度学习模型在应用落地上存在大量的潜在风险,对抗样本已经在计算机视觉领域取得了不少研究成果,包括多种攻击与防御方法,最终目的是为了提高深度学习模型的鲁棒性。在自然语言处理领域,与对抗样本相关的研究较少,本次分享从文本对抗样本问题出发,分析主要做法、存在问题,并将其拓展到依存句法领域。

如何参与?

扫码关注[ AI研习社顶会小助手] 微信号,发送关键字“ACL 2020+直播”,即可进群观看直播和获取课程资料。

ACL 2020原定于2020年7月5日至10日在美国华盛顿西雅图举行,因新冠肺炎疫情改为线上会议。为促进学术交流,方便国内师生提早了解自然语言处理(NLP)前沿研究,AI 科技评论将推出「ACL 实验室系列论文解读」内容,同时欢迎更多实验室参与分享,敬请期待!

上一篇:
下一篇:

发表留言