我们组在AAAI

AAAI概况

AAAI 2018会议于2018年2月2日-7日在美国新奥尔良举行。本次AAAI 2018会议共收到论文投稿3808篇,共接受论文934篇,接受率约为24.5%。相较之下,AAAI 2017会议共收到论文投稿2590篇,共接受论文789篇,接受率为30.5%。相对去年来说,本年会议投稿量增加了47%,其中,仅来自中国的论文就有1242篇,相较于去年的785篇有了58%的提升,最终有260余篇论文被录取,接受率约为20.9%,在论文质量上仍有很大的进步空间。


下图显示了本次会议接受论文的关键字,排名前十位的关键字按照词频从高到低排序为:learning, multi, neural, deep, networks/network, adversarial, attention, model, data, detection。相较之下,data 和 information 的关键词频率相较去年有所下降。


AAAI 2018会议的 Outstanding Paper 为《Memory-Augmented Monte Carlo Tree Search》(作者:Chenjun Xiao, Jincheng Mei, Martin Müller, 链接:https://webdocs.cs.ualberta.ca/~mmueller/ps/2018/Chenjun-Xiao-M-MCTS-aaai18-final.pdf)。 

AAAI 2018会议的 Outstanding Student Paper 为《Counterfactual Multi-Agent Policy Gradients》(作者:Jakob N. Foerster, Gregory Farquhar, Triantafyllos Afouras, Nantas Nardelli, Shimon Whiteson, 链接:https://arxiv.org/pdf/1705.08926.pdf)。

AAAI2018的所有论文根据主题分为不同分会场报告,每个分会场报告组织若干场,包括3-5个口头报告以及数个海报广告展示 。在Technical Program之间还穿插着若干场邀请报告,比如:华盛顿大学Yejin Choi教授在报告"From Naive Physics to Connotation: Learning and Reasoning about the World using Language"中介绍了在人类语言中日常知识(常识)的重要性,以及如何组织、利用这些知识。斯坦福大学Percy Liang教授在报告"How Should We Evaluate Machine Learning for AI"中介绍了目前使用的机器学习方法的一大缺陷:鲁棒性,并描述了一些提高AI的可理解性的方法以及在自然语言处理方面的实践。此外,每天晚上还有持续2小时的poster展示与交流。

本届AAAI以人类与AI协作“Human-AI Collaboration”为新兴话题。当前的AI系统已经在各独立问题上取得了很好的效果,包括语音识别、机器翻译等等。但在这些问题中,AI通常起到的是取代人类的作用,而如何设计能够帮助、完善人类工作的AI系统则是目前迫切需要研究与讨论的话题。在AAAI大会中,这一新兴话题共组织了4场邀请报告以及21篇论文,对人类与AI的协作在各个领域的方法与实践进行了讨论。

自然语言处理是AAAI2018的热门话题之一,共分为NLP and Knowledge Representation(NLPKR)、NLP and Machine Learning(NLPML)、NLP and Texi Mining(NLPTM)三个Session。在NLP方向的论文中,表示学习、机器翻译和语言模型等问题最受欢迎。我们参加的数个Technical Program都是人满为患,甚至连过道和门口都坐满了听众,晚上的poster环节中NLP相关的论文旁也总是簇拥着很多听众。

本届AAAI投稿量和参会人数都是空前绝后的,同时国内多家大型互联网公司包括:阿里巴巴、腾讯、百度、京东、滴滴等都在会场举办了大规模的人才招聘会,这都让我们感受到了人工智能的热度以及广度。同时, 在听国内外学者的报告和跟他们的交流中,我们也感受到了他们的专业、思考的深度以及对自身科研方向的热情,这些都让我们深受启发的激励。

我们组在AAAI2018

我们组在今年的AAAI2018上一共发表了3篇文章,设计情绪化的对话和强化学习在文本分类、关系抽取任务中的应用,下面分别介绍这三篇文章。

Emotional Chatting Machine: Emotional Conversation Generation with Internal and External Memory

情绪智能是人工智能中的重要因素之一,同时,其对对话系统起着重要的影响。本文提出了情绪对话机器(Emotional Chatting Machine, ECM),其可以生成在内容上符合语法且话题相关而且在情绪上与指定情绪类别一致的合适的回复。据我所知,这是第一个在大规模开放领域对话系统中引入情绪信息的工作。ECM使用了三种方法对情绪信息进行建模:1. 通过情绪向量嵌入的方法对情绪的高层次的抽象信息进行建模;2. 通过 internal memory 对生成过程中的情绪变化进行建模,其可以平衡生成回复中的语法和情绪信息;3.通过 external memory 对情绪词和普通词的生成进行建模,从而提高生成回复中情绪的可感知度和一致程度。实验表明,在自动评价和人工评价中,ECM 可以生成在内容相关且情绪一致的回复。

Learning Structured Representation for Text Classification via Reinforcement Learning

本文着眼于使用强化学习方法自动生成文本结构,从而得到更适合于文本分类的表示。目前的表示学习方法主要分为两类,一类不适用文本结构,并依赖于线性模型;而另一类使用由工具生成的文本结构(如parser)来构建结构化模型。而在本文中,我们提出了一种强化学习的方法来探索文本结构。基于这种方法,我们提出了两种结构化模型:ID-LSTM及HS-LSTM。ID-LSTM的主要思想是去除文本中不重要的部分,只留下文本中与任务相关的词语。而HS-LSTM则尝试根据文本中的短语划分来构建层次化模型。实验显示我们的方法能够学习到与任务相关的结构,并基于这种结构得到更好的文本表示。

Reinforcement Learning for Relation Classification from Noisy Data

本文旨在利用强化学习技术实现,在远程监督假设下自动生成的噪音标注数据上,完成句子级别的关系分类。之前的模型多是利用多示例学习的方法,通过对多个句子打上相同的标签来减少噪音标注的影响。在本文中,我们提出一个包括:样本选择器和关系分类器的模型。样本选择器选择出正确标注的数据,然后关系分类器利用这些干净的数据完成句子级别的分类。由于缺少样本标注是否正确的标注,我们将样本选择建模成一个强化学习问题,利用搜索试错过程,将选择出的数据训练的关系分类器效果当做弱监督来指导样本选择器的训练。实验表明,我们的方法能够做到在噪音数据上的句子级别关系分类,并且我们的样本选择器的确选择出了正确标注样本,过滤掉了错误标注样本。