一文领略相关本科论文范文 与一文领略NIPS2019相关论文例文

本论文可用于一文领略论文范文参考下载,一文领略相关论文写作参考研究。

一文领略NIPS2019

神经信息处理年会(NIPS)是人工智能领域最具影响力的学术会议之一,因此每年都会有大量科研人员参会,与之相伴的是大量学术论文提交送审,但在这些提交送审的论文当中,能被录取的却是寥寥无几.带着一份好奇,本文作者Robbie Allen对NIPS2017年会上的获奖论文进行了详细统计,为我们揭秘了这场论文竞赛中的胜利者.

众所周知,第三十一届神经信息处理系统年会(NIPS)近期在美国加州长滩举行.NIPS可以说是最有声望的AI相关学术会议,同时还是出席人数规模最大的会议.而在过去的几年里,出席率急剧上升.

不仅出席人数增加,与此相关的,提交审查的论文数量也在增长.2016年,共提交论文2406篇,其中568篇论文(https://nips.cc/Conferences/2016/Schedule?type等于Poster)被接受录用,录取率为24%.而2017年,共接收3240篇论文,其中有679篇(https://nips.cc/Conferences/2017/Schedule?type等于Poster)被接受录用,录取率为21%.

我之所以决定与Lawrence Carin合作,而不是像以往那样单打独斗,只身就职于Automated Insights,主要原因是他组织了一个机器学习专家团队.Lawrence是机器学习学术领域的重要人物,NIPS就是一个很好的例子.Lawrence所领导的小组2017年向NIPS提交了10篇论文.往往两篇论文被接受录用就是一个重大的成就了,所以10篇是一个很大的数字.这使我想要对这被接受的679篇论文背后的人员和机构做一些分析.这就是我接下来将要介绍的内容.

NIPS并不是唾手可得的

除了了解哪些研究人员(如Lawrence)的论文被NIPS获接受之外,我很想知道哪些机构是最多产的.就像Andrej Karpathy为ICML所做的那样(https://medium.com/@karpathy/icml-accepted-papers-institution-stats-bad8d2943f5d),我认为这是一个简单的数据挖掘任务,特别是在NIPS与ICML所使用的是相同的网站情况下.

2017年10月,当我查看接受的论文的初始列表[可以在Wayback Machine

(https://web.archive.org/web/20170914060103/nips.cc/Conferences/2017/AcceptedPapersInitial)上找到]时,格式就是如下所示:

VAE Learning via Stein Variational Gradient DescentYuchen Pu (Duke University) · zhe Gan(duke) · Ricardo Henao (Duke University) · Chunyuan Li (Duke University) ·Shaobo Han (Duke University) · Lawrence Carin (Duke University)

Efficient Use of Limited-Memory Resourcesto Accelerate Linear LearningCelestine Dünner (IBM Research) · Thomas Parnell (IBM Research) · Martin Jaggi (EPFL)

Temporal Coherency based Criteria for Predicting Video Frames using Deep Multi-stage Generative Adversarial NetworksPrateep Bhattacharjee (Indian Institute of Technology Madras) · Sukhendu Das (IIT Madras)

这是一种非常可行的方法.它有我所需要的所有信息,即论文、作者名单和他们的所在机构.编写一个脚本来解析并生成我正在查找的统计信息是很简单的.不过,这是我第一次介绍各种机构使用的名字,所以难免有些不足.有10种不同的方式可以用于表示“Google”,而有11种不同的“IBM”版本,因此需要一些手动处理.

更大的问题来了,因为我想获得更新的统计信息(用于这篇文章).在最终被接受的论文列表中,已经有了良好的格式化的样式.我发现有两个地方可以得到最新的列表:这里(https://nips.cc/Conferences/2017/Schedule?type等于Poster)以及该处(https://papers.nips.cc/book/advances-in-neural-information-processing-systems-30-2017).只有一个问题:这两个列表里面都没有涉及作者所在机构介绍!我做了一些搜索,但找不到其他来源.我本可以试着把这些机构从论文中拉出来,但是在看了几篇文章之后,发现没有一个作者排列的标准化格式,因此,这看起来像是一个艰巨的任务,而它本来应该是可以快速完成的任务.

那么,现在我唯一的选择是希望自2017年9月份初稿发表以来没有多少变化.我可以将2017年9月份版本中的机构用到2017年12月的版本中.这使得数据解析任务变得更加复杂,因为现在我需要从两个单独的列表中对数据进行配对,并将所有差异考虑在内.此外,这意味着对于那些没有出现在2017年9月份数据中的任何新作者,我将不能够提供其所在机构.

最终,我正在寻找的只是大概的数字,而不是精确的统计数据,因此,我将继续挖掘.

2017年9月到12月之间数据变化

2017年9月到12月的论文数量没有变化(总共679篇),但是有不少文章标题被修改了,或者完全改了标题(这使得匹配难以进行).在这两份清单之间,我能够找到679篇论文中560篇的精确匹配.

我能够根据一些简单的规则来匹配98篇.例如,通过查看标题的前20、15或10个字符,或者查看标题的最后20、15或10个字符,从而在列表之间寻找单个匹配的论文.

在2017年12月份的名单中,有21篇文章在2017年9月份的名单上没有合理的匹配(只看标题).

就作者而言,我能够在2035个中找到1886个匹配者.我把其余的149位作者标记为“未分组”,但总的来说,这意味着我能够为93%的作者找到机构.虽然这并不完美,但就我的目标而言还是挺满足的.

好的发现

对于谁会向像NIPS这样的会议提交论文,我有一些问题,但主要围绕的是谁是最多产的.对于那些在20世纪90年代末和21世纪初的人来说,发表论文与10 - 20年前的专利军备竞赛很类似.幸运的是(也是我喜欢AI复兴的一部分原因),论文不能像专利那样推断知识产权.

作者统计

正如我前面提到的,杜克大学的Lawrence Carin小组发表了10篇NIPS论文.他占据了榜首,而且还没有与其相接近的对手.这并不意味着Lawrence是10篇论文的主要作者,但他监督并对10篇论文所涉及的研究做出了贡献.它展示了包括文本分析、图像合成和大脑动态局部场电位分析在内的多个主题领域的突破性进展,而这是令人印象深刻的.

通常情况下,论文的最后一位作者是研究小组的负责人,或是监督各种项目的负责人.因而,在这里看到Lawrence和像 Bengio这样的名人在一起并不奇怪.

另一方面,列在论文上的第一作者往往是做了很多繁重的工作从而被认为是值得赞扬的.有三个人以第一作者的身份向NIPS发表了三篇论文,这是一个重大成就.

机构统计

现在对于在NIPS中发表论文最多的前50名机构,为了显示Google所占据的主导地位,我把Google和DeepMind分开了.

卡耐基梅隆大学、麻省理工学院、斯坦福大学和伯克利大学轻而易举地成为前四所大学.谷歌、微软和IBM在营利性公司中占有领先地位.

这些数字在与ICML很相似.

接下来,我想看看有多少机构被列入首位,因为这是谁领导或发起这项研究的一个重要指标.这表明,虽然谷歌位居大量的论文榜单之中,但他们只是参与的更多而不是主导,因为他们在这份名单中排名仅为第四.

最后,我想看看每个机构有多少作者.这再次表明这些机构有多少人参与了前沿研究. CMU在这方面有很大的优势.

总结

·Google在研究的广泛度上显然是遥遥领先的.他们拥有最多的论文,如果你将DeepMind包含在内的话,他们的作者(截至目前)是最多的.

·CMU是领先的学术机构,就在NIPS发表的论文而言.他们拥有最多的第一作者论文,还有更多的人对论文的发表做出了贡献,除了Google / DeepMind以外,超过了任何机构.

·杜克大学的Lawrence Carin是NIPS研究人员中最具生产力的一个团队.他参与的论文数比其他任何人都要多.

·杜克大学是大学论文总数、第一作者论文和总作者全项排名中的前10位.

关于机构名称的说明

公司、大学和研究机构也可能想要开始思考如何在论文中引用它们.鉴于目前我们在发表的论文上的价值,像我在这篇文章中所做的统计数据的编译将会越来越普遍.大堆名称的变化将会使得创建准确的统计数据变得愈加困难.

一文领略论文范文结:

适合不知如何写一文领略方面的相关专业大学硕士和本科毕业论文以及关于一文领略论文开题报告范文和相关职称论文写作参考文献资料下载。

1、文后参考文献著录规则

2、辩论文格式

3、政论文范文

4、毛概论文格式

5、高被引论文

6、政论文