全国 【切换城市】欢迎您来到装修百科!
关注我们
我要装修

别再SOTA了,那叫“微调”!Science发文炮轰论文灌水

发布:2024-10-01 浏览:39

核心提示:金磊 发自 凹非寺量子位 报道 | 公众号 QbitAIAI算法的发展,真有那么迅猛吗?为了一探究竟,来自MIT的研究人员,便对81种AI算法做了横测,结果令人大跌眼镜:没有明确证据表明,这些算法在10年内,对任务效果有明显改善。针对类似的问题,Science最近也发文表示:人工智能在某些领域的进步引人注目,但这并不是真正的进步。那么,这到底是怎么一回事?“是微调,不是核心创新”MIT研究人员横测的对象,是81种剪枝算法。这类算法简单来说,就是对神经网络的连接做“修修剪剪”,以此来提高效率。然而,这种算法

金磊 发自 凹非寺量子位 报道 | 公众号 QbitAIAI算法的发展,真有那么迅猛吗?为了一探究竟,来自MIT的研究人员,便对81种AI算法做了横测,结果令人大跌眼镜:没有明确证据表明,这些算法在10年内,对任务效果有明显改善。
针对类似的问题,Science最近也发文表示:人工智能在某些领域的进步引人注目,但这并不是真正的进步。
那么,这到底是怎么一回事?“是微调,不是核心创新”MIT研究人员横测的对象,是81种剪枝算法。
这类算法简单来说,就是对神经网络的连接做“修修剪剪”,以此来提高效率。
然而,这种算法的发展现状,正如Science发文作者Matthew Hutson所说:很多科研工作者就在此之上,做了些许“微调”,然后就宣称自己的算法具有优势。
因此,MIT的研究人员便对这些算法做了元分析,还提出了一种框架——ShrinkBench,用来促进剪枝算法的标准化评估。
真正的好算法,需要经得起考验,那么结果又如何呢?第一轮考验:剪枝 vs 架构研究人员基于ImageNet,绘制了剪枝后模型的准确率和压缩/加速水平,以及没有做过剪枝、不同架构的相同指标,结果如下图所示。
不难看出,一个给定架构经过剪枝后,可以改善其时间/空间与精度之间的权衡,有时候还可以提高精度。
但剪枝的效果,通常不如换个架构效果来得好。
第二轮考验:“同行”算法比较这一维度的考虑,是因为研究人员发现,许多工作都高举“SOTA”旗帜,然而比较的对象却不全。
很明显的现象就是,缺少与2010年之前提出的算法的比较,甚至都没有跟其它号称SOTA的算法做对比,如下图所示。
第三轮考验:数据集和架构的组合在81篇论文中,ImageNet和VGG-16的组合最为常见,并且,在前六种最常见的组合中,有三种涉及MNIST。
但MNIST与其它主流图像分类数据集有很大的区别:它的图像是灰度的,大部分是由0组成,用简单的模型进行分类,准确率就可以达到99%以上。
第四轮考验:度量指标还有五花八门的度量指标,啥也不说了,直接上图。
当然,还有诸如数据预处理、调参策略等一系列问题,都会导致结果的不同。
研究一作Davis Blalock表示:这些改进都是所谓的“微调”,而不是科研人员声称的“核心创新”,甚至有些改进方法可能根本就不存在。
于是乎,MIT的研究人员便开发了一套方便开发、标准化评价神经网络的剪枝方法。
ShrinkBench提供了标准化和可扩展的功能,可以用于训练、剪枝、微调、计算度量和绘图,而且都是使用标准化的预训练模型和数据集。
正如另一位作者John Guttag所说:如果你不能衡量某种东西,就很难让它往好的方向发展。
好了,现在要是再想在剪枝算法上,稍微搞个小进展就水一篇论文,可能不再那么容易了。
Science发文炮轰水论文最近,Science也针对“水论文”一事发表文章,认为人工智能领域中的许多分支,其发展都是不稳定的:2019年,对搜索引擎中使用的信息检索算法进行的一项元分析,得出了一个“高水位线”(high-water mark),然而,它早在2009年就有了;同样是2019年,另外一项研究复现了7个神经网络推荐系统,结果,其中6个系统的表现,还没有多年前开发的更简单的非神经网络算法好;今年2月,卡内基梅隆大学的计算机科学家Zico Kolter在arXiv发表论文,他发现早期的对抗训练方法PGD,只需要用简单的小技巧增强一下,就能达到目前所谓更新、更复杂方法的效果;今年3月,康奈尔大学的计算机科学家Kevin Musgrave,在arXiv上发表了一篇论文研究了损失函数,在一项涉及图像检索的任务中,他对其中十几个算法进行了平等的比较,结果发现,与这些科研工作者的说辞恰巧相反,自2006年以来,准确率就没有提高过。
正如Musgrave表示:炒作浪潮一直存在。
反观那些经久不衰的算法,像LSTM,自1997年被提出后,在语言翻译任务中取得了重大突破。
如果LSTM得到适当的训练,它的性能就能和20年后(现在)的算法相当。
类似的还有像2014年提出的GAN,大幅提高了生成图像的能力。
在2018年的一篇报告称,只要有足够的计算量,原有的GAN方法可以与后来的方法相媲美。
对此,Kolter认为,研究人员应当热衷于开创全新的算法,让这个新算法达到SOTA效果,而不是对现有算法做调整。
那么,如今这种论文灌水背后的原因,又是什么呢?其中一个因素,便是MIT研究人员所指出的评估标准问题——数据集不同、调整方法不同、性能指标和基线都不同,这种比较是不可行的。
而另外一个原因,便是AI领域的爆炸性增长,论文数量远超有经验的审稿人数,评审人员应当坚持跟一个合理、科学的基准,做更好的比较。
比论文灌水更可怕的,是造假以为学术乱象只有这些?不,还有一股“造假风”。
5月20日,国外网友便曝出了一个学术造假大事件:8篇文章,不同作者,不同医院,不同癌症种类,不同蛋白表达,愣是完全一样的结果,发了8篇论文。
UAB医学院糖尿病中心博士后研究员、营养学博士,微博网友“晨光us”对此表示:如此丧心病狂的造假,简直让人看得窒息。
然而,更令人悲哀的是,论文作者全部来自中国……而且从文章署名来看,从一线医生到主任副主任医师、医院副院长,还有多篇是国家自然科学基金资助。
如此造假,简直不简单。
网友也表示:突破了我对学术造假的所有认知。
无独有偶,前不久在知乎中还曝出南京邮电大学教授,三年半发表300篇IEEE论文,一时成为热议话题。
其弟子“黄同学”论文造假、冒充北大学生,也一并上了热搜。
……如此学术乱象,你怎么看?传送门:ShrinkBench项目地址:https://github.com/jjgo/shrinkbenchShrinkBench论文地址:https://arxiv.org/abs/2003.03033参考链接:https://www.sciencemag.org/news/2020/05/eye-catching-advances-some-ai-fields-are-not-realhttps://weibo.com/roger1130?referflag=0000015010&from=feed&loc=nickname&is_hot=1#_rnd1591086111501https://twitter.com/MicrobiomDigest/status/1266140721716719616https://www.zhihu.com/question/397548354/answer/1248933002— 完 —量子位 QbitAI · 头条号签约作者关注我们,第一时间获知前沿科技动态

  • 收藏

分享给我的朋友们:

上一篇:TTU、FTU、DTU、RTU之间有什么区别,在配电网中的作用是什么?(配电终端ftu与dtu区别) 下一篇:[汉典装饰公司]室内装修如何做好预算表才能省钱(汉典装饰公司)

一键免费领取报价清单 专享六大服务礼包

装修全程保障

免费户型设计+免费装修报价

已有312290人领取

关键字: 装修百科 装修咨询 装修预算表

发布招标得免费设计

申请装修立省30%

更多装修专区

点击排行