主要观点总结
ICLR和CVPR两大AI顶会公布了2025年的录用和审稿结果。ICLR 2025共接收了超过1万篇投稿,录用率为32.08%。投稿论文主题集中在大语言模型和相关领域。除了整体录取率,文章还提到了部分学者的具体录用情况和他们的研究成果。同时,CVPR 2025也公布了论文评审结果。文章还提及了满分论文的曝光和相关技术细节。
关键观点总结
关键观点1: ICLR和CVPR的录用和审稿结果公布
两大AI顶会同时宣布了最新的录用结果,ICLR 2025接收了大量投稿,并公布了具体的录用率和投稿主题分布。
关键观点2: ICLR 2025的投稿和录用情况
ICLR 2025接收了超过1万篇投稿,录用率较高,并且投稿论文主题集中在大语言模型领域。
关键观点3: 部分学者的研究成果
文章提到了几位学者的录用情况和他们的研究成果,包括南加州大学CS助理教授、英伟达高级研究科学家、人大高瓴人工智能学院副教授等。
关键观点4: CVPR 2025的论文评审结果
计算机视觉与模式识别顶会CVPR也公布了今年的论文评审结果,并提供了分数样本分布。
关键观点5: 满分论文的技术细节
文章还提及了首个满分论文的技术细节,包括使用的方法、解决的问题和实验结果等。
正文
【新智元导读】刚刚,一年一度的AI顶会ICLR和CVPR开始公布录用和审稿结果了!中稿的网友们纷纷晒出了自己的成绩单。
ICLR 2025最新录用结果正式出炉,与此同时,CVPR 2025审稿结果也公布了!今年,ICLR 2025共接收11,565份投稿,录用率为32.08%。Oral和Poster的具体结果,会在接下来公布。ICLR是深度学习领域最重要的会议之一,每年举办一次。2025年是第13届,将在新加坡展览中心(Singapore EXPO)4月24日至4月28日举行具体来说,本次总体录取率与往年相比,变化不大,甚至比去年有所提升。但投稿总数突破1万达到了11672,比去年多4000+篇。根据「Paper Copilot」的统计,评审均分在6.0以上被接受的可能性较大,均分在5.0以下几乎不会被接受。按照第一个关键词计算,排名前10的关键词中有一半都是大模型,包括Large Language Models以及缩写、大小写等不同变体。此外,强化学习主题在前10中,也占有两位。前10关键词中还包括联邦学习、图神经网络和扩展模型。ICLR会议虽然专注于人工智能中表征学习(通常称为深度学习)领域进展,但接受的论文主题涵盖了机器视觉、计算生物学、语音识别、文本理解、游戏和机器人学等重要应用领域。本次会议讨论的相关主题包括但不限于:无监督、半监督及监督表征学习、用于规划和强化学习的表征学习、用于计算机视觉和自然语言处理的表征学习、度量学习与核学习等。如今随着录用结果的正式公布,网友们也纷纷晒出了自己的成绩单。
南加州大学CS助理教授Yue Wang,与合作者一起,共有8篇论文被录用。英伟达高级研究科学家谢恩泽,更是「投5中5」,成绩喜人。人大高瓴人工智能学院副教授刘勇也被接受了5篇。研究主要从理论上说明数据合成、预训练对大模型的影响,并提出了一种高效的大模型微调方法。一篇提出了SonicSim声音分离模型,通过物理级声场仿真,不仅复现了声音在复杂空间中的传播轨迹(如墙壁反射、多普勒效应),更创新性地支持声源与麦克风的动态路径规划。项目地址:https://cslikai.cn/SonicSim/第二篇提出百万参数级语音分离模型TIGER,构建参数仅105万的轻量架构,其中参数量下降94.3%,计算量下降95.3%。同时分离质量超越TF-GridNet,推理速度提升8.6倍。项目链接: https://cslikai.cn/TIGER/南洋理工博士后研究员加小俊,作为一作提出了一种更高效的越狱方法——I-GCG。实验表明,I-GCG能显著提升原有方法的攻击性能,并对开源LLM模型实现了接近100%的越狱成功率。论文链接:https://arxiv.org/pdf/2405.21018伊利诺伊理工大学博士生康伟泰,在他的一作论文中构建了大规模数据集Intent3D和对应的benchmark,并对多种前沿模型进行了测试。还提出了新方法 IntentNet,实现了最新SOTA性能。论文链接:https://arxiv.org/pdf/2405.18295新加坡国立大学本科生Chenhang Cui,也喜提2篇ICLR。即使被拒绝,只要评论中肯、对作者有所帮助,作者也能接受:
ICLR 2025录用结果还未公布之前,网友们就曝出了首个(10,10,10,10)满分论文。据说原始评分为(8,8,10,10),经过rebuttal后,成功创造了满分!简而言之,作者在训练过程中引入一致光线(Imposing Consistent Light,简称 IC-Light)传输,而相关Github项目已有7千多star。评审链接:https://openreview.net/forum?id=u1cQYxRI1H该方法基于物理原理,支持稳定且可扩展的光照学习,使模型能够统一处理各种数据源。而且确保模型行为基于物理原理,仅修改图像的光照,而不改变其他内在属性。此方法,将扩散式光照编辑模型的训练,扩展到大规模数据集(超过1000万),涵盖所有可用数据类型,并使用强大的模型骨干(例如SDXL和Flux)。此外,还证明了该方法能够减少不确定性,并有效缓解材质不匹配或反照率改变等伪影问题。根据曝料,文章作者张吕敏,也是此前轰动一时的ControlNet的作者。
同一天,计算机视觉与模式识别顶会CVPR,也公布了今年的论文评审结果。目前,「Paper Copilot」已经根据社区中的分数样本,做出了一份结果分布图。根据以往经验,像是4,3,3、4,3,2,甚至5,4,2这样的得分,都有不小的机会能被录用。https://x.com/iclr_conf/status/1882140455825297580https://x.com/CVPR/status/1882143261789499575