NeurIPS 2025汇聚了机器学习与神经计算领域的前沿突破,这里为你精炼总结15篇优秀论文,涵盖获奖佳作与热门话题,助你快速抓住核心洞见。| 帖子 | #机器学习

1. 【Faster R-CNN:实时目标检测新里程碑
引入区域提议网络(RPN),共享卷积特征实现近乎无额外计算的候选框生成,助力Fast R-CNN以5fps速度高效检测,荣获Test of Time奖。

2. 【人工蜂群效应:语言模型的同质化困境
发布大规模开放式提示集Infinity-Chat,揭示LLM生成答案高度趋同的“人工蜂群”现象,深入分析输出多样性崩塌及人类偏好差异。

3. 【转导在线学习的最优错误界限
解决30年悬案,精确量化未标记数据在在线学习中的价值,建立转导学习对比传统方法的平方级优势,理论与实践紧密匹配。

4. 【大语言模型的门控注意力机制
首次系统探究门控对软max注意力的影响,简单的头部Sigmoid门控显著提升性能与训练稳定性,缓解注意力汇聚问题,增强长上下文能力。

5. 【叠加效应驱动稳健神经网络扩展
通过控制叠加现象,揭示“模型越大损失越低”的神经扩展律根源,验证开源LLM及Chinchilla规模律的广泛适用性,揭示规模律何时失效。

6. 【扩散模型为何不陷入记忆过拟合
发现训练中存在早期泛化与后期记忆两个时间尺度,数据集越大泛化窗口越宽,隐含动态正则化机制帮助避免过拟合。

7. 【强化学习是否真正激发LLM推理能力?
批判性分析RLVR训练,指出其提升的是采样效率而非根本推理能力,模型推理边界受限于基础模型,强调需创新RL范式以释放潜力。

8. 【千层网络助力自监督强化学习
将RL网络深度扩展至1024层,在无奖励无示范的目标驱动任务中,实现性能翻倍至50倍的飞跃,行为学习质的改变带来巨大进步。

9. 【Titans + MIRAS:赋予AI长期记忆
提出Titans架构和MIRAS理论框架,结合深度MLP记忆和“惊讶度”机制,实现运行时动态更新核心记忆,突破百万级上下文规模限制。

10. 【基于扩散蒸馏与对抗校准的生成式数据增强
DAR-GDA三阶段流水线:蒸馏高效单步生成器,对抗训练校准合成与真实分布差异,重要性重加权消除偏差,提升下游任务表现。

11. 【重尾RNN中的低维混沌渐进转变
揭示具有脑部特征的重尾权重RNN在混沌边缘的动态不同于高斯权重,延展转变期同时降低系统有效维度,丰富神经动力学理解。

12. 【半监督多模型性能评估
提出SSME方法,结合标记与未标记数据,通过预测与真实标签关系建模,显著提升数据匮乏时分类器性能估计的准确度。

13. 【黎曼一致性生成模型
扩展一致性模型至曲率空间,利用指数映射与协变导数实现流形上少步生成,适用于球面、环面与3D旋转等复杂几何结构。

14. 【BioReason:DNA-LLM中的多模态生物推理
将基因组模型与LLM结合,实现对基因数据的生物学推理,提升路径和变异预测准确率,推动生物信息学与语言模型融合。

15. 【NFL-BA:动态光照下的近场光束调整SLAM
引入近场光照建模SLAM损失,大幅提升内窥镜及暗室环境下相机定位与地图构建精度,突破动态光照挑战。
 
 
Back to Top