Andrew Ng 推出“Agentic Reviewer”——一个能辅助论文评审的AI工具。灵感源于一位学生论文被拒6次,3年漫长反馈周期令人痛苦,所以想看看,AI能否打破这道时间瓶颈,帮助科研者更快迭代。| #论文 #工具

训练时,Agentic Reviewer在ICLR 2025评审数据上的表现令人振奋:
- 两位人类评审相关系数:0.41
- AI与人类评审相关系数:0.42

这意味着AI评审已接近人类水平。

它通过检索arXiv文献来支撑反馈,因此在AI等开源领域效果最好。虽然仍属实验性质,但这或许能彻底改变科研反馈的速度和质量。

多方讨论中,有人关心隐私、数据使用,有人提到AI评审可能导致投稿趋同,也有人期待未来AI能评估评审质量,甚至全链条自动化科研流程。更快的反馈循环不仅缩短时间,更能激发更深层次的创新和策略性投稿。

传统的同行评审耗时长、效率低,AI介入正好补上了“认知瓶颈”。未来,科研批判将成为人机协作的共享过程,既有人类的洞察,也有机器的规模和记忆。
 
 
Back to Top