跳到主要内容

Paper 已死,硬核科研当立

· 阅读需 11 分钟
DingZhiyu
Southwest Petroleum University

2026年4月2日(星期四)19:30 - 21:00,我听了香港中文大学计算机科学与工程系徐强教授的一场报告,题目很锋利,叫《Paper 已死,硬核科研当立:AI 时代科研人的自我修养》。

“Paper 已死”当然是一种有意为之的表达,但它真正刺中的,并不是论文有没有价值,而是另一层更深的问题:当 AI 正在系统性改写科研流程时,科研人到底该拿什么证明自己的价值?未来的科研,又该以什么作为真正的交付物?

听完整场报告,我最大的感受是,AI 时代并没有让科研变简单,反而让“什么才算真正的科研”这件事变得更清晰了。

当论文不再是科研的唯一终点

过去很长一段时间里,论文几乎就是科研成果最典型的代表。一个研究是否“成立”,常常取决于它能不能被写成 paper、能不能发到足够好的会议和期刊上。论文当然重要,但如果把科研的终点完全等同于“发表”,那种范式正在被 AI 时代迅速冲击。

徐强教授在报告里反复强调,未来真正有生命力的科研成果,不应该只是一篇论文,更应该包括可被 Agent 调用的工具、API、Benchmark、Ground Truth 等基础设施。换句话说,科研的价值不再只体现在 citation 上,也体现在它是否真的解决了现实需求,是否能被别人继续调用、复用、扩展,最终进入一个长期运转的技术生态。

这其实是在把科研从“写出来”重新拉回到“做出来”。

围绕这一点,报告里还提到一个很值得记住的评价框架:ROSE。也就是,一个好的科研工作,应该解决真实需求,具备原创性,具有重要性,同时保持一定的优雅性。和“这篇 paper 发在哪儿”相比,这套标准显然更难,但也更接近科研本身。

因为真正好的研究,未必止步于论文;它更可能继续变成工具、系统和方法,继续活在后续的工作里。

Agent 越强,越需要“监管内核”

报告的第二条主线,讲的是 Agent 时代的系统治理问题。

今天很多人谈 Agent,更多是在谈它的能力边界不断扩展:它可以理解任务、拆解流程、调用工具,甚至在某些场景下表现出接近“自主行动”的特征。但越是这样,一个问题就越无法回避:如果 Agent 变得越来越强,谁来保证它最终的行为仍然安全、可靠、可控?

徐强教授给出的回答,是“监管内核”。

这个概念很有意思。它并不是简单地给模型加几条规则,而是试图在大语言模型与外部世界之间,建立一层类似操作系统的约束结构。大模型负责生成开放性的语义输出,负责提出计划、创造可能性;而“监管内核”负责把这些开放语义映射为可检验、可约束、可执行的确定性指令,再通过边界检查和规则拦截,保证系统不越界、不失控。

一句话概括就是:LLM 负责想,内核负责守。

这背后其实是一种非常关键的认知转变。真正成熟的 Agent 系统,不能只靠“更聪明”的模型堆出来,而必须有一套可验证、可治理的底层机制。AI 时代的系统设计,不只是能力问题,更是边界问题。

AI 抹平的是技巧,不是科研能力本身

整场报告里,我最认同的一点,是它没有把 AI 简单理解为“效率工具”,而是进一步追问:当工具越来越强,科研人还剩下什么不可替代?

徐强教授的判断很明确:AI 确实会抹平大量技能层面的差距,但它并不会抹平科研能力本身。自动化更容易替代的,是重复性的劳动,是低水平的“水论文”生产,是那些只靠熟练度堆起来的流程性工作;而真正难以被替代的,是对问题的洞察、对方向的判断、对信息真伪的辨别,以及把一个模糊问题推进成可验证成果的能力。

这其实意味着,AI 时代的科研训练重点已经变了。

未来比“会不会用工具”更重要的,是你能不能提出一个值得研究的问题;能不能和 AI 高质量沟通;能不能判断哪些结果是真的有效,哪些只是模型给出的“看起来像答案”的幻觉;能不能把一项工作从想法推进到真正可复用、可传播、可落地的成果。

工具在变强,但真正决定上限的能力,反而变得更底层了。

问答环节里,真正点破了科研人的“自我修养”

报告后的问答环节,有几个观点非常值得单独记下来。

有人提问,AI 会不会让人与人之间的差距越来越大,尤其是那些本来就擅长组织、判断和领导的人,会不会在 AI 加持下进一步拉开差距?

徐强教授的回答并不悲观。他并不认为科研能力会被少数“天赋型选手”彻底固化。大模型会放大效率差距,这一点很可能是真的;但科研思维本身是可以训练的。如何察觉一个问题的价值,如何辨别信息是否可靠,如何组织自己的研究过程,这些都不是不可学习的神秘天赋,而是可以靠长期训练建立起来的能力。

他还提到,读论文时最重要的,不只是看作者得出了什么结论,而是去想:他是怎么走到这条路上的?一个成熟研究者真正需要培养的,不只是知识储备,更是研究品味和判断力。你不只是要会“读懂论文”,更要会看出问题是如何被发现、定义、推进和解决的。

这一点非常重要。因为 AI 可以帮你更快地总结论文、提取信息、生成思路,但如果你没有判断力,就很容易被看似流畅、实际上空洞的内容牵着走。工具越强,判断力越稀缺。

AI 时代,教育最该培养的不是“会做题的人”

报告里还有一部分关于教育的讨论,也让我印象很深。

在 AI 的帮助下,知识获取和技能学习会越来越“平权”。很多过去必须靠长期积累才能掌握的内容,今天正在变得更容易触达、更容易调用。但这并不意味着教育会变轻松,恰恰相反,它可能会变得更难。

因为当知识本身越来越容易获得时,真正稀缺的就不再是记住多少内容,而是判断什么值得学、什么值得做、什么值得相信。未来真正重要的,可能不只是教学生掌握知识,而是培养他们的判断力、选择能力、批判性思维,以及围绕真实兴趣形成问题意识的能力。

说得更直白一点,AI 可以成为执行器,但前提是你自己先得是一个有方向感的人。没有问题意识的人,工具再强,也只会更快地滑向空转。

写在最后

所以,“Paper 已死”真正想说的,不是论文没用了,而是只把论文当作科研终点的时代,正在结束。

AI 时代真正的“硬核科研”,一方面要求研究者能够产出更接近真实世界需求的成果,能够留下可复用、可调用、可进入系统的交付物;另一方面,也要求研究者重新修炼那些最基础却最关键的能力:问题意识、判断力、研究品味,以及与新工具协同工作的能力。

工具革命已经发生了。接下来真正决定一个科研人能走多远的,也许不是他会不会用 AI,而是他能不能在 AI 时代,依然看见什么问题真正值得被解决。

附:原始听会记录

以下内容保留我当时的笔记式记录,放在文末备查。

小结

本次会议围绕 AI 时代科研范式的变革展开,探讨了科研交付物的重塑、Agent 时代的监管内核,并回应了关于科研价值、AI 工具使用及教育模式等核心问题。

1. 科研范式的重塑与交付物的变革

科研的核心价值不应仅限于发表论文(citation),更应体现在能否被 AI Agent 调用和产生实际的社会影响力。

未来的科研交付物应包含可被 Agent 调用的工具、API、Benchmark 或 Ground Truth 等基础设施,以确保工作的长期生命力和生态位。

提出了“Rose 法则”作为新的科研评判标准:解决一个真实需求(R),具备原创性(O),具有重要性(S)和优雅性(E)。

2. Agent 时代的监管内核:OS 系统

针对 Agent 系统存在的不确定性、不可控性及潜在风险,提出构建一个“监管内核”(OS),作为 Agent 的“缰绳”。

该内核通过将大语言模型(LLM)的语义输出映射为确定性的指令集,结合规则进行边界检查和拦截,形成“神经符号系统”。

目标是让 LLM 负责创造可能性和制定计划,而监管内核则负责守住边界,确保系统安全、可靠地执行。

3. 关键议题与观点探讨

科研价值与“水论文”:强调硬核科研的价值在于对问题的深刻洞察和解决,而非简单的重复劳动。自动化“水论文”系统缺乏认知增益,而高质量的科研过程本身对锻炼个人能力有益。

AI 工具的使用:认为 AI 工具(如大模型)能有效抹平不同能力的研究人员在技能层面的差距,但核心的“科研思维”如如何提出有价值的问题、如何与 AI 有效沟通、如何判断信息真伪,仍是需要训练和培养的。

教育模式的演变:面对 AI 对知识获取方式的冲击,教育应转向培养学生的核心判断力、批判性思维和跨领域整合能力,而非单纯的知识灌输。课堂的角色应转变为引导学生解决问题和进行深度交流。

待办

  1. 开源项目发布

徐强近期将会发布其团队研发的监管内核系统(OS),并邀请社区试用和反馈。

问答摘记

刘伟峰:头一两年,和最近两年感受不一样,AI 抹平中等、高级人员的科研能力,但是最近感觉有所拉大。能用好 AI 大模型的人将差距拉开,而这波人有很好的组织管理天赋,从小就有这样的能力,这个能力可以让他们更好地利用 AI。这种差距很难再追赶,固化了,徐老师怎样看待这个事情。

徐强:有不同意见。工业革命抹平体力差距,大模型抹平人的技能差距,但不认为它抹平了科研的能力。科研这套思维方式可以训练,怎样察觉一个问题它的价值、和 AI 有效沟通、如何判断信息真伪,有意识地训练科研的思维就不会被 AI 抹平,所以否认 AI 时代下科研能力与领导组织天赋强相关。徐强的书中也说到不会更大地拉开差距,科研是有规律的,是可以训练的。

论文是读不完的,要精挑细选地去读。在读论文的时候,主要考虑作者是怎样走到这条路上的,而不是真正的研究内容,提升自己的科研品味和判断力,然后就能提升自己使用 AI 做科研的效率和效果。

使用什么样子的模型:用最好的 AI 工具,花钱使用最强的模型来提升自己。

学校教育问题:有了 AI,知识和技能是平权了,但是判断力和选择的能力还是经验丰富的人,比如学长和老师,更加强。

小孩子教育问题:每个时代的人有每个时代的人的需求,不像“登味”很浓的我们这些。你的知识和技能本身平权了,现在的教育在这方面是要改的。小孩子一定要有自己有兴趣和热爱的东西,有热爱的东西肯定就有很多发现、需求和想法,这时候就可以使用 AI 去做,成为自己兴趣和热爱的打工人。有想法有能力的人肯定不会被替代,如果没有什么兴趣又没有什么想法,那 AI 真的会很大程度上替代这些人。