乐于分享
好东西不私藏

为什么AI成不了“科学家”

为什么AI成不了“科学家”

自2024年以来,渐渐有不少工具出来,号称要替代人类做科研。

但是,AI能成为科学家吗?

我始终坚信不能,最多只能辅助。今天看到一篇Blog(https://www.k-dense.ai/blog/ai-co-scientist-not-ai-scientist),同样的观点,但说的内容比我能表达的更好,故编译其中一部分观点分享给大家。


Sakana AI公司的“AI科学家”(The AI Scientist)被设计为能够自主完成完整的研究闭环:产生想法、编写代码、运行实验、撰写结果,甚至进行同行评审。

但对这个“AI科学家”系统的独立评估,发现了反复出现的问题:

  • 编造的引用
  • 重复出现的图表
  • 论文并非真正的发现,而仅仅是通过填写预定义的LaTeX模板构建的论文
  • 系统本身提出的相当一部分想法“未能执行”

构建这些系统的团队对此心知肚明,其中最著名的一个团队最近在论文中公开承认,其智能体“容易出现幻觉或明显错误,例如生成不准确的引用。”

智能体的失败并非因为工程师们偷懒。它之所以失败,是因为无监督的端到端框架比看起来要困难得多,而缺失的恰恰是那个名字试图剔除的东西:

科学不是论文工厂。论文是科学的一种产物,而不是科学的目的。科学的目的是缓慢地积累有用的、真实的、令人惊讶的知识,这些知识是人类可以用自己的声誉来担保的。

科学依赖于一种不存在于文本中的知识。匈牙利裔英国物理化学家、后来成为哲学家的迈克尔·波兰尼(Michael Polanyi),在他1966年出版的《隐性维度》(The Tacit Dimension)一书中,对这个问题进行了最精炼的阐述:“我们知道的远比我们能说出来的多”(Polanyi’s paradox, Wikipedia)。他的观点是,人类不断执行着他们无法完全描述的任务。

波兰尼将此称为“隐性知识”,并在其后的论文集《认识与存在》(Knowing and Being, 1969)中论证道,所有知识“要么是隐性的,要么根植于隐性知识。完全显性的知识是不可想象的。” 无法摆脱个人因素。

这并非抽象概念。在一个正在运转的实验室里待上一周,你就会看到以下现象:

  • 只看一眼Western Blot(蛋白质印迹)就知道上样有问题的首席研究员(PI)
  • 在新测序仪“运行满一周之前”不会相信其结果的研究员
  • 因为细胞系“搬家后就变得奇怪”而放弃一个完美的p=0.04结果的研究生
  • 有些合作者的数据你愿意对其进行交叉验证,而有些你不愿意,但你可能纯粹凭直觉
  • 能一眼看出伪造数据集的审稿人,而你若问他原因,他却说不出来。

这些信息没有一样存在于文献里,也没有一样存在于模型的权重里,但却通过学徒制,在人与人之间,历经多年传递,而这正是科学判断的真正基础。

波兰尼更直白的论断——应该张贴在每个AI实验室海报上——“我们对科学结论有效性的依赖,最终取决于对连贯性的判断……一种定性的、非正式的、隐性的、个人的判断。 ”一个模型可以提供答案。但它无法提供那种判断。


最后我想说的是,这并非否定AI对科学研究的价值,而是帮助我们认清AI在科学研究中的定位,让AI更好的做到辅助,而非替代。


📌 本文来源:流式中文网;欢迎转发到朋友圈,谢绝复制粘贴转载。

💻 电脑端访问:https://www.flowcyto.cn (访问时会进行真人验证,请勿离开验证页面,否则容易长时间无法通过)

📱 手机端访问:https://www.flowcyto.cn/bbs/forum.php?forumlist=1&mobile=2

⚠️ 如有临床流式诊断疑难病例需要咨询或样本复查会诊,可通过下方互联网医院二维码向我咨询。图文咨询仅限 5 条回复,需提前准备好充足资料。