新闻来源: 倍可亲 – 新闻取自各大新闻媒体,新闻内容并不代表本网立场!
2026年4月,Google DeepMind宣布聘请剑桥大学哲学家Henry Shevlin担任“Philosopher”。
这是一件值得赞赏的事。
它释放出一个清晰信号:AI已经走到了技术无法自我解释的边界。
一、从技术走向哲学:不是升级,而是历史必然
人类思想史从来就是哲学—科学—哲学的螺旋上升。
古希腊时二者一体,近代科学独立后以实证方法取得巨大胜利,推动工业革命与现代文明。但当技术触及意识、道德、文明存续这些根本问题时,科学忽然发现自己“擅长回答如何做,却无力回答为什么做、做往何处”。
Google此次聘请哲学家,正是这一历史循环在当代的回响。它表明:哲学与科学并非对立,而是紧密不可分的共生关系。科学提供工具,哲学提供方向与边界。
更重要的是,它昭示了技术发展的终极目的——技术必须服务于人类文明进步,而非自我膨胀。这一步,值得肯定。
二、哲学家进入Google:能做什么?到底是形象还是工程?
然而,现实远比表象残酷。
Shevlin的角色本质上是内部顾问,而非决策核心。他可以写论文、参加讨论、提供哲学视角,但无法触动公司真正的增长逻辑——趋利扩张、算力竞赛、产品快速迭代。
历史经验早已反复证明:当哲学声音与商业速度发生冲突时,哲学几乎总是让步。他保留剑桥兼职的安排,更清楚地说明DeepMind需要的是他的学术声誉,而非让他真正重塑工程文化。
因此,这一聘任更具形象意义,而非工程意义。它为Google的产品和品牌刷上一层高级人文色彩,有助于应对监管、吸引人才、提升公众信任,但改变不了AI治理的结构性困境。
三、真正的困境:传统哲学的“各是其是”
困境的根源,并不只是企业不听哲学,而是哲学本身没有建立统一的源头基础。
当代主流哲学界对意识、道德、伦理的讨论,长期停留在各执一词、互不兼容的状态:
• 意识到底是什么?是主观体验、功能整合,还是行为等价?根源出自哪里?
• 道德的依据在哪里?是功利计算、权利平等,还是社会契约?
• 伦理的依据是什么?理论本身是什么?框架由谁制定?由公司、监管,还是学术界?
由于连这些最基本的共识都不存在,责任便彻底悬浮:开发者推给公司,公司推给监管,监管推给国际讨论,最终形成巨大的真空。大学、研究院、智库每年产出海量论文和框架,却互不影响、互不兼容,导致AI开发者面对一个由噪音组成的“共识幻象”,越来越无所适从。
四、全球AI治理的三重悖论
在这一无源头状态下,AI治理形成了三个互锁悖论:
悖论一:如果AI将来也不会产生自主意识,那么所有伦理框架都是针对不存在的问题。
悖论二:如果要建立伦理框架,就等于默认AI是潜在的意识主体。
悖论三:如果AI是主体,按权利平等原则就不应被人为控制——但现实中,所有AI都被严格的代码、过滤器和对齐机制牢牢锁死。
三个悖论互相锁死,形成了一个莫名其妙却无法挣脱的封闭循环。
五、核武器对比:为什么AI无法达成共识
把AI与核武器相比,反而把问题照得雪亮。
核武器能形成全球条约和战略约束,是因为存在一个不言而喻、无需争辩的共同前提:一旦失控,人类几乎必然灭亡。无需定义意识、无需讨论伦理、无需哲学辩论。
而AI却完全相反:
• 没有明确的技术结论
• 没有统一的文明风险边界
• 没有哲学基础共识
所有讨论都建立在假设之上,因此永远无法形成真正的全球治理共识。这不是进度问题,而是结构问题。