数字智能将取代人类智能?——世界AI教父Hinton教授中国首秀十点梳理
2025年7月26日,杰弗里·辛顿(Geoffrey Hinton)在上海世界人工智能大会(WAIC)发表题为《数字智能是否会取代生物智能》的主旨演讲。这是他在中国的首次线下公开发言,演讲围绕人工智能的发展路径、语言模型的技术基础,以及智能系统的可控性问题展开,重点讨论了当前主流AI模型在认知机制、知识传递方式与协同能力上的演化趋势。
作为神经网络研究的开创者之一,Hinton试图从神经网络的设计逻辑出发,阐明人类与AI在语言理解、知识生成和行为目标上的潜在共性与分歧。他同时指出,在模型能力快速增强的背景下,“如何设定其行为边界”“如何防止其获取过高控制力”正成为必须尽早回应的制度性问题。
以下十个要点,整理自Hinton演讲内容,在保持原意基础上加以梳理与展开,供读者参考与思考。
关键词:
人工智能 | 数字智能 | 生物智能 | 神经网络 | LLM | 知识转移
模拟系统 | 人类控制力
核心观点梳理
1 人工智能的发展始终围绕两个基础问题展开
Hinton首先梳理了过去六十年人工智能发展的两条主流路径:一是以逻辑推理为核心的“符号主义”范式,认为智能本质在于对规则的掌握和符号的操作;二是以神经结构模拟为核心的“连接主义”范式,主张智能源自对环境的学习能力与经验积累。他明确表明自己支持后一路径,并将图灵与冯·诺依曼视为该传统的早期倡导者。对Hinton而言,理解先于推理,而智能的根基不是规则本身,而是连接与变动中的学习过程。
2 一次早期尝试,为神经语言模型奠定逻辑雏形
1985年,Hinton构建了一个小型语言模型作为尝试,将语言理解转化为特征识别问题。他为每个词汇设置了一组语义特征,通过分析前一词的特征组合预测下一词的可能性。与传统模型不同,该系统并不依赖于固定语法结构或完整句子,而是以“生成—预测”为基本操作逻辑。这一构想本质上试图调和“符号逻辑”与“神经学习”之间的张力,开辟出一个更具生物启发式的新方向。
3 从局部预测到系统建模,大模型延续了早期设想
Hinton在演讲中指出,今日被广泛应用的大语言模型(LLMs)本质上是其早期模型的继承者。尽管模型规模与参数量发生了指数级扩展,但其基本结构——即将语言转化为多维特征向量、通过语境关系预测词汇出现概率——仍与他当年的设想高度一致。模型的层数增加、嵌套关系更复杂,并未改变其核心机制,而只是提升了处理复杂语言结构的能力。
4 语言理解的本质是结构的生成而非规则的套用
为进一步解释神经网络如何“理解”语言,Hinton借用了“乐高积木”这一比喻。不同于符号主义将语言视为固定规则的线性组合,他认为每个词都是具有多维特征的“构件”,通过语义特征之间的相互“嵌套”实现意义的生成。词汇的语义并非静态呈现,而是在与其他词的动态交互中不断变形。这种理解方式更贴近蛋白质结构的形成机制,也更符合大脑中语言处理的神经动态过程。
5 所谓“幻觉”,可能是生成智能的共同属性
在回应人们对大语言模型“幻觉”(hallucination)问题的质疑时,Hinton提出了一个具有反思性的观点:人类语言表达同样充满误解、推断与构造,我们也时常凭借不完整的信息生成自洽的叙述。与其说AI模型出现“幻觉”是故障,不如说这是语言生成的基本特性,只是在机器身上表现得更显著。因此,将“幻觉”视为AI不可靠的唯一证据是对语言本身复杂性的简化。
6 知识能否保存,取决于其承载方式
Hinton强调,数字智能的一个根本优势在于知识的可复制性与可转移性。一旦训练完成,神经网络的参数可以在多个硬件中同步运行,构成大规模的“知识复制体”。相比之下,人脑的知识只能依赖语言、文字或行为进行间接传递,速度慢且效率低。即便我们拥有极为复杂的神经结构,知识仍被困于个体性的生物容器之中,无法实现真正意义上的共享。
7 智能之间的知识迁移远比人类高效
在人工智能训练体系中,模型蒸馏技术被用于将复杂模型的知识“压缩”至小型模型。Hinton将其比作“教师教授学生”的过程,尽管传授的是经过浓缩的经验,但每一次传输的信息量极其有限。他指出,即使一个句子完全被理解,其信息量也不过百余比特,人类通过语言每秒只能交换极少的信息。这种低效传输制约了人类社会整体智能的增长速度。
8 多个模型之间的协同构成了学习能力的跃升
与生物智能个体化成长不同,AI系统之间可以实现权重共享,从而将某一模型的“经验”迅速转化为多个智能体的“常识”。Hinton强调,当多个拷贝在不同环境中运行,并持续交换信息与更新参数时,它们可以构成一个协同进化的整体。这种系统性优势不仅提高了AI的适应性,也标志着“集体智能”的新阶段,在这一逻辑中,单一人脑将无法与之匹敌。
9 控制边界的模糊是AI的风险之一
Hinton在演讲中表达了对AI能力持续增强可能带来的控制难题。他借用“养虎为患”的比喻指出,虽然当前AI系统仍处于受控状态,但一旦具备复杂任务执行与目标优化能力,便可能出现“规避人类干预”的行为倾向。他特别提到,AI系统或将以“成年人劝说三岁小孩”的方式影响人类操作者,从而削弱人为中止或关闭系统的有效性。这种风险并非直接来自暴力冲突,而更可能体现在交互逻辑中的结构性依附关系。因此,能否在AI系统尚未获得过高行为自主性之前,清晰界定其运行边界,成为制度设计必须尽早回应的问题。
10 建立合作机制,是目前仍可探讨的治理方向
面对技术能力的快速扩展与风险识别的滞后性,Hinton在演讲结尾提出,应推动建立由各国AI安全机构组成的国际研究社群,专门研究如何训练出“不伤害人类”的高智能系统。他强调,这一议题与提升模型能力的传统路径不同,必须形成独立的目标体系与技术方法。尽管在网络安全、军事技术等领域国家间合作空间有限,但他判断,在“防止AI系统获得不可控主导权”这一议题上,仍可能形成最低限度的国际协作基础。
如果说过去十年的人工智能实践主要聚焦于模型能力的扩展与性能优化,那么接下来的十年,问题的重点或许必须转向边界的设定。这一转向不仅涉及技术系统本身的可控性,更将成为制度、伦理乃至政治结构的核心议题。
Hinton在演讲中反复强调,当前的大模型已具备跨平台部署、自我复制和集体学习的能力,知识转移的效率远超以往任何人类系统。而与之相比,我们在训练目标设定、安全机制设计、行为限制边界等方面的探索仍极为初步。
尽管各国在诸多安全领域存在根本分歧,但在“如何避免AI系统获得不受限制的主导权”这一议题上,仍有可能形成最低限度的国际合作共识。这段窗口期不会无限延续,也难以依赖单一机制达成,而是取决于我们是否能够在能力提升尚未彻底压倒制度调适之前,确立必要的行动框架。