人工智能永远不会拥有意识
作者: aeks | 发布时间: 2026-02-25 14:04 | 更新时间: 2026-02-25 14:04
转折点出现在2023年夏天,当时19位顶尖计算机科学家和哲学家发布了一份88页的报告,题为《人工智能中的意识》,非正式地被称为布特林报告。几天内,人工智能和意识科学界的几乎所有人似乎都读过了这份报告。报告草案的摘要中有这样一句引人注目的话:“我们的分析表明,目前没有任何人工智能系统是有意识的,但也表明,构建有意识的人工智能系统没有明显障碍。”
作者承认,召集这个小组并撰写报告的部分灵感来自“布莱克·勒莫因事件”。一位合著者告诉《科学》杂志:“如果人工智能能给人一种有意识的印象,那么科学家和哲学家就迫切需要参与进来。”
但引起所有人注意的是预印本摘要中的一句话:“构建有意识的人工智能系统没有明显障碍。”当我第一次读到这些话时,我感觉好像跨越了某个重要的门槛,而且这不仅仅是技术上的门槛。不,这与我们作为一个物种的身份认同有关。
如果在不远的将来,人类发现一个完全有意识的机器出现在世界上,这意味着什么?我猜这将是一个哥白尼式的时刻,突然动摇我们的中心感和特殊性。几千年来,人类一直在通过与“低等”动物对立来定义自己。这包括否认动物拥有那些所谓的人类独有的特质,比如情感(笛卡尔最明显的错误之一)、语言、理性和意识。在过去几年里,随着科学家证明许多物种是智能且有意识的,它们有情感,会使用语言和工具,这些区分中的大多数已经瓦解,这一过程挑战了数百年来的人类例外论。这种仍在进行的转变,引发了关于我们身份以及我们对其他物种道德义务的棘手问题。
对于人工智能,对我们崇高自我概念的威胁完全来自另一个方面。现在,人类将不得不相对于人工智能而非其他动物来定义自己。当计算机算法在纯粹的脑力上超越我们——轻松地在国际象棋、围棋等游戏以及数学等各种“高级”思维形式上击败我们时,我们至少可以安慰自己的是,我们(以及许多其他动物物种)仍然拥有意识带来的福祉和负担,即感受和拥有主观体验的能力。从这个意义上说,人工智能可能成为一个共同的对手,将人类和其他动物拉得更近:我们对抗它,生物对抗机器。这种新的团结会是一个暖心的故事,对被邀请加入“有意识团队”的动物来说可能是个好消息。但是,如果人工智能开始挑战人类——或者我应该说动物——对意识的垄断,会发生什么?那时我们会是谁?
我觉得这种前景非常令人不安,尽管我不完全确定原因。我逐渐接受了与其他动物(在我看来,甚至可能与植物)共享意识的想法,并且我很乐意将它们纳入不断扩大的道德考虑范围。但是机器呢?
可能我对这个想法的不适源于我的背景和教育。我在人文科学的温汤中慢慢“煮熟”,尤其是文学、历史和艺术,这些学科一直将人类意识视为值得捍卫的非凡事物。我们所珍视的文明的几乎一切都是人类意识的产物:艺术与科学、高雅文化与通俗文化、建筑、哲学、宗教、政府、法律、伦理和道德,更不用说价值本身的概念了。我想,有意识的计算机有可能为这些辉煌的宝库增添一些新的、尚未想象到的东西。我们可以这样希望。到目前为止,人工智能写的诗歌不比打油诗好多少;缺乏意识可能解释了为什么它连一丝原创性或新鲜见解都没有。但是,如果(当)有意识的人工智能开始创作真正优秀的诗歌,我们会有什么感觉?
作为一名人文主义者,我很难接受动物对意识的垄断可能会消失的可能性。但我现在遇到了其他类型的人(其中一些自称超人类主义者),他们对这个未来更乐观。一些人工智能研究人员支持构建有意识机器的努力,因为作为拥有自身情感的实体,有意识的机器比仅仅智能的计算机更有可能发展出同理心。一位神经科学家和一位人工智能研究人员试图说服我,构建有意识的人工智能是一种道德责任。为什么?因为另一种选择是极其聪明但毫无感情的人工智能,它会无情地追求自己的目标,因为它缺乏所有源于我们意识和共同脆弱性的道德约束。只有有意识的人工智能才有可能发展出同理心,从而放过我们。我没有夸张,这就是他们的论点。
人们不禁要问,这些人是否读过《弗兰肯斯坦》!弗兰肯斯坦博士不仅赋予他的造物生命,还赋予它意识,而这正是问题所在。玛丽·雪莱的小说记录了“一个敏感且理性的动物的创造”,正是这两种品质的结合决定了怪物的命运。促使怪物寻求复仇并变得杀人的,不是它的理性,而是它的情感伤害。
“我看到到处都是幸福,只有我被不可挽回地排除在外,”怪物在被人类社会驱逐后向弗兰肯斯坦博士抱怨道。“我曾经仁慈善良;痛苦使我成了恶魔。”怪物的推理能力当然帮助它实现了它的邪恶计划,但正是它的意识——它的情感——提供了动机。我们为什么要假设有意识的机器会比有意识的人类更有道德?
在报告的第一页,这些计算机科学家和哲学家就提出了他们的指导假设:“我们采用计算功能主义,即执行正确类型的计算是意识的必要和充分条件,作为工作假设。”计算功能主义的出发点是,意识本质上是一种在大脑或计算机硬件上运行的软件——该理论完全中立。但是计算功能主义是正确的吗?作者并不完全准备坚持这一主张,只是说它是“主流的——尽管存在争议”。即便如此,他们将基于“实用原因”假设它是正确的。
这种坦诚令人钦佩,但这种方法需要巨大的信仰飞跃,我不确定我们是否应该这样做。
就报告而言,系统的“物质基质”——即它是大脑还是计算机——“对意识无关紧要……它可以存在于多种基质中,而不仅仅是生物大脑中。”任何能够运行必要算法的基质都可以。作者指出:“我们暂时假设,我们所知道的计算机原则上能够实现足以产生意识的算法,但我们不声称这是确定的。”对不确定性的承认远远不够。报告中未受质疑的是大脑是计算机的隐喻——意识软件运行的硬件。在这里,我们遇到了一个冒充事实的隐喻。事实上,整篇论文及其结论都取决于这个隐喻的有效性。
隐喻可以是强大的思维工具,但前提是我们不要忘记它们是隐喻——将一件事比作另一件事的不完美或部分类比。两件事之间的差异与相似之处同样重要,但在围绕人工智能的热情中,这些差异似乎已经消失了。正如控制论专家阿图罗·罗森布鲁斯和诺伯特·维纳多年前指出的那样:“隐喻的代价是永恒的警惕。”除了这份报告的作者之外,整个人工智能领域似乎在这一点上放松了警惕。
考虑硬件和软件之间的明显区别。在计算机中分离硬件和软件的好处是,许多不同的程序可以在同一台机器上运行;软件及其编码的知识在硬件“死亡”后仍然存在。这种分离也符合我们的民间直觉,即二元论是正确的——按照笛卡尔的说法,我们可以在精神事物和物理事物之间划一条清晰的界限。但是硬件和软件的区别在大脑中根本不存在;在那里,软件就是硬件,反之亦然。记忆是大脑神经元之间的一种物理连接模式,既不是硬件也不是软件,而是两者兼具。
事实上,发生在你身上的一切——你经历、学习或记住的一切——都会改变你大脑的物理结构,永久地重新连接它的连接。(从这个意义上说,大脑中没有二元论;精神事物永远无法与物理事物完全分离。)当所讨论的基质——大脑——不断被在其上运行的任何信息(或“意识算法”)物理重构时,同样的意识算法可以在各种不同基质上运行的想法是没有意义的。你的大脑与我的大脑在物质上不同,正是因为它确实被不同的生活经历——即意识本身——所塑造。大脑根本不可互换,无论是与计算机还是与其他大脑。
几乎在任何方面,计算机作为大脑的隐喻都站不住脚。计算机科学家将大脑中的神经元视为芯片上的晶体管,由电脉冲打开或关闭。这种类比有一定道理,但复杂之处在于,电并不是影响神经元放电的唯一因素。大脑中还充满了化学物质,包括神经调节剂和激素,它们强烈影响神经元的行为,不仅是它们是否放电,还有放电的强度。这就是为什么精神活性药物可以深刻改变意识(而对计算机没有明显影响)。神经元的活动还受到以波状模式穿过大脑的振荡的影响;这些振荡的不同频率与不同的心理活动相关,例如意识及其缺失、集中注意力和做梦(以及其他睡眠阶段)。
将神经元比作晶体管严重低估了它们的复杂性。与芯片上的晶体管相比,大脑中的神经元具有大量的相互连接,每个神经元直接与多达10,000个其他神经元通信,其网络如此复杂,我们距离能够绘制其连接的最粗略地图还有几十年的时间。在计算机科学中,“深度人工神经网络”的出现备受关注——一种据称以大脑为模型的机器学习架构,它将数量惊人的处理器分层,使网络能够处理和从大量数据中学习。当然,这令人印象深刻,但最近的一项研究表明,单个皮质神经元可以完成整个深度人工神经网络所能做的一切。
是的,计算机在很多方面确实类似于大脑,计算机科学通过模拟大脑的各个方面和运作取得了巨大进步。但是大脑和计算机在任何方面都可以互换的想法——计算功能主义的前提——肯定是牵强的。然而,这不仅是布特林报告的前提,也是该领域大部分研究的前提。原因不难理解。如果大脑是计算机,那么足够强大的计算机应该能够做大脑能做的任何事情,包括变得有意识。这个前提几乎保证了结论。换句话说,正是作者自己消除了构建有意识人工智能的最大“障碍”——即大脑在关键方面与计算机不同的障碍。
报告的第二个方面让我怀疑其结论的可信度,那就是它提出的判断人工智能是否真正有意识的标准。这是一个严峻的挑战。作者引用勒莫因事件(无论公平与否)指出,人工智能很容易欺骗人类,让他们相信自己是有意识的,而实际上并非如此。(更准确地说,由于我们容易拟人化和对魔法的偏爱,我们是自己欺骗了自己。)当人工智能接受了几乎所有关于意识的言论和著作的训练时,“可报告性”(哲学术语,指直接询问人工智能本身)是行不通的。解决这一困境的一种方法是从人工智能训练的数据集去除所有关于意识(可能还有情感)的参考,然后看看它是否仍然能令人信服地谈论有意识。
相反,作者建议我们寻找与各种意识理论预测相匹配的人工智能意识“指标”。例如,如果人工智能的设计包括一个工作空间,该工作空间汇集了各种信息流,但这些信息流是在竞争进入该空间之后才汇集的,这看起来很像全局工作空间理论,因此可能被视为有意识。报告回顾了六种意识理论,确定了人工智能必须表现出的“指标”,以满足每种理论的要求,从而被认为具有潜在意识。
这里的问题(其中之一)是:它提议我们用来衡量人工智能的所有意识理论,没有一个能让任何人满意地证明其正确性。那么这是什么样的证明标准呢?更重要的是,其中许多理论可以在人工智能的设计中模拟,这不足为奇,因为它们都基于意识是计算问题的想法。我们就这样兜圈子。
当我读完布特林报告时,我担心的哥白尼式时刻似乎比报告大胆的结论让我认为的要遥远。在回顾了报告涵盖的六种左右的意识理论后,很明显,所有这些理论都通过想当然地认为意识可以简化为某种算法而预先设定了结果。
我还对所考虑的理论中缺失的内容感到震惊。它们都没有提到具身性——即意识可能依赖于同时拥有身体和大脑的观点——或者任何与生物学相关的东西。这些理论也没有提到有意识的主体。在全局工作空间中广播的信息,或者在整合信息理论(IIT)中整合的信息,其接收者到底是谁或是什么?以及情感在使体验变得有意识方面的作用呢?
作者并没有忽视最后一点,他们注意到大多数当前理论中“情感”的缺失,并建议该领域更多地关注有意识的机器是否会有“真实”情感的问题,因为如果事实证明它们有,我们将面临一场道德和伦理危机。报告指出:“任何能够有意识地受苦的实体都值得道德考虑。”(但痛苦难道不总是有意识的吗?)报告继续说道:“这意味着,如果我们未能认识到有意识人工智能系统的意识,我们可能会冒着造成或允许具有道德意义的伤害的风险。”我们欠能受苦的机器什么?我们真的想给这个世界带来更多的痛苦吗?
除了这种对情感(作为使机器有意识的麻烦副产品)的高度推测性讨论之外,在人工智能社区中,关于意识的对话一如既往地无情抽象——缺乏血色、没有实体,完全忽视生物学。当我向一位试图构建有意识人工智能的研究人员提出“受苦计算机”的难题时,他挥手 dismiss 了这个问题,解释说可以通过对算法的简单修复来抵消:“我们没有理由不能只是调高快乐的旋钮。”