开发AlphaGo的人认为,人工智能走错了方向

作者: aeks | 发布时间: 2026-04-28 03:01 | 更新时间: 2026-04-28 03:01

学科分类: 控制科学与工程 智能科学与技术 计算机科学与技术

开发AlphaGo的人认为,人工智能走错了方向
开发AlphaGo的人认为,人工智能走错了方向

2016年,戴夫·西尔弗在谷歌DeepMind主导开发的AI程序AlphaGo,通过自我对弈掌握了围棋这一极复杂游戏,展现出远超简单模仿的真正理解力。此后,他创立公司Ineffable Intelligence,致力于构建更通用的超级智能——其核心不是靠海量人类文本训练大语言模型(LLM),而是让AI像人一样,通过试错、互动和自主探索世界来学习,即强化学习。西尔弗认为,LLM本质是“人类智慧的化石燃料”,虽高效但终将枯竭;而能自我学习的AI才是“可再生燃料”,可持续进化、无限成长。他将这项使命比作“首次接触超级智能”,期待它能自主发现全新的科学原理、技术方案乃至经济或治理模式。目前公司已获11亿美元种子轮融资(估值51亿),并吸引多位顶尖AI研究者加盟。西尔弗承诺,自己从公司获得的所有股权收益将全额捐出,用于高影响力慈善事业,以拯救最多生命。他强调,必须在可控的仿真环境中先行研发——这样既能观察AI如何与不同智能体互动、形成行为模式,也能提前评估其价值观是否与人类一致。西尔弗指出,当前主流LLM存在根本局限:若把它放进“地平说”时代,它只会越练越坚信地球是平的,因它无法亲身验证现实;而真正自主学习的AI,则可能重演伽利略或达尔文式的独立科学发现。他将当下AI发展类比为达尔文前的生物学——众说纷纭却无统一理论,而强化学习正可能提供那把钥匙。尽管该路径挑战巨大(如如何从围棋棋盘迈向真实世界的无限复杂性),但西尔弗团队正通过高度拟真的多智能体仿真环境推进,让AI学会设定目标、协作解决问题。多位投资人与同行评价他不仅是世界级研究者,更以谦逊、尊重他人、思想纯粹著称——这种特质对凝聚顶尖人才至关重要。在他看来,这不仅是一场技术竞赛,更是人类迄今最重大的纯科学使命。

标签: 人工智能安全 大语言模型 强化学习 自主学习 超级智能