别对人工智能抱太大期望
作者: aeks | 发布时间: 2025-10-20 10:11 | 更新时间: 2025-10-20 10:11
学科分类: 信息与通信工程 控制科学与工程 计算机科学与技术 软件工程
当然,生成式人工智能是一项令人瞩目的技术,它为多项任务提升生产力提供了巨大机遇。但由于炒作远远脱离现实,2024年该技术遭遇的挫折将更令人记忆犹新。
越来越多的证据将显示,生成式人工智能和大型语言模型会产生虚假信息,且容易出现“幻觉现象”——也就是人工智能凭空编造内容,结果还常常出错。有人寄望通过监督学习快速解决幻觉问题(即训练这些模型远离可疑的信息来源或陈述),但这种想法往好了说也只是过于乐观。因为这些模型的架构本质是预测序列中的下一个或多个词,要让预测结果锚定已知事实,难度极大。
关于全经济领域生产力将实现指数级提升的期待,或是所谓朝着“通用人工智能”(AGI)迈出重要第一步的吹嘘,同样会落空。对于生产力提升的论调,将转向指责企业对生成式人工智能的错误应用导致失败。我们或许会开始得出一个(更有意义的)结论:需要明确哪些人类任务能被这些模型辅助,以及工人需要哪些额外培训才能实现这一点。
一些人会开始意识到,仅凭预测词语就想实现类似人类复杂认知的能力,从来都是白日梦。另一些人则会说智能已近在咫尺。但恐怕更多人会继续谈论人工智能的“生存风险”,却忽视了当下存在的问题,以及其不受控推广对就业、不平等和民主带来的更日常(却影响重大)的风险。
2024年,这些代价将更加清晰地显现。许多公司会采用生成式人工智能,但它将被证明只是一种“平庸的自动化”——这种自动化会取代工人,却无法带来巨大的生产力提升。
ChatGPT等大型语言模型最大的用途将出现在社交媒体和网络搜索领域。平台会继续通过个性化数字广告从收集的信息中盈利,同时对用户注意力的争夺将愈演愈烈。网络上的操纵行为和虚假信息将增多。生成式人工智能还会增加人们使用电子屏幕的时间(以及随之而来的心理健康问题)。
会有更多人工智能初创公司出现,开源模式也会获得一定发展,但这不足以阻止行业双寡头的形成——谷歌和微软/OpenAI将凭借其庞大的模型主导该领域。更多公司将被迫依赖这些基础模型开发自己的应用程序。而由于这些模型会因虚假信息和幻觉问题持续令人失望,许多此类应用程序也将不尽如人意。
要求反垄断和监管的呼声将加剧。但反垄断行动将毫无进展,因为无论是法院还是政策制定者,都没有勇气尝试拆分最大的科技公司。监管领域会有更多动向,但2024年不会出台有意义的监管措施,原因很简单:美国政府在技术发展上已远远落后,需要时间追赶——这一短板在2024年将更加明显,从而推动围绕新法律法规的讨论,甚至可能获得更多两党支持。