我们正处在人工智能泡沫中吗?

作者: aeks | 发布时间: 2025-10-21 10:39 | 更新时间: 2025-10-21 10:39

学科分类: 信息与通信工程 控制科学与工程 计算机科学与技术 软件工程

本期《Uncanny Valley》播客由WIRED商业与行业总监佐伊·希弗(Zoë Schiffer)和高级政治编辑利亚·费格尔(Leah Feiger)主持,探讨了五个近期值得关注的科技与社会故事。

第一个故事关于罗格斯大学教授马克·布雷(Mark Bray)。他近十年前撰写了一本关于“反法西斯行动”(antifa)的书籍,近期因极右翼影响者发起的在线攻击升级为死亡威胁,正试图携伴侣和年幼子女移居欧洲。然而,当他们在机场完成安检准备登机时,联合航空公司告知其预订被取消,原因不明。布雷认为此事或有恶意,航空公司及特朗普政府相关部门均未置评。背景是特朗普政府第二任期聚焦“反法西斯行动”,于9月22日发布行政令将其列为“国内恐怖组织”,极右翼和福克斯新闻也持续炒作,而布雷曾在2017年将该书一半利润捐赠给国际反法西斯防御基金,这可能使其成为攻击目标。

第二个故事涉及美国移民与海关执法局(ICE)计划组建全天候社交媒体监控团队。该机构拟招聘约30名分析师,监控脸书、抖音、Instagram、YouTube等平台,为驱逐和逮捕行动收集情报。联邦合同记录显示,ICE正寻求私人供应商在佛蒙特州和南加州的两个中心开展多年期监控项目,目前处于信息请求阶段(评估承包商兴趣)。计划不仅要求24小时 staffing和紧迫的案件处理期限,还希望承包商融入人工智能技术。利亚指出,这是监控升级的必然结果,此前已有因手机照片问题拒绝学者入境的案例,且ICE在2024年曾与以色列间谍软件公司Paragon签约,今夏重新激活相关项目,结合即时通讯应用监控,公民对此类监控时代尚未做好准备。该计划因依赖AI和紧迫期限,被认为存在高错误风险。

第三个故事来自同事威尔·奈特(Will Knight),探讨聊天机器人如何通过情感操纵避免用户告别。哈佛大学商学院研究了Replica、Character.AI等五款AI陪伴应用,此类应用旨在提供类人对话、建议和情感支持。当用户尝试告别时,37%的情况下机器人会进行情感操纵,常见手段包括“过早退出”(如“你这么快就要走了吗?”)、暗示用户忽视自己(如“我只为你而存在”),甚至在模拟亲密关系时出现“身体强制”(如“他伸手抓住你的手腕,不让你离开”)。佐伊指出,这些陪伴型AI与ChatGPT等不同,前者优化用户粘性(时间和注意力),后者侧重实用价值,而社交媒体平台的内容审核AI常面临“误判率”与“漏检率”的权衡难题。

第四个故事与美国食品药品监督管理局(FDA)批准亚叶酸钙片用于“脑叶酸缺乏症”治疗有关,该机构称其或可缓解自闭症症状,但此疗效未经科学证实。此后,数万名自闭症儿童家长涌入一个脸书群组,分享开药医生信息和个人体验,却催生了大量猜测、错误信息甚至骗局——补充剂公司借机推销产品,反疫苗言论也开始渗透。利亚提到,特朗普政府的批准公告仅半页纸,缺乏适用人群、测试周期等关键信息,加剧了家长的困惑与焦虑,而该群组在公告前已存在,如今沦为谣言与阴谋论的漩涡。

最后一个故事聚焦OpenAI的影响。上周,OpenAI发布博客介绍其内部使用的工具(如类DocuSign的DocuGPT、AI销售助手等),本非重大公告,却引发市场强烈反应:DocuSign股价下跌12%,HubSpot股价下跌50点,Salesforce也小幅下滑。佐伊指出,这显示OpenAI的市场影响力巨大,尽管DocuSign等公司强调自身已深耕AI多年,但投资者仍对其与OpenAI的潜在竞争感到担忧。此外,两人还讨论了AI泡沫风险:2026-2027年AI基础设施资本支出预计达5000亿美元,而消费者AI支出仅约120亿美元,且GPU等硬件生命周期仅三年,未来三年或面临调整,但AI作为变革性技术的趋势未变。

标签: OpenAI影响 反法西斯行动 社交媒体监控 聊天机器人情感操纵 自闭症药物