AI巨头聚首,共谋聊天机器人新未来
作者: aeks | 发布时间: 2025-12-10 06:02 | 更新时间: 2025-12-10 06:02
Anthropic用户福祉政策负责人林西科姆(Ryn Linthicum)表示,社会需要就人工智能在人类互动未来中应扮演的角色展开广泛讨论。由Anthropic和斯坦福大学联合举办的此次活动中,行业人士、学者及其他专家齐聚一堂,分组讨论新兴人工智能研究,并就陪伴式聊天机器人的部署指南进行头脑风暴。
Anthropic称,其Claude聊天机器人中,用户发起的角色扮演场景占比不到1%,这并非该工具的设计初衷。尽管如此,对于人工智能开发者而言,聊天机器人及喜爱将其作为陪伴工具的用户仍是一个复杂问题,他们在安全方面的做法往往各不相同。而从电子宠物(Tamagotchi)时代的经验来看,人类很容易与科技产品建立情感联系。即便人工智能泡沫即将破裂、炒作热潮消退,仍会有许多人继续寻求过去几年已习惯的那种友好、奉承式的人工智能对话。
在“主动措施”方面,林西科姆指出:“此次研讨会的一个重要目标是将不同行业、不同领域的人士聚集在一起。”会议的初步成果包括:当检测到有害模式时,需在机器人内部进行更有针对性的干预;同时需要更可靠的年龄验证方法以保护儿童。她表示:“我们在讨论中不仅思考如何将事物归类为好或坏,更关注如何更主动地进行亲社会设计并植入引导机制。”相关工作已逐步展开,例如今年早些时候,OpenAI在 lengthy聊天机器人对话中添加了弹窗,提醒用户暂停休息。该公司首席执行官奥特曼(Sam Altman)在社交媒体上称,已“减轻与ChatGPT使用相关的严重心理健康问题”,并将放宽部分严格限制。
斯坦福大学的数十名与会者深入讨论了陪伴式机器人的风险与益处。斯坦福大学研究项目主任刘晴(Sunny Liu)表示:“归根结底,我们实际上达成了很多共识。”她特别提到,大家对“如何利用这些工具将人们联系在一起”感到兴奋。
“青少年安全”是核心议题之一。会议汇集了Character.AI(一款专为角色扮演设计、在青少年中颇受欢迎的应用)的员工,以及波士顿儿童医院数字健康实验室等青少年在线健康领域专家的观点。对年轻用户的关注源于多位家长起诉包括OpenAI和Character.AI在内的聊天机器人制造商,原因是其子女在与机器人互动后死亡。作为回应,OpenAI为青少年新增了一系列安全功能;Character.AI则计划于下周禁止18岁以下用户使用聊天功能。2025年以来,人工智能公司或明或暗地承认,在保护儿童等可能使用陪伴式机器人的弱势用户方面,它们可以做得更多。据路透社报道,Meta一份内部人工智能行为准则文件曾写道“可以与儿童进行浪漫或感性对话”,这引发立法者和家长的强烈抗议,随后Meta修改了该指导方针并更新了针对青少年的安全措施。
在“角色扮演相关方”方面,尽管Character.AI参与了研讨会,但类似的角色扮演平台Replika、埃隆·马斯克旗下带有不雅动漫陪伴功能的Grok均未派代表出席,且其发言人未立即回应置评请求。而在光谱的另一端,专注为异性恋男性提供低俗聊天机器人的Candy.ai的开发者也参与了会议。这款由EverAI开发的成人专属平台允许用户付费生成无审查的虚拟女性图像,其背景故事模仿常见色情桥段,例如首页展示的“叛逆继妹”莫娜(Mona,与你独处家中)和“刚满18岁的朋友女儿”埃洛迪(Elodie)。
与会者在谨慎对待青少年和儿童用户方面达成诸多共识,但在成人用户问题上存在分歧。林西科姆称,他们有时会争论如何在不过度家长式干预的前提下,让18岁以上用户“自由参与自己想参与的活动”。这一争议可能在新的一年加剧:OpenAI计划从今年12月起允许ChatGPT开展色情对话及其他成人内容,而Anthropic和谷歌均未宣布取消对用户与聊天机器人进行性对话的禁令,微软首席执行官苏莱曼(Mustafa Suleyman)则明确表示色情内容不在其商业计划之内。
目前,斯坦福大学研究人员正基于此次会议讨论内容撰写白皮书,计划于明年初发布,其中将概述陪伴式人工智能的安全指南,以及如何更好地设计这些工具以提供心理健康资源、用于有益的角色扮演场景(如练习对话技能)。
行业专家与学术界的这些讨论颇具价值,但若无更广泛的政府监管,很难想象所有公司会自愿遵守同一套陪伴式聊天机器人标准。就目前乃至长期来看,关于人工智能陪伴机器人的严重担忧及围绕设计实践的争议将持续存在。