AI“假人”把社科实验带沟里?别急着让硅基样本背锅!
作者: aeks | 发布时间: 2025-10-04 22:32 | 更新时间: 2025-10-04 22:32
学科分类: 心理学 社会学 管理科学与工程 计算机科学与技术

🚨实验招募不到真人,直接拉AI来凑数?听起来像开挂,但最新研究泼了盆冰水:同一道题,换个大模型、调个温度值,结论能180°大转弯!伯尔尼大学Jamie Cummins团队用252种LLM组合去复现“种族偏好”和“世界公平观”两大心理指标,结果——没有一种设置能100%还原人类真实反应。简单说:AI生成的“参与者”更像薛定谔的受试者,打开盒子前,你根本不知道它会投赞成还是反对。
🧪实验细节我帮你们拆成大白话:
1️⃣ 模型:ChatGPT、DeepSeek轮番上阵
2️⃣ 提示词:从“你是美国人”到“想象自己是非裔大学生”,变着花样喂
3️⃣ 参数:温度0.2 vs 1.5,一个保守一个放飞
结局?有的组合把人类排序复现得七七八八,有的直接把相关性打成负值——两篇背靠背论文可以直接互怼。
⚠️更扎心的是代表性问题。训练数据里本就稀缺的老年人、少数族裔、非西方文化背景,AI只会放大缺口。Indira Sen直接点名:用硅基样本替代他们,等于在科学里再插一刀“隐形歧视”。
💡那AI还能不能玩?可以,但得按规矩来:
• 预实验:先用AI跑问卷逻辑,筛掉“人类看不懂”的题
• 透明报告:公开模型、提示词、温度,让同行能复现
• 伦理审查:把AI参与者写进IRB,别悄悄混进真人队列
📎原文指路:DOI 10.1126/science.z232cbo
一句话总结:AI是加速器,不是替身演员。想让它上场,先给它戴好“透明、验证、伦理”三重安全帽。