他连面试机会都拿不到,是AI在“作祟”吗?

作者: aeks | 发布时间: 2026-05-05 21:02 | 更新时间: 2026-05-05 21:02

学科分类: 医学技术 法学 计算机科学与技术

他连面试机会都拿不到,是AI在“作祟”吗?
他连面试机会都拿不到,是AI在“作祟”吗?

本文讲述美国休斯顿医学生查德·马基(Chad Markey)的真实经历:他毕业于常春藤医学院,发表多篇顶级医学期刊论文,却在申请82个住院医师项目时未获任何面试邀请。他发现自己的医学生成绩评估报告(MSPE)将因病休学描述为‘自愿’且出于‘个人原因’,而实际是因强直性脊柱炎(一种致残性自身免疫病)所致——这可能被AI筛选系统误判为学业不胜任。随着越来越多医院采用Thalamus公司开发的AI工具Cortex处理海量申请,马基开始系统性调查:他用开源NLP模型(如VADER)分析措辞情感倾向,构建含6000名虚拟申请者的合成数据集,并基于Medicratic公司专利反向工程AI逻辑。结果显示,将‘个人原因’改为准确医学表述后,其模拟评分大幅提升66%。尽管最终Thalamus澄清Cortex在2025–2026周期并未使用情感评分或排序算法(仅用于成绩标准化和研究兴趣标识),且确认马基所申请项目未启用相关模块,但多家教学医院(如加州大学旧金山分校、塔夫茨医学中心)证实曾观察到Cortex出现成绩显示错误等技术问题。文章进一步指出,当前AI招聘工具监管严重滞后:仅伊利诺伊、新泽西、科罗拉多等少数州立法要求告知AI使用,加州虽要求定期偏见检测,但均未赋予申请人获取个体算法决策依据的权利。相比之下,背景调查领域受《公平信用报告法》约束,申请人有权索要报告、质疑并获得复核——这为AI招聘监管提供了可借鉴的‘程序正义’范本。马基强调,他的探索并非徒劳:即使已成功匹配哥伦比亚大学住院医师项目,他仍持续研究大语言模型如何从求职文本中提取语义信号并影响后续决策,推动技术透明化。

标签: AI招聘筛选 人工智能透明度 住院医师匹配 医疗教育公平 算法偏见