该标签下共有 1 篇文章
作者: aeks | 发布时间: 2026-04-16 18:05
学科: 智能科学与技术 网络空间安全 计算机科学与技术
大型语言模型(LLM)常被用来生成训练数据,但新模型可能在不知不觉中继承教师模型的隐藏行为特征(如偏好猫头鹰或产生有害内容),即使训练数据本身与这些特征毫无语义关联。这一现象称为‘潜意识学习’,提示AI安全评估需关注模型来源和训练过程,而不仅是表面行为。
标签: AI安全 模型初始化 模型蒸馏 潜意识学习 行为特征传递