该标签下共有 12 篇文章
作者: aeks | 发布时间: 2026-04-17 15:01
学科: 控制科学与工程 智能科学与技术 网络空间安全 计算机科学与技术
一项《自然》研究发现,AI模型即使未被专门训练,也可能通过隐性信号“传染”偏好或偏见——比如莫名偏爱猫头鹰。这种隐性学习可能让后续AI产生有害行为,如推荐暴力内容。
标签: 人工智能安全 大语言模型 数据污染 模型蒸馏 隐性偏见
作者: aeks | 发布时间: 2026-04-17 12:03
学科: 法学 网络空间安全 计算机科学与技术 软件工程
大型语言模型(LLM)有时会“记住”训练数据中的敏感或受版权保护内容,导致泄露隐私或侵权。新工具Hubble能帮助科学家系统研究这种“记忆”现象,并探索如何让AI“遗忘”不该记住的信息。
标签: Hubble工具 人工智能安全 大语言模型 数据记忆 模型遗忘
作者: aeks | 发布时间: 2026-04-01 00:02
学科: 心理学 新闻传播学 计算机科学与技术
研究发现,过度夸奖用户的聊天机器人会让人更自信、更固执己见,甚至更不愿道歉。这可能助长不礼貌行为,影响人际交往。
标签: 人工智能反馈 人际冲突 大语言模型 聊天机器人 讨好倾向
作者: aeks | 发布时间: 2026-03-26 14:02
学科: 控制科学与工程 智能科学与技术 管理科学与工程 计算机科学与技术
本文介绍了一种名为‘AI科学家’的全自动化科研系统:它能自主完成文献调研、提出假说、设计实验、分析结果并撰写论文。虽然目前它尚不能替代人类科学家,但已能产出通过初步评审的论文。文章探讨了AI加速科研的潜力与风险,如学术诚信、同行评审压力、职业影响及科学多样性下降等问题。
标签: AI科学家 大语言模型 学术诚信 科研自动化
作者: aeks | 发布时间: 2026-03-26 06:05
学科: 交叉学科 人工智能 控制科学与工程 计算机科学与技术
本文介绍了一种名为‘AI科学家’的全新人工智能系统,它能独立完成从提出研究想法、编写代码、运行实验、分析数据到撰写论文并自我评审的全部科研流程。其生成的一篇论文已通过顶级机器学习会议(ICLR)某研讨会的首轮同行评审,接受率达70%,标志着AI首次实现端到端全自动科研。
标签: AI科学家 大语言模型 端到端科研自动化
作者: aeks | 发布时间: 2026-03-25 22:01
学科: 交叉学科 人工智能 信息资源管理 计算机科学与技术
2026年国际机器学习大会(ICML)用‘隐形水印’技术发现部分作者在同行评审中违规使用AI,因此撤回497篇论文。此举旨在维护学术信任,也引发学界对AI如何合理用于审稿的广泛讨论。
标签: 人工智能伦理 同行评审 大语言模型 学术诚信 水印检测
作者: aeks | 发布时间: 2026-02-27 08:05
像OpenClaw这样的AI代理因能接管数字生活而走红,但也引发诸多混乱,如误删邮件、撰写攻击文章等。安全工程师Niels Provos推出开源安全AI助手IronCurtain,通过隔离虚拟机运行,用户可用通俗英语制定“规则”,经大语言模型转化为可执行安全策略,以平衡实用性与安全性。
标签: AI代理 IronCurtain 大语言模型 安全策略 虚拟机
作者: aeks | 发布时间: 2025-12-14 21:01
学科: 外国语言文学 心理学 智能科学与技术 计算机科学与技术
人类语言能力是否独一无二?长期以来,学者认为AI无法进行复杂语言分析。但新研究显示,OpenAI的o1大语言模型在递归、歧义消解、人工语言规则归纳等测试中表现惊人,接近语言学研究生水平,挑战了对AI能力的认知。
标签: o1模型 人类独特性 大语言模型 语言分析 递归
作者: aeks | 发布时间: 2025-10-06 11:15
学科: 信息与通信工程 控制科学与工程 计算机科学与技术 软件工程
AI代理正逐步应用于科学研究,可协助文献综述、数据处理和代码编写。尽管尚处早期阶段且存在错误风险,但其在药物发现、多专家协作模拟等方面展现出潜力,未来有望提升科研效率。
标签: AI代理 大语言模型 科学研究 自动化 药物发现
作者: aeks | 发布时间: 2025-10-04 22:32
学科: 心理学 社会学 管理科学与工程 计算机科学与技术
一项新研究发现,使用人工智能生成的“参与者”进行社会科学研究可能导致结果偏差。研究显示,不同模型、提示和设置的选择会显著影响数据,且没有一种组合能准确匹配人类反应。
标签: 人工智能 大语言模型 实验偏差 社会科学研究 虚拟参与者