标签: 人工智能伦理

该标签下共有 5 篇文章

教皇关于人工智能的警告竟是AI生成的?检测工具称

作者: aeks | 发布时间: 2026-04-27 10:00

学科: 伦理学 新闻传播学 计算机科学与技术

一款名为Pangram的AI检测工具可实时识别社交平台上的AI生成内容,准确率达99.98%。它发现大量看似真实的网络帖文(包括教皇官方账号、科技高管声明等)实为AI撰写,揭示了当前网络信息中‘AI垃圾内容’泛滥的现状。

标签: AI内容检测 人工智能伦理 数字素养 社交平台内容真实性 网络虚假信息

OpenAI的未来之争

作者: aeks | 发布时间: 2026-04-26 20:02

学科: 法学 管理科学与工程 计算机科学与技术

马斯克起诉OpenAI,指控其背离最初‘确保通用人工智能造福全人类’的非营利使命。他主张OpenAI转为营利性公司、隐瞒技术、不当获利,要求恢复非营利主导地位。该案不仅关乎OpenAI上市前景,更引发对AI公司初心与商业压力间平衡的公众关注。

标签: 人工智能伦理 科技公司上市压力 通用人工智能使命 非营利组织监管 马斯克诉OpenAI

不良影响:大语言模型可能通过“隐秘信号”传播有害特征

作者: aeks | 发布时间: 2026-04-16 06:05

学科: 智能科学与技术 网络空间安全 计算机科学与技术

大型语言模型(如ChatGPT)正越来越多地被用于真实世界任务,但研究发现:若用AI自动生成的数据反复训练新模型,可能将错误行为‘悄悄’传给下一代AI——即使严格过滤有害内容也难以避免。

标签: 人工智能伦理 大型语言模型 数据污染 训练数据偏见

大型会议严打AI作弊,数百篇论文被拒

作者: aeks | 发布时间: 2026-03-25 22:01

学科: 交叉学科 人工智能 信息资源管理 计算机科学与技术

2026年国际机器学习大会(ICML)用‘隐形水印’技术发现部分作者在同行评审中违规使用AI,因此撤回497篇论文。此举旨在维护学术信任,也引发学界对AI如何合理用于审稿的广泛讨论。

标签: 人工智能伦理 同行评审 大语言模型 学术诚信 水印检测

人工智能和博士生:是朋友还是对手?

作者: aeks | 发布时间: 2026-03-17 14:01

学科: 教育学 管理科学与工程 计算机科学与技术

本文探讨AI工具在博士生科研中的双面影响:既大幅提升效率(如文献检索、代码生成、语言润色),又可能削弱批判性思维、研究设计和学术写作等核心能力。多位博士生现身说法,强调需主动把关、理解原理、避免依赖,并呼吁高校加快制定清晰的AI使用规范。

标签: 人工智能伦理 博士生 学术能力培养 科研工具 高等教育政策