AI生成论文陷“思想抄袭”嫌疑,学术诚信红线面临新挑战

  随着人工智能(AI)技术不断渗透科学研究领域,完全由 AI 撰写的学术论文已从概念走向现实。然而,这类由大语言模型(LLM)驱动的“AI 研究者”却引发了一系列新的学术伦理问题,尤其是其输出内容中难以察觉的“思想抄袭”正成为学术界关注的焦点。

  近期,一项由印度科学院团队开展的研究指出,多篇由 AI 工具生成的论文稿件存在实质性方法抄袭现象——尽管未直接复制文字,却重复了已有研究的核心思路而未予署名。该研究特别提到了由日本 AI 初创公司 Sakana AI 开发的“AI 科学家”系统,该系统能够实现从生成想法、编码实验到撰写论文的全流程自动化。尽管这项研究获得了国际计算语言学会议的认可,但也遭到“AI 科学家”开发团队的强烈反驳。来自牛津大学、不列颠哥伦比亚大学等机构的研发人员认为,其系统仅存在文献引用不足的问题,而非实质性抄袭,并强调这仍是一项早期概念验证工作。

  目前争议的核心在于缺乏对“思想抄袭”的统一判定标准。与传统文字抄袭不同,AI 生成内容的方法重叠性、概念相似性和创新模糊性使人工和机器检测都极为困难。德国柏林工程应用科学大学学术诚信研究中心指出,LLM 的本质是基于已有文本进行重构和生成,其输出结果客观上存在无法溯源的风险。

  科学界呼吁,在积极推进 AI 科学研究工具发展的同时,必须同步构建相应的诚信验证框架,包括可解释的生成溯源、严格的人工审核流程以及针对 AI 论文的学术道德标准,从而在技术创新与学术诚信之间取得平衡。