教育和学术研究中使用生成式人工智能相关要求的国际动态

来源:科技部      日期:2024-03-27

2023年以来,人工智能技术驱动的自然语言处理工具ChatGPT辅助科研人员开展科研活动,同时给科研诚信治理带来新挑战。例如,可能会引发版权和责任归属争议,对防范抄袭剽窃、规范学术引用等提出了新要求,给编造研究过程、伪造实验研究数据和研究成果等提供了便利,对同行评议工作提出了新挑战等。科技管理部门、学术共同体等对ChatGPT的认识,也逐步实现了从模糊到清晰、从概括到具体的转变。

一、通过制定政策引导学术界合规有序使用ChatGPT

学术界对于使用生成式人工智能逐步达成共识。2023年上半年,不同高校对使用ChatGPT持不同态度。一是明令禁止使用ChatGPT。如美国纽约和西雅图的公立学校、法国巴黎政治学院、香港大学等,明令禁止使用ChatGPT及其他AI工具。澳大利亚、印度、英国等多所大学限制学生使用ChatGPT,尤其是学生在校园内以及考试期间。二是鼓励使用ChatGPT。例如,宾夕法尼亚州大学沃顿商学院希望学生能够利用这一“写作力量倍增器”把文章“写得更多”“写得更好”,但在文章中要明确标注由ChatGPT协助完成的部分。三是引导科学使用ChatGPT。例如,加拿大阿尔伯塔大学制定使用ChatGPT手册,避免ChatGPT引发抄袭行为,并将其纳入学术诚信教育。此后,学术界的做法是指导合规使用ChatGPT等生成式人工智能。例如,2023年9月,联合国教科文组织发布《在教育和研究中使用生成式人工智能的指南》,从生成内容、政策法规、知识产权和数字鸿沟等六个层面,分析生成式人工智能可能带来的显性与隐性风险,并从政府、服务提供者、用户等层面提出具体防范措施。

二、逐步放宽在论文中使用ChatGPT的限制

2023年初,《自然》的期刊投稿政策严格限制使用ChatGPT等AI工具,不允许在论文中使用ChatGPT及其它AI工具生成的文本、图像或图形,AI也不能作为作者,违反规定将构成学术不端。2023年5月,国际医学期刊编辑委员会(ICMJE)投稿政策要求,不接受引用人工智能生成的原始信息内容,投稿作者应披露论文使用AI辅助技术情况,ChatGPT等不应被列为作者或共同作者,作者应对投稿中使用AI辅助技术的部分内容负责,对稿件中AI内容进行批判性审核。

2023年11月,《自然》修订了投稿政策,放宽了使用ChatGPT等AI工具的限制,明确论文只要适当披露AI辅助技术的使用情况,即可允许使用。

2023年12月,国际科学、技术和医学出版商协会(STM)则发布《学术交流中的生成式AI:学术出版中生成式AI的伦理与实操指南》。指南参考了多家出版商对于使用生成式AI的有关要求,主要针对学术出版中的版权、隐私、保密和伦理等方面风险,提出了最佳实践原则及意见建议。

三、严格限制ChatGPT在同行评议方面的使用

学术界对于在同行评议中禁止使用生成式人工智能的规定具有高度共识。2023年6月,美国国立卫生研究院(NIH)禁止使用ChatGPT等在线生成人工智能工具来分析和撰写同行评议意见。2023年7月,澳大利亚研究委员会(ARC)禁止使用生成式人工智能进行同行评议。2023年12月,美国国家科学基金会(NSF)发布《致科研界:在NSF评审过程中使用生成式人工智能技术的通知》,明确禁止NSF评审人将项目申请、评审信息和相关记录上传至未经批准的生成式人工智能工具,鼓励申请人在申报项目时明确使用生成式人工智能技术的有关情况。

学术出版界也不支持在同行评议中使用生成式人工智能。2023年11月,《自然》最新有关政策要求,审稿人撰写审稿意见时不得使用AI,因为AI技术可能会引发稿件外泄等后果。