期刊编辑、研究人员和出版商目前正在辩论此类人工智能工具在已出版文献中的地位,以及引用机器人作为作者是否合适,原因是聊天机器人ChatGPT在科学文献的已发表论文和预印本上,获得了至少四个作者的称号。

Nature新闻团队联系的出版商和预印服务器同意,ChatGPT等人工智能不符合研究作者的标准,因为他们不能对科学论文的内容和完整性负责。但一些出版商表示,人工智能对撰写论文的贡献可以在作者列表以外的部分中得到承认。来自《自然》杂志,但编辑认为ChatGPT被错误地引用为合著者,该期刊以后应该纠正这一点。

第一篇

ChatGPT是去年12月在医疗存储库medRxiv上发布的关于使用该工具的医学教育预印本上的12名作者之一。

论文地址:https://www.medrxiv.org/content/10.1101/2022.12.19.22283643v2

纽约冷泉港实验室出版社助理总监、联合创始人Richard Sever表示,存储库及其姐妹网站bioRxiv背后的团队正在讨论在撰写研究时使用和信任ChatGPT等人工智能工具是否合适。Sever说:“我们需要将学术手稿作者的正式角色与作者作为文件作者的更普遍概念区分开来。”他说,作者对他们的工作负有法律责任,所以只应该列出人。“当然,人们可能会试图偷偷溜进去——这已经在medRxiv上发生过——就像人们过去在期刊文章中将宠物、虚构的人等列为作者一样,但这是一个检查问题,而不是政策问题。”

第二篇

ChatGPT署名文章是本月《护士实践教育》杂志上的一篇社论将人工智能与英国曼彻斯特大学健康技术研究员Siobhan O’Connor一起担任合著者。该杂志主编罗杰·沃森表示,这很快就会得到纠正。“这是我的疏忽,因为社论的管理系统与研究论文不同。

论文地址:https://www.medrxiv.org/content/10.1101/2022.12.19.22283643v2

 

香港人工智能驱动的药物发现公司Insilico Medicine的首席执行官Alex Zhavoronkov上个月在《论科学》杂志上撰写了一篇观点文章。他说,他的公司已经发表了80多篇由生成人工智能工具撰写的论文。“我们在这个领域并不陌往,”他说。最新论文在被称为Pascal赌注的哲学论点的背景下,讨论了服用拉帕霉素药物的利弊。Zhavoronkov说,ChatGPT写了一篇比前几代生成人工智能工具好得多的文章。Oncoscience同行在要求其编辑审查后审查了这篇论文。该期刊没有回应《自然》的置评请求。

论文地址  https://www.sciencedirect.com/science/article/abs/pii/S1471595322002517?via%3Dihub

第四篇文章

合著者、瑞典哥德堡Sahlgrenska大学医院的神经生物学家Almira Osmanovic Thunström表示,由早期的聊天机器人GPT-3共同撰写,并于2022年6月发布在法国预印服务器HAL上,不久将在同行评审期刊上发表。她说,一家期刊在评论后拒绝了这篇论文,但另一家期刊在应评论家的要求重写了这篇文章后接受了GPT-3作为作者。

论文地址:https://hal.science/hal-03701250

出版商政策

自然科学》的总编辑表示ChatGPT不符合作者标准。伦敦《自然》主编Magdalena Skipper说:“作者身份的归属伴随着对作品的问责,这无法有效地应用于法学硕士,作者在编写论文时以任何方式使用LLM,应酌情在方法或确认部分中记录其使用情况。“

华盛顿特区科学期刊家族主编Holden Thorp说:“我们不允许人工智能在我们发表的论文中被列为作者,在没有适当引用的情况下使用人工智能生成的文本可能会被视为抄袭。”

出版道德和诚信总监Sabina Alam表示,伦敦出版商Taylor & Francis正在审查其政策。她同意作者对其作品的有效性和完整性负责,并应在致谢部分引用LLM的任何使用。Taylor和Francis尚未收到任何将ChatGPT视为合著者的作品。

宾夕法尼亚州立大学大学公园分校天文学家、科学总监Steinn Sigurdsson说,物理科学预印服务器arXiv的董事会已经进行了内部讨论,并开始就使用生成人工智能的方法趋于一致。他同意软件工具不能是提交内容的作者,部分原因是它不能同意使用条款和分发内容的权利。Sigurdsson不知道有任何arXiv预印本将ChatGPT列为合著者,并表示作者指南即将发布。

生成性人工智能的伦理

伦敦英国研究诚信办公室的研究诚信经理Matt Hodgkinson以个人身份发言说,已经有明确的作者指南,这意味着ChatGPT不应被誉为合著者。他说,一个指导方针是,合著者需要为这篇文章做出“重大学术贡献”——这可以通过ChatGPT等工具实现。但它还必须有能力同意成为共同作者,并负责一项研究——或者至少是它所贡献的部分。他说:“这确实是给予人工智能工具共同作者的想法真正触地的障碍的第二部分。”

Zhavoronkov说,当他试图让ChatGPT写比他发表的观点更具技术性的论文时,失败了。他说:“它确实经常返回不一定正确的陈述,如果你问了几次相同的问题,它会给你不同的答案。”“因此,我肯定会担心学术界滥用该系统,因为现在,没有领域专业知识的人将能够尝试撰写科学论文。”

内容中包含的图片若涉及版权问题,请及时与我们联系删除