Author 作者 编译|陈亭玮人工智慧ChatGPT社群媒体科学论文学术写作去(2022)年11月OpenAI发布的人工智慧(artificial intelligence, AI)聊天机器人ChatGTP,在非常短的时间内掀起了一波运用AI协助写作的浪潮。ChatGPT属於大型语言模型(large language model),可以协助编写出流畅的短文、组织写作内容、回答问题,甚至产生有用的程式语言。在此过程中,有人发现可以运用ChatGPT写出学术论文,已经出现一些预印发表与正式的发表文章将ChatGPT正式列为文章作者的行列。面对此情况,《自然》(Nature)与《科学》(Science)等重要学术出版商,均於今(2023)年针对大型语言模型制定相关的使用规则,并且已经正式列入现有的投稿指南。人工智慧出现在作者栏位,掀起出版领域波澜随着ChatGPT在社群媒体大放异彩,此类运用庞大文本、足以产生有如真人写作成品的大型语言模型也进一步挑战了学术写作的认知。截至今年2月,ChatGPT已经出现在至少四篇正式的科学论文与预印发表的作者栏位,在学术出版领域掀起一阵讨论。

在此之前,虽然也存在着少数学术论文将宠物、虚拟人名等列入作者栏的例子,然而过去这类状况仅为该期刊漏失了相关检查的特例,并不如这次代表了某种对於作者定义的重新审视。让ChatGPT署名发表的其中一个单位为医学预印发表平台medRxiv,该预印发表共有12位作者,文章内容主要有关使用ChatGPT进行医学教育的潜力。根据medRxiv共同创办人赛佛(RichardSever)的说明,medRxiv与姊妹站bioRxiv的经营团队仍在讨论使用AI工具如ChatGPT进行学术论文写作、列入作者栏位是否合适,或者应依据过去的惯例将AI仅视作一种工具於材料方法或其他栏位中作说明。赛佛认为在这个讨论中,最重要的部分可能是厘清学术论文的正式作者与一般文本的写作者这两者的差异。学术论文正式作者对於成品具有一定的法律责任,因此一般认为仅能列入自然人。

与ChatGPT共同发表文章於《肿瘤科学》(Oncoscience)的扎沃龙科夫(Alex Zhavoronkov)为香港药物新创公司Insilico的执行长,该公司运用AI研发新药,目前已经发表了超过80篇使用生成式AI工具辅助撰写的论文。依据扎沃龙科夫的说法,ChatGPT在此文章中以帕斯卡的赌注(Pascal’s Wager)讨论服用药物的利弊,写作的品质远比前几代AI工具更好。语言流畅但概念不正确,挑战学术写作的语言模型目前普遍认为如ChatGPT这类的AI技术,主要是基於人类的回馈强化学习、训练而得出的语言模型,使它本身具有很多强的互动性;但从科学正确性的角度,这类AI技术仍会写出看起来合理但实际上完全不正确、甚至非常荒谬的答案。也有许多例子显示,此种AI技术在事实层面会犯下许多错误,比如引用(或者可以说是捏造)不存在的科学研究内容。

此外,也有人担忧ChatGPT对於学术发表写作的影响。近期有一项研究测试,将ChatGPT产生的论文摘要提交给审稿者,仅有63%的摘要被审稿者发现是由ChatGPT生成,这显示了如果未有明确的规范与管理机制,ChatGPT这类AI生成的文本将有机会大举入侵学术发表的世界。

虽然靠人工大量分辨大型语言模型有它的困难性,但实际上经过审视後并非完全无迹可循。有编辑指出在多个段落而且牵涉科学内容的写作时,ChatGPT特别容易犯下简单的错误。目前也有一些基於大型语言模型的工具正在开发中,希望可以透过AI自动分辨出这类作品,或甚至加上「浮水印」让这类成品可以清晰标注为AI生成的。出版商共识:AI无法为作品负责,因此不应列入作者考虑到AI应用於学术发表的贡献将愈来愈普遍,目前学术发表界已经出现许多讨论,甚至延伸出正式的规范。在该领域具代表性的《自然》与《科学》期刊均已表态认为ChatGPT不符合作者身分的标准——因为标注作者身分也伴随了对学术发表内容的责任,且ChatGPT没有对使用条款表示同意与否的能力。但对於大型语言模型是否可应用於辅助学术论文发表的写作,显然目前不同的出版社有不同的方针。

针对此波讨论,今年1月底《自然》期刊为大型语言模型制定了两项规则,并纳入作者指南中。首先,大型语言模型不应被列入论文作者的行列,因为作者署名也代表了相关工作的责任归属,但AI作为工具无法为成品负责。其次,使用大型语言模型协助研究的研究人员,应在方法或致谢的段落标注大型语言模型的使用,如果论文本身不含这类段落,也可以标注在引言或其他部分。

与此同时,《科学》期刊的主编索普(Holden Thorp)也发表社论,认为根据《科学》系列期刊要求作者投稿时声明「作品为原创」,投稿的文章原本就不可使用大型语言模型如ChatGPT的成品进行写作,作者应全权为投稿文章中的文字负责。但《科学》期刊仍进一步更新了编辑政策,明确规定任何AI工具包括ChatGPT生成的文字、绘图、影像皆不可用於投稿文章。在《科学》系列期刊的规范中,AI不仅不能被列为作者,甚至不得使用於协助内容的制作。

虽然已经引起了广泛的讨论,但AI在学术发表领域可以作出哪些贡献,又应该受到哪些规范,目前显然仍处於非常早期的阶段。随着AI技术能力的进展,可以预见将有更多的争议逐渐浮现,未来将需要更多的智慧应对解决。新闻来源
1. Stokel-Walker, C. (18 January 2023). ChatGPT listed as author on research papers: many scientists disapprove. Nature. https://www.nature.com/articles/d41586-023-00107-z
2. Thorp, H. H. (2023). ChatGPT is fun, but not an author. Science,379(6630), 313-313.
3. Editorial. (24 January 2023). Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature. https://www.nature.com/articles/d41586-023-00191-1

0 0 投票数
Article Rating
订阅评论
提醒
guest
0 Comments
内联反馈
查看所有评论