科学是通过语言传播的。科学中的语言媒介是多模式的,从课堂上的讲授,到科学家之间非正式的日常讨论,再到会议上准备好的演讲,最后到科学交流的顶峰--正式的同行评议出版物。人工智能(AI)驱动的语言工具(如 ChatGPT)的出现在全球范围内引发了爆炸性的兴趣。

截至 2023 年 1 月底,ChatGPT 在短短两个月内就拥有了超过 1 亿的活跃用户,创造了历史上所有应用程序中用户群增长最快的记录。ChatGPT 只是众多基于人工智能的语言工具中的第一款,还有更多的工具正在准备或即将推出。

在我们还没有时间考虑这种工具的影响或验证它生成的文本是否符合事实之前,世界各地的许多科研机构和大学就已经对 ChatGPT 改变科学交流的潜力表示担忧。ChatGPT 生成的文本结构具有类似人类的特质,可能会欺骗读者,让他们误以为这些文本是人类的作品。然而,现在很明显,生成的文本可能充满错误,可能肤浅肤浅,可能产生虚假的期刊参考文献和推论。更重要的是,ChatGPT 有时会产生无意义和错误的联系。

我们简要总结了 ChatGPT(以及未来的人工智能语言机器人)的一些优缺点,最后提出了一套我们的最佳实践建议,供科学家在研究的任何阶段,尤其是撰写稿件阶段使用。需要说明的是,即使在本文的作者中,也存在着不同的思想和观点,本社论反映的是中间立场的共识。目前的 ChatGPT 只是一个高效的语言机器人,通过语言连接生成文本。

目前,它 "只是一个巨大的自动完成机器&#​34;。由于 ChatGPT 只是众多模型中的第一个,而这些模型无疑会迅速改进,因此在几年内,我们几乎肯定会像回顾 20 世纪 80 年代的老式计算机一样回顾 ChatGPT。

必须承认的是,ChatGPT 依赖于其现有的数据库和内容,在撰写本社论时,它未能包含 2021 年之后发表或发布的信息,因此限制了其在撰写最新综述、观点和介绍时的实用性。因此,对于综述和视角而言,ChatGPT 是有缺陷的,因为它缺乏科学家应具备的分析能力,也缺乏为我们提供信息的经验。

作为科学家,我们最担心的是这些:

人工智能语言机器人无法理解新信息、产生见解或进行深入分析,这将限制科学论文中的讨论。

虽然这些结果看起来表述得很好,但却是肤浅的,过度依赖这些结果可能会扼杀整个科学事业的创造力。人工智能工具足以重复传统智慧,但无法识别或产生独特的结果。它们在评估独特结果是虚假的还是突破性的方面可能更差。如果 ChatGPT 和其他正在开发的语言聊天机器人也存在这种局限性,那么依赖人工智能来实现这一目的可能会降低未来颠覆性科学突破的频率。这一点令人担忧,因为 2023 年的一篇文章已经得出结论认为,这种颠覆性科学突破的频率正处于负面轨迹上。科学研究的颠覆性正在减弱--想想更多的饼干切割,更少的CRISPR。

ChatGPT 语言机器人的优势

人工智能驱动的语言机器人可以:

社论 | 使用人工智能撰写科学论文的最佳实践! (1) 帮助打破写作时的思维僵局,或在奋力写下第一个字时打破僵局。有了一些可以开始写作的文本,写作者就能克服影响工作效率的激活障碍。但要注意的是,这个起点可能会在精神上把你固定在某种思维和写作方式上,因此不要让这些文字限制了你的创造力和洞察力。更好的方法可能是在完成手稿草稿后使用 ChatGPT,提供一个补充视角,以确定是否遗漏了关键主题或要点,并激发新的想法和方向。

(2) 在适当的提示下进行有趣的类比,并在不同的概念和想法之间建立看似有创意的联系,不过这些联系需要进行现实检查,以确保其合理性或可信性。

(3) 有效用于改进稿件的标题、摘要和结论,使之符合期刊参数,更符合其范围或读者群。

(4) 识别常规文献检索可能遗漏的特定主题的参考文献。阅读并收录此类参考文献可丰富您对某一主题领域的理解,但必须仔细阅读或扫描,以确保其正确性和相关性。

(5) 通过将困难的主题分解成较小的片段,为写作结构提供指导。不过,机器人可能会提出一些糟糕的建议,因此在这样做时需要谨慎。

(6) 为非英语母语者的写作提供便利,从而创造公平的竞争环境。这种语言机器人和其他机器人几乎肯定会被直接纳入其他界面,如微软 Office 365。(14,15) (7) 通过提醒作者他们没有考虑到的方面,帮助他们在论述一个主题时更加全面。

(8) 以结构化、易于消化的方式提供自己不太熟悉的领域的知识。不过,我们必须牢记,如下文所述,产出可能不完整或缺乏创造性见解。

(9) 为 Python 和其他计算机语言开发代码。

对 ChatGPT 语言机器人的关注

人工智能驱动的语言机器人可能:

(1) 快速、易于使用,但如果不能负责任地谨慎使用,可能会过于简单。

(2) 用于撰写并取代批判性思维和全面的文献综述,从而损害用户的利益。就学生而言,撰写他们的第一篇手稿是一次变革性的培训经历。过度依赖这些语言机器人剥夺了他们的这一机会,限制了他们的智力成长和信心。

(3) 如果不将其作为创造性科学的跳板,就会导致平庸、千篇一律和无趣的科学。人工智能工具通常善于重复传统智慧,但在识别和产生独特结果方面却很薄弱。在判断独特结果是虚假的、反常的还是突破性的方面,它们可能更差。

(4) 不阅读支持作者主张的实际论文就使用。如前所述,ChatGPT 可以编造参考文献或虚假相关性。人工智能模型的输出结果不能照单全收;所有输出结果都需要经过严格审查,以防止出现错误、遗漏关键信息或提出不相关的主张。如果可用数据不完整或过时,ChatGPT 可能更容易生成不正确的信息。

(5) 无法提供有争议话题的正反两面,尤其是在没有用户输入的情况下。ChatGPT 无法表达破坏性概念。

(6) 继承了科学事业固有的偏见和谬误。它可能会压制质疑或反对既定概念或科学现象解释的少数人观点,或因内在偏见而忽视引用次数较少的作品。

(7) 生成没有前瞻性的文本,因为它可能在没有用户干预的情况下总结共识。仅基于 ChatGPT 成果的引言和综述论文将缺乏对某一领域发展方向的深思熟虑的见解。

(8) 由于 ChatGPT 可以利用现有信息轻松生成这些类型的稿件,因此会导致提交更多缺乏细微故事情节和前瞻性讨论的观点、叙述和评论。

(9) 生成不正确或最近被证明是错误的输出。还可以通过量身定制的提示对输出进行操作,以支持论点。

(10) 给临床相关研究结果的报告带来了重大挑战,这要求结果报告透明、试验设计和其他信息交流清晰。

(11)鉴于出版物在报告可推动实践变革的临床可操作性研究结果方面可以发挥重要作用,在这些情况下使用 ChatGPT 可能需要大量的监督和披露。

总之,科学是在荣誉体系下运行的。虽然现在有一些工具可以识别由 ChatGPT 生成的文本,但这些人工智能语言机器人的性能和复杂程度都将不断提高,因此对它们的使用进行审查将越来越困难。请谨慎使用这些工具,并提醒您的同事和合作作者在撰写稿件时注意相关问题和最佳实践。

归根结底,由于科学论文依赖于人类生成的数据和解释,科学故事需要创造力和技术诀窍,而使用基于人工智能的语言机器人将很难复制这些创造力和技术诀窍。

DOI:https://doi.org/10.1021/acsnano.3c01544

原标题:Best Practices for Using AI When Writing Scientific Manuscripts (使用人工智能撰写科学论文的最佳实践)

Jillian M. Buriak, Deji Akinwande, Natalie Artzi, C. Jeffrey Brinker, Cynthia Burrows, Warren C. W. Chan, Chunying Chen, Xiaodong Chen, Manish Chhowalla, Lifeng Chi, William Chueh, Cathleen M. Crudden, Dino Di Carlo

参考文献:

1.https://openai.com/blog/chatgpt/ (accessed February 2, 2023).

2.ChatGPT Sets Record for Fastest-growing User Base - Analyst Note; https://www.nasdaq.com/articles/chatgpt-sets-record-for-fastest-growing-user-base-analyst-note (accessed February 2, 2023).

3.China’s Baidu to Launch ChatGPT-style Bot in March - Source; https://www.reuters.com/technology/chinas-baidu-launch-chatgpt-style-bot-march-source-2023-01-30/ (accessed February 2, 2023).

4.Google is asking employees to test potential ChatGPT competitors, including a chatbot called ‘Apprentice Bard’;https://www.cnbc.com/2023/01/31/google-testing-chatgpt-like-chatbot-apprentice-bard-with-employees.html (accessed February 2, 2023).

5.Anthropic, an A.I. Startup, is Said to be Close to Adding $300 Million;

https://www.nytimes.com/2023/01/27/technology/anthropic-ai-funding.html (accessed February 2, 2023).