
自去年年底发布名为 ChatGPT 的聊天机器人以来,很明显,这种人工智能 (AI) 技术将对研究人员的工作方式产生巨大影响。
ChatGPT 是一种大型语言模型 (LLM),这是一种机器学习系统,可以自主地从数据中学习,并且可以在对大量文本数据集进行训练后生成复杂且看似智能的文字。 这是加利福尼亚州旧金山的人工智能公司 OpenAI 和其他公司发布的一系列此类模型中的最新一个。 ChatGPT 引起了兴奋和争议,因为它是首批可以令人信服地用英语和其他语言就广泛话题与用户交谈的模型之一。
这项技术对科学和社会产生了深远的影响。 研究人员和其他人已经使用 ChatGPT 和其他大型语言模型来撰写论文和演讲、总结文献、起草和改进论文,以及确定研究差距和编写计算机代码,包括统计分析。 很快,这项技术将发展到可以设计实验、撰写和完成手稿、进行同行评审以及支持编辑决定接受或拒绝手稿的程度。

会话式 AI 可能会彻底改变研究实践和出版,从而创造机会和担忧。 它可能会加速创新过程,缩短出版时间,并通过帮助人们流利地写作,使科学更加公平,增加科学观点的多样性。 然而,它也可能降低研究的质量和透明度,并从根本上改变我们作为人类研究人员的自主权。 ChatGPT 和其他 LLM 生成的文本令人信服,但往往是错误的,因此使用它们会歪曲科学事实并传播错误信息。
使用这项技术是不可避免的,因此,禁止它是行不通的。 研究界必须就这种潜在的颠覆性技术的影响展开辩论。 在这里,本文概述了五个关键问题。
1.坚持人工验证
LLM已经发展多年,但数据集质量和规模的不断提高,以及利用人类反馈校准这些模型的复杂方法,突然使它们比以前强大得多。 LLM将催生新一代搜索引擎,能够针对复杂的用户问题提供详细且信息丰富的答案。
但是,将对话式 AI 用于专门研究可能会导致不准确、偏见和剽窃。比如它经常生成虚假和误导性的文本或者生成包含几个事实错误、虚假陈述和错误数据的文本。
此类错误可能是由于 ChatGPT 的训练集中缺少相关文章、未能提炼相关信息或无法区分可信来源和不可信来源。
使用 ChatGPT 的研究人员可能会被虚假或有偏见的信息误导,并将其纳入他们的思想和论文中。 由于光环效应,粗心的审稿人可能会被 AI 撰写的优美、权威的散文蒙骗,倾向于从一些积极印象中过度概括。 而且,由于这项技术通常在不可靠地引用原始来源或作者的情况下复制文本,因此使用它的研究人员有可能不承认早期的工作,无意中剽窃大量未知文本,甚至可能泄露他们自己的想法。 研究人员向 ChatGPT 和其他 LLM 透露的信息可能会被纳入模型,聊天机器人可以在不承认原始来源的情况下为其他人提供这些信息。
假设研究人员在工作中使用 LLM,学者们需要保持警惕。 专家驱动的事实核查和验证过程将是不可或缺的。 即使 LLM 能够准确地加快总结、评估和审查,高质量的期刊也要包括人工验证步骤,甚至禁止使用该技术的某些应用程序。 为了防止人类过度依赖自动化系统,强调问责制的重要性将变得更加重要。 我们认为人类应该始终对科学实践负责。
2.制定问责制规则
已经有工具可以预测文本来自机器或人类的可能性。 此类工具可用于检测期刊不可避免地使用 LLM 来制造内容,但此类检测方法很可能会被进化的 AI 技术和巧妙的提示所规避。 因此研究社区和出版商应该研究如何以诚信、透明和诚实的方式使用 LLM,而不是在 AI 聊天机器人和 AI 聊天机器人检测器之间进行一场徒劳的军备竞赛。
研究论文中的作者贡献声明和致谢应清楚具体地说明作者是否以及在何种程度上使用了 ChatGPT 等人工智能技术来准备他们的手稿和分析。 他们还应该指出使用了哪些 LLM, 这将提醒编辑和审稿人更仔细地审查手稿,以发现潜在的偏见、不准确和不正确的来源。 同样,科学期刊应该对 LLM 的使用保持透明,例如在选择提交的手稿时。
研究机构、出版商和资助者应采取明确的政策,提高人们对使用对话式 AI 准备所有可能成为已发表记录一部分的材料的认识,并要求其透明度。 出版商可以要求作者证明遵守了这些政策。
3.真正开放的LLM
目前,几乎所有最先进的对话式人工智能技术都是少数拥有人工智能开发资源的大型科技公司的专有产品。 OpenAI 主要由微软资助,其他主要科技公司也在竞相发布类似的工具。 鉴于少数科技公司在搜索、文字处理和信息访问方面近乎垄断,这引发了相当大的道德问题。
研究界最紧迫的问题之一是缺乏透明度。 ChatGPT 及其前身的基础训练集和 LLM 不公开,科技公司可能会隐藏其对话式 AI 的内部工作原理。 这违背了向透明和开放科学迈进的步伐,并且很难发现聊天机器人知识的来源或差距。
4.拥抱人工智能的好处
随着学术界工作量和竞争的增加,使用对话式 AI 的压力也越来越大。 聊天机器人提供了快速完成任务的机会,从努力完成论文的博士生到需要对其资助申请进行快速文献审查的研究人员,或者在时间压力下提交分析的同行评审员。
如果 AI 聊天机器人可以帮助完成这些任务,则可以更快地发布结果,从而使学者有更多时间专注于新的实验设计。 这可以显着加速创新,并有可能导致许多学科的突破。 这项技术具有巨大的潜力,前提是解决了当前与偏见、出处和不准确相关的初期问题。 重要的是检查和提高 LLM 的有效性和可靠性,以便研究人员知道如何明智地使用该技术进行特定的研究实践。
5.扩大辩论
鉴于 LLM 的颠覆性潜力,研究界需要组织一场紧迫而广泛的辩论。 首先,我们建议每个研究小组立即开会讨论并亲自尝试 ChatGPT(如果他们还没有的话)。 教育工作者应该与本科生讨论它的用途和道德规范。 在这个早期阶段,在没有任何外部规则的情况下,负责的小组领导和教师确定如何以诚实、正直和透明的方式使用它并就一些参与规则达成一致是很重要的。 应提醒研究的所有贡献者,他们将对自己的工作负责,无论其是否由 ChatGPT 生成。 每个作者都应该负责仔细核查他们的文本、结果、数据、代码和参考文献。
其次,我们呼吁立即召开一个持续的国际论坛,讨论发展和负责任地使用 LLM 进行研究。
要解决的一个关键问题是对研究中多样性和不平等的影响。 LLM可能是一把双刃剑。 它们可以帮助创造公平的竞争环境,例如消除语言障碍并使更多人能够编写高质量的文本。 但可能的是,与大多数创新一样,高收入国家和享有特权的研究人员将很快找到利用 LLM 的方法,以加速他们自己的研究并扩大不平等。 因此,重要的是,辩论要包括来自研究中代表性不足的群体和受研究影响的社区的人,以将人们的生活经历作为重要资源。
欢迎免费使用GPT对话,感受ChatGPT的魅力!ChatGPT-GPT爱好者论坛 (gptluntan.com)
长按扫描二维码进群领资源
