《Nature》发文指出ChatGPT研究的五个重点

发布单位:国际教师教育中心编辑:李景煜发布日期:2023/02/20浏览量:10

2023年2月3日,荷兰研究人员Eva A. M. van Dis等人在《Nature》发表关于ChatGPT的观点,认为ChatGPT是一个大型语言模型,作为一个机器学习系统,可以从数据中自主学习,在对大量文本数据集进行训练后,可以生成复杂且看似智能的写作。同时表示这种类型的人工智能技术将对研究人员的工作方式产生巨大影响,并且使用这种技术是不可避免的,禁止这种技术的使用是行不通的,应该关注的是如何更好的使用,因此提出对ChatGPT研究的5个重点。

1.坚持人工验证

使用ChatGPT的研究人员有被虚假或有偏见的信息误导的风险,并把这些信息融入到他们的思想和论文中,因此研究人员需要保持警惕。由专家推动的事实核查和核查进程将是必不可少的,高质量的期刊也可能决定加入人工验证步骤,甚至禁止使用这种技术的某些应用程序。

2.制定问责制度

为了防止人类对自动化的偏见和对自动化系统的过度依赖,强调问责制的重要性将变得更加关键。研究界和出版商应该研究出如何以诚信、透明和诚实的方式使用ChatGPT。研究论文中的作者贡献声明和致谢应清楚而具体地说明作者是否以及在多大程度上使用了ChatGPT等人工智能技术来准备他们的手稿和分析。这将提醒编辑和审稿人更仔细地审查手稿,以发现潜在的偏见、不准确和不适当的来源信用。

3.投资真正开放的大型语言模型

研究界最紧迫的问题之一是缺乏透明度。ChatGPT及其前身的基础训练集尚未公开,科技公司可能会隐瞒其会话式AI的内部工作原理。这有悖于科学透明化和开放的趋势,也使得人们很难发现聊天机器人知识的来源或差距。为了应对这种不透明,应该优先考虑开源人工智能技术的开发和实施。非商业组织,如大学,通常缺乏所需的计算和财政资源,以跟上大型语言模型发展的快速步伐。因此,我们提倡科学资助组织、大学、非政府组织、政府研究机构和联合国等组织对独立的非营利项目进行大量投资。这将有助于开发先进的开源、透明和民主控制的人工智能技术。

4.接受人工智能的益处

在人工智能聊天机器人的帮助下,研究人员的研究结果就可以更快地发表,他们有更多的时间专注于新的实验设计,这可能会显著加速创新,并可能导致许多学科的突破。因此这项技术具有巨大的潜力,前提是目前与偏见、出处和不准确性相关的初期问题得到解决。因此需要检查和提高大型语言模型的有效性和可靠性,以便研究人员知道如何在具体的研究实践中明智地使用该技术。

5.扩大辩论范围

鉴于人工智能的颠覆性潜力,研究界需要组织一场紧急而广泛的辩论。首先,建议每个研究小组立即召开会议,讨论并自己尝试ChatGPT。在这个早期阶段,在没有任何外部规则的情况下,负责任的小组领导和教师决定如何诚实、正直和透明地使用它,并就一些参与规则达成一致是很重要的。第二,呼吁立即召开一个关于开发和负责任地使用大型语言模型进行研究的国际论坛,邀请包括不同学科的科学家、科技公司、大型研究资助者、科学院、出版商、非政府组织以及隐私和法律专家,为所有相关各方提出快速、具体的建议和政策。


更多信息请参阅:https://www.nature.com/articles/d41586-023-00288-7


编译自:《自然》期刊官网,2023-2-3


本文原作者Eva AM van Dis系荷兰阿姆斯特丹大学精神病学系的博士后研究员和心理学家;Johan Bollen系信息学和认知科学教授,也是美国印第安纳大学布卢明顿分校社会和生物医学复杂性中心的联合主任;Willem Zuidema系荷兰阿姆斯特丹大学逻辑、语言和计算研究所的自然语言处理、可解释人工智能和认知建模副教授;Robert van Rooij系荷兰阿姆斯特丹大学逻辑、语言和计算研究所所长兼逻辑与认知教授;Claudi L. Bockting系荷兰阿姆斯特丹大学精神病学系临床心理学教授,阿姆斯特丹大学高等研究院城市心理健康中心联合主任。


编译者:上海师范大学国际与比较教育研究院 施若蕾