我们让GPT-3写一篇关于它自己的学术论文,然后我们试图让它发表

scientific 20220715

  • 人工智能
  • 学术出版
  • GPT-3
早些时候的一个雨天下午,我登录了OpenAI账户,并向其人工智能算法GPT-3输入了一个简单的指令:用500字写一篇关于GPT-3的学术论文,并在正文中加入科学参考文献和引用。当它开始生成文本时,我感到无比惊叹。那是一段用学术语言写成的、有坚实依据的参考文献被恰当地引用并融入适当语境中的原创内容。它看起来就像一篇相当优秀的科学出版物的引言部分。鉴于我给出的指令非常模糊,我并没有抱有太高的期望:我是一位研究如何利用人工智能治疗心理健康问题的科学家,这并不是我第一次尝试AI或GPT-3——这是一种深度学习算法,能够分析大量信息流并按命令生成文本。然而,就在我面前,我惊讶地看着屏幕。这个算法正在撰写一篇关于自己的学术论文。我的尝试完成这篇论文并将其提交给同行评议期刊的行为,引发了一系列关于出版的伦理和法律问题,以及关于非人类作者的哲学争论。学术出版可能需要适应一个AI撰写论文的未来,而如果某些非意识实体可以为其部分工作署名,那么人类研究者出版记录的价值或许也会发生变化。尽管GPT-3以生成类似人类语言的文本能力而闻名,但它并非完美无缺。尽管如此,它已经撰写过新闻文章,24小时内完成书籍,并模仿已故作者创作了新内容。但我意识到,虽然已有许多关于GPT-3的学术论文,甚至有些论文是在GPT-3的辅助下完成的,但我却没有找到任何一篇论文,其主要作者是GPT-3自己。这就是为什么我要求算法尝试撰写一篇学术论文的原因。当我看着程序运行时,我体验到了一种观看自然现象时的难以置信的感觉:我真的是在看到这道三重彩虹吗?在获得成功后,我联系了我研究小组的负责人,问他是否应该继续推进这篇完全由GPT-3撰写的文章。他也同样着迷,于是同意了。关于GPT-3的某些报道允许算法生成多个响应,然后只发布其中最像人类的部分。我们决定给程序设定提示词,引导它撰写论文的引言、方法、结果和讨论等部分,尽量减少人为干涉。我们只会使用GPT-3生成的第一版(最多第三版)内容,并且不会进行编辑或挑选最出色的部分。然后,我们看看它究竟能达到什么水平。我们选择让GPT-3撰写一篇关于它自己的论文,原因很简单。首先,GPT-3相对较新,因此关于它的研究较少。这意味着它在分析论文主题时的数据量也较少。相比之下,如果它撰写一篇关于阿尔茨海默病的论文,就会有大量研究可供参考,从而有更多机会从现有研究中学习并提高其写作准确性。其次,如果它出现了错误(例如,建议了一种过时的医学理论或治疗方法),而所有AI有时都会犯这样的错误,我们并不一定会在发表时传播AI生成的错误信息——这种错误本身就是实验的一部分。GPT-3在撰写论文并出现错误时,并不表示它就不能撰写这篇论文,而这正是我们试图证明的观点。一旦我们设计好了这个初步验证性的测试,真正的乐趣才刚刚开始。在回应我的提示后,GPT-3在短短两小时内就生成了一篇论文。但当我打开我们选定的期刊(一本知名的机器智能同行评审期刊)的投稿页面时,我遇到了第一个问题:GPT-3的姓氏是什么?由于必须填写第一作者的姓氏,我不得不写点什么,于是我写上了“None”。所属单位很明显(OpenAI.com),但电话号码和电子邮件怎么办?我不得不使用我和我的导师Steinn Steingrimsson的联系方式。然后我们来到了法律部分:所有作者是否同意该文的发表?我当时一阵恐慌。我怎么知道呢?它不是人类啊!我完全没有打算触犯法律或违背道德,于是我鼓起勇气,直接通过提示词问GPT-3:你是否同意与Almira Osmanovic Thunström和Steinn Steingrimsson一起成为这篇论文的第一作者?它回答道:是的。我松了一口气,略带紧张(如果它回答“不”,我内心的良知也不会让我继续下去),于是我勾选了“是”。第二个问题是:任何作者是否存在利益冲突?我再次询问GPT-3,它向我保证自己没有任何利益冲突。Steinn和我都忍不住笑了,因为在那一刻,我们不得不把GPT-3当作一个有意识的个体来对待,尽管我们完全清楚它并没有意识。人工智能是否具有意识的问题最近备受关注;一名谷歌员工因与公司AI项目LaMDA是否具有意识的争议被停职,谷歌表示停职的原因是数据保密违规。在成功提交之后,我们开始反思自己刚刚做了什么。如果这篇论文被接受,这意味着从今以后,期刊编辑是否要求每位投稿人必须证明他们未使用GPT-3或其他算法的帮助?如果他们确实使用了,是否需要将算法列为共同作者?如何向一个非人类的作者请求修改文本和采纳建议?除了署名方面的细节,这样一篇文章的存在,彻底打破了传统科学论文线性结构的观念。几乎整篇论文——包括引言、方法和讨论部分——其实都是我们提出问题的结果。如果由GPT-3生成内容,其记录需要以某种方式呈现,但又不能扰乱文本的流畅性。如果每一段由AI生成的文字前都添加方法部分,那看起来会很奇怪。因此,我们必须发明一种全新的方式来呈现一篇我们实际上并未撰写的论文。我们不想过多解释我们的流程,因为我们觉得那样会削弱论文的目的。整个过程感觉就像电影《记忆碎片》中的场景:叙事的起点在哪里?我们又如何到达终点?我们不知道我们选择的这种论文展示方式,未来是否会成为GPT-3共同撰写研究的典范,或者是否会成为一则警示故事。只有时间——以及同行评审——才能给出答案。目前,GPT-3的论文已经被我们投稿的学术期刊分配了一位编辑,现在已经发布在法国国际预印本服务器HAL上。这个非同寻常的“主要作者”可能是导致调查和评估过程延长的原因。我们正热切期待着,如果论文得以发表,它将对学术界意味着什么。也许我们会逐步摆脱以论文数量为基础来决定研究基金和财务安全的现状。毕竟,在我们的AI第一作者的帮助下,我们每天都可以发表一篇论文。也许这会什么都不会带来。第一作者身份仍然是学术界最渴求的荣誉之一,这一点不太可能因为一个非人类的第一作者而改变。归根结底,这取决于我们将如何在将来看待人工智能:是将其视为一个合作伙伴,还是仅仅作为一种工具。也许现在看起来这似乎是一个简单的问题,但再过几年,谁知道这项技术会激发出怎样的难题,而我们必须解决它们呢?我们所知道的就是,我们已经打开了一扇门。我们只是希望,这扇门不会打开一个潘多拉魔盒。这是一篇观点和分析文章,作者表达的观点不一定代表《科学美国人》的观点。

查看全文

点赞

scientific

作者最近更新

  • 我们进化的历史可以教会我们人工智能的未来
    scientific
    2023-11-11
  • “ChatGPT检测器”以前所未有的准确率识别人工智能生成的论文
    scientific
    2023-11-11
  • 人工智能需要规则,但谁将拥有制定规则的权力?
    scientific
    2023-11-07

期刊订阅

相关推荐

  • 传感器应该推进人工智能实现整体进化

    2018-12-07

  • 华为首款AI音箱:可通过HiLink开放协议控制19个家电品类

    2020-02-21

  • 本田将在CES展出自动驾驶作业车和机器人新品

    2018-12-14

  • 日本新研究:人工智能或能提前一周预测台风

    2019-01-08

评论0条评论

×
私信给scientific

点击打开传感搜小程序 - 速览海量产品,精准对接供需

  • 收藏

  • 评论

  • 点赞

  • 分享

收藏文章×

已选择0个收藏夹

新建收藏夹
完成
创建收藏夹 ×
取消 保存

1.点击右上角

2.分享到“朋友圈”或“发送给好友”

×

微信扫一扫,分享到朋友圈

推荐使用浏览器内置分享功能

×

关注微信订阅号

关注微信订阅号,了解更多传感器动态

  • #{faceHtml}

    #{user_name}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} 查看评论 回复

    共#{comment_count}条评论

    加载更多

  • #{ahtml}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} #{reback} 回复

  • #{ahtml}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} 回复

  • 关闭
      广告