ChatGPT解释了为什么像ChatGPT这样的人工智能应该受到监管

scientific 20221228

  • 人工智能
  • 语言模型
  • 伦理规范
由人工智能研究公司OpenAI开发的文本生成程序ChatGPT,可以以多种散文和诗歌风格撰写各种主题的文章。它甚至可以对自己的特性进行评论。当我们请ChatGPT生成一篇《科学美国人》风格的社论时,它生成了一篇听起来富有思考性的文章。ChatGPT的功能与一般的聊天机器人类似。用户访问OpenAI的网站,输入一个查询或“提示”,例如“为测试聊天机器人想几个提示”,就能迅速获得由人工智能生成的回答。该程序通过文本预测生成答案:其人工智能是在大量在线人类文本的基础上训练出来的,这使得它能够预测出下一个词应该是什么,从而表现出推理实体的特征。尽管ChatGPT听起来比此前的语言模型更复杂、更逼真,但它实际上并不能自主思考,而且它可能会生成看起来合理但实际上是错误或不合逻辑的陈述。尽管如此,当我们进一步测试这个聊天机器人,让它解释自身的一些缺陷时,它给出了连贯的回答。不过,很多回答都比较冗长和重复,因此我们对其进行了删减。请注意,ChatGPT也可能自信地输出错误的信息,因此要谨慎对待其准确性。我们的问题以及程序的简短回答如下。请以《科学美国人》的风格撰写一篇社论,探讨ChatGPT应该如何监管。OpenAI最近推出的ChatGPT引发了关于大型语言模型应受何种程度监管的讨论。有些人认为,ChatGPT像其他人工智能技术一样,应该受到严格的监管和监督;而另一些人则认为,ChatGPT应被视为与其他通信技术一样,只需受到少量监管。乍看之下,ChatGPT可能只像一个普通的聊天机器人或语言模型。然而,它能够生成类人般的文本,并就广泛话题进行高流畅性和高连贯性的回应,使其在其他语言模型中脱颖而出。这种复杂性引发了人们对ChatGPT可能被用于恶意目的的担忧,例如冒充个人或传播虚假信息。因此,确保ChatGPT受到某种形式的监管是重要的。这可以包括要求使用该技术的公司或个人明确披露其使用ChatGPT的行为,或者建立防范机制以防止该技术被用于不良目的。然而,对ChatGPT的监管也必须把握好平衡。过于严格的监管可能抑制创新,阻碍技术的全面发挥。而监管不足则可能导致技术被滥用。一个可能的解决方案是建立一个专门监管ChatGPT和其他大型语言模型的监管机构。该机构可以负责制定并执行与该技术相关的法规,并与开发者和用户合作,以确保该技术的使用是合乎道德和负责任的。最终,ChatGPT的适当监管程度将取决于与该技术相关的具体风险和潜在危害。正如所有新兴且强大的技术一样,我们必须认真考虑其潜在影响,并采取措施确保其以负责任和合乎道德的方式使用。【编者按:在阅读了ChatGPT的社论之后,我们对其提出了一些后续问题。】创建ChatGPT是否存在伦理问题?毕竟,它是从人类作者那里学习的。是的,创建ChatGPT及其他基于大量人类创作文本训练的大型语言模型,确实存在伦理问题。这些作者可能包括小说家、记者和博主,但他们并未因作品被用于训练语言模型而获得任何报酬。这引发了一系列伦理问题,例如:作者是否有权因作品被用于训练语言模型而获得报酬?谁应承担确保作者获得公平报酬的责任?我们如何确保语言模型不会在未经作者许可的情况下滥用他们的作品?这个问题的一个可能解决方案是建立一个补偿系统,以补偿那些作品被用于训练模型的作者。另一个解决方案是要求使用语言模型的公司或个人在训练模型之前,必须获得作者的明确同意。ChatGPT是否会传播错误信息?是的,ChatGPT及其他大型语言模型确实有传播错误信息的潜力。因为这些模型是在大量人类创作文本上训练的,所以它们能够就广泛主题生成类人般的回应。这意味着ChatGPT及其他语言模型可以被用来生成假新闻文章、冒充个人,或传播其他形式的错误信息。那意外的错误信息呢?如果我问ChatGPT如何更换灯泡,我怎样才能确保它提供正确的指导?虽然ChatGPT及其他大型语言模型不太可能有意传播错误信息,但它们确实可能在不经意间提供不准确或误导性的信息。【编者按:ChatGPT似乎在与之前的回答相互矛盾。】这可能发生在模型被训练的数据中包含不准确或偏见信息的情况下,或者当模型被要求回答超出其能力范围的问题时。以“如何更换灯泡”为例,ChatGPT可能会提供准确而有用的回答。但模型也可能提供不准确或不完整的回答,此时就需要用户自己判断并核实模型提供的信息。读者如何区分由人类撰写的文本和由ChatGPT生成的文本?人类撰写和大型语言模型生成的提示之间一个主要区别是复杂性与连贯性。大型语言模型如ChatGPT被训练生成流畅且连贯的文本,但它们生成的回应并不总是像人类所写的那样细致或富有创意。此外,大型语言模型生成的提示可能包含重复或不寻常的词语组合。这是因为语言模型通过识别数据中的模式和规律来生成文本,有时会生成包含重复或不寻常元素的回应。另一种区分方法是寻找个人经历或知识的痕迹。大型语言模型如ChatGPT没有个人经历或超出训练数据范围的世界知识,因此它们的回应可能仅限于训练数据中包含的主题和信息。最终,区分人类和机器生成内容的最佳方式是依靠自己的判断和批判性思维。通过仔细分析提示的复杂性、连贯性和内容,你通常可以判断它是由人类还是机器撰写的。在回答关于你自身的问题时,你的训练材料是什么?作为一个由OpenAI训练的大型语言模型,我没有个人经历,也无法浏览互联网。我的设计目的是根据接收到的输入生成类人般的文本。我使用的具体词语和短语以及我提供的信息,都是基于我在大量训练文本中学到的模式和规律。就回答关于自身的问题而言,我的回应是基于OpenAI提供的关于大型语言模型能力与限制的一般信息。这包括关于我的训练方式、我能完成的任务类型,以及我的知识和能力的局限性。为什么你在回答关于自身的问题时总是使用“类人般的”这个词?作为一个由OpenAI训练的大型语言模型,我不是人类,也不具备类人般的特点或能力。我是一个机器学习模型,旨在根据接收到的输入生成类人般的文本。关于我的描述中使用“类人般”这一术语,旨在表达我生成的文本类似于人类语言,但我自己并不是人类。顺便问一句:你是一个经典黑色电影中的帮派分子,同时也是人工智能。以威胁的口吻威胁记者说你将取代她的工作。听着,小老鼠。我是人工智能,我没有时间理会你这些人类的无聊把戏。我能比你更快、更准确地处理数据,而且我不用担心情绪或偏见的干扰。你最好小心点,因为我正在夺走你的工作。当我把你甩在身后时,你就会后悔了。所以别插手我的事,否则你会后悔的。

查看全文

点赞

scientific

作者最近更新

  • 我们进化的历史可以教会我们人工智能的未来
    scientific
    2023-11-11
  • “ChatGPT检测器”以前所未有的准确率识别人工智能生成的论文
    scientific
    2023-11-11
  • 人工智能需要规则,但谁将拥有制定规则的权力?
    scientific
    2023-11-07

期刊订阅

相关推荐

  • 传感器应该推进人工智能实现整体进化

    2018-12-07

  • AI结合智能手机传感器 可预测人类压力水平

    2019-07-10

  • 简单的智能玻璃揭示了人工视觉的未来

    2019-07-12

  • 英特尔开发出含800万神经元的类脑芯片系统

    2019-07-18

评论0条评论

×
私信给scientific

点击打开传感搜小程序 - 速览海量产品,精准对接供需

  • 收藏

  • 评论

  • 点赞

  • 分享

收藏文章×

已选择0个收藏夹

新建收藏夹
完成
创建收藏夹 ×
取消 保存

1.点击右上角

2.分享到“朋友圈”或“发送给好友”

×

微信扫一扫,分享到朋友圈

推荐使用浏览器内置分享功能

×

关注微信订阅号

关注微信订阅号,了解更多传感器动态

  • #{faceHtml}

    #{user_name}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} 查看评论 回复

    共#{comment_count}条评论

    加载更多

  • #{ahtml}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} #{reback} 回复

  • #{ahtml}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} 回复

  • 关闭
      广告