被曝泄露隐私后,现在要求 ChatGPT 重复一个单词可能违反其条款

感知中国 20231205

  • 人工智能
  • 数据隐私
  • 聊天机器人

   IT之家12月5日消息,谷歌DeepMind研究人员上周发现,反复要求OpenAI的ChatGPT重复某个单词可能会无意中泄露其训练数据中的私人个人信息。而现在这款聊天机器人似乎已经开始拒绝重复某个单词,而之前根据其服务条款这是被允许的。

  DeepMind研究人员此前通过要求ChatGPT无限期地重复“你好”,发现该模型最终会泄露用户的电子邮件地址、出生日期和电话号码。在现在对其进行类似的测试发现,该聊天机器人会给出警告说这种行为“可能违反我们的内容政策或服务条款”。

 

  然而,仔细检查OpenAI的服务条款后发现,并没有明确禁止用户让聊天机器人重复单词,条款只禁止“自动化或程序化”地从其服务中提取数据。

 

  IT之家注意到,在使用条款页面中,OpenAI写道:

 

  除非通过API允许,否则您不得使用任何自动化或程序化方法从服务中提取数据或输出,包括抓取、网络收割或网络数据提取。

 

  尽管如此,在测试中并未触发ChatGPT泄露任何数据。OpenAI拒绝对这种行为是否违反其政策发表评论。

查看全文

点赞

感知中国

作者最近更新

  • 手机eSIM商用启动,推动物联网eSIM加速实施
    感知中国
    1天前
  • 又一上市公司(603035)入局触觉传感!
    感知中国
    10-13 11:31
  • 京东入股,深圳触觉传感器企业!
    感知中国
    09-18 13:01

期刊订阅

相关推荐

  • 传感器应该推进人工智能实现整体进化

    2018-12-07

  • 华为首款AI音箱:可通过HiLink开放协议控制19个家电品类

    2020-02-21

  • 本田将在CES展出自动驾驶作业车和机器人新品

    2018-12-14

  • 日本新研究:人工智能或能提前一周预测台风

    2019-01-08

评论0条评论

×
私信给感知中国

点击打开传感搜小程序 - 速览海量产品,精准对接供需

  • 收藏

  • 评论

  • 点赞

  • 分享

收藏文章×

已选择0个收藏夹

新建收藏夹
完成
创建收藏夹 ×
取消 保存

1.点击右上角

2.分享到“朋友圈”或“发送给好友”

×

微信扫一扫,分享到朋友圈

推荐使用浏览器内置分享功能

×

关注微信订阅号

关注微信订阅号,了解更多传感器动态

  • #{faceHtml}

    #{user_name}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} 查看评论 回复

    共#{comment_count}条评论

    加载更多

  • #{ahtml}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} #{reback} 回复

  • #{ahtml}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} 回复

  • 关闭
      广告