“我们对此感到很糟糕”——OpenAI修复了可能违反GDPR的ChatGPT漏洞
OpenAI 可能违反了《通用数据保护条例》(GDPR),因为用户为其 ChatGPT 对话创建的标题在未经同意的情况下被随机展示给其他用户。该公司将这一问题描述为由第三方开源库引起的“重大问题”,目前已修复。一位法律专家表示,是否采取进一步行动取决于这些标题出现在其他用户账户中所造成的伤害程度,以及这些信息包含的内容。ChatGPT 会为每次聊天会话自动生成标题,用户也可以根据需要进行修改。(照片:Ascannio/Shutterstock)联合创始人兼首席执行官 Sam Altman 在 Twitter 上披露了这一问题并表示:“我们对此感到非常糟糕。”我们在 ChatGPT 中遇到了一个严重问题,由于一个开源库中的错误所致,现已发布修复方案并已验证完成。一小部分用户能够看到其他用户的聊天历史标题。我们对此感到非常糟糕。——Sam Altman (@sama) 2023年3月22日在 ChatGPT 中,当用户与聊天机器人开启一次新的对话时,侧边栏会出现一个笔记,随着对话进行,系统会为该对话生成一个 AI 标题。用户可以更改该标题,也可以删除该笔记。一小部分用户被错误地展示了其他用户的标题。自 2022 年 11 月推出以来,ChatGPT 成为了历史上增长最快的消费类应用之一,仅 2023 年 1 月就达到了 1 亿独立月活跃用户。它也引发了微软(OpenAI 的主要投资者之一)和谷歌等公司纷纷推出自己的聊天机器人,并将生成式 AI 工具整合到其产品中。同时,这也引发了关于 AI 技术在 GDPR 和即将出台的欧盟《人工智能法案》等法规中应如何监管的广泛讨论。ChatGPT 基于 OpenAI 的多模态大语言模型 GPT-4 构建,该模型训练数据包括从互联网中收集的数据、来自维基百科和法律数据库等大规模数据集,以及公司未公开的其他信息。Altman 表示,他们将对造成该漏洞的技术问题进行“技术复盘”,并表示可能会使用提示和回应中的信息来训练模型,但前提是这些信息已去除了个人身份信息。AI 规范的必要性全球各国正在积极探讨此类现象的影响以及如何加以监管,以确保用户数据安全。英国也在组建一个新工作组,研究大语言模型对社会、经济及个人的影响。内容来自我们的合作伙伴物流行业如何应对分销模式的转变 时尚品牌必须寻找了解该行业独特需求的数字解决方案 银行必须在合规与客户沟通之间取得更好平衡 纽卡斯尔大学法律教授 Lillian Edwards 表示,信息监管办公室(ICO)可能会调查 OpenAI 所经历的这种数据泄露情况,以确认是否涉及英国用户的数据。如果发生数据泄露,监管机构很可能会要求公司确保不再发生,而非采取其他行动。Tech Monitor 已向 ICO 请求评论。查看所有通讯 订阅我们的通讯 数据、洞察和分析直达你手中 由 Tech Monitor 团队提供 在这里注册 Carruthers and Jackson 的首席执行官兼联合创始人 Caroline Carruthers 表示,保护用户数据是任何组织的核心要求,尤其是在像 OpenAI 这样拥有大量数据的公司。此类数据泄露事件可能会削弱人们对该企业的信任。更糟糕的是,Carruthers 表示,这也凸显了 AI 技术潜在的数据风险。“像 ChatGPT 这样的平台依赖用户数据来运作,但获取这些数据意味着用户必须相信他们的信息是安全的。”Carruthers 表示。“这应该成为其他希望利用 AI 的企业的一课:在进入 AI 和机器学习之前,必须先打好数据治理的基础。” Lewis Silkin 数据和隐私团队的法律总监 Ali Vaziri 表示,AI 标题被分享给其他用户的问题是否构成数据保护问题,取决于仅从标题本身是否可以识别原始用户。“如果其他用户看到的仅仅是聊天历史的标题,除非这些标题本身包含能够识别原始用户的信息,那么就保密性而言,这可能不算个人数据泄露。”Vaziri 表示。即使标题包含个人身份信息,是否成为监管问题则取决于造成的伤害程度。“如果用户的利益可能受到损害,那么这将成为监管机构需要发出通知的触发点。”Vaziri 表示,“此外,数据保护法规还要求数据控制者确保其处理的个人数据的准确性,因此如果用户看到的是错误的聊天历史标题,也可能违反了这一原则;而由于这可能影响到该用户账户中个人数据的完整性,该事件也可能因此构成个人数据泄露。” 数据隐私与控制 Kaspersky 的首席数据科学家 Vlad Tushkanov 告诉 Tech Monitor,用户应该对隐私“没有任何期望”,因为 OpenAI 已警告过任何对话都可能被 AI 训练师看到,并建议用户不要在对话中分享任何敏感信息。他敦促用户“将与聊天机器人(或任何其他服务)的互动视为与陌生人交谈:你不知道内容最终会落在谁那里,所以请避免透露任何有关自己或他人的个人信息或敏感信息。”尽管已有警告,一些用户还是在 Twitter 上回应 Altman,声称他们设置的标题包含个人和“高度敏感”的信息。 Edwards 表示,更大的问题是,从互联网上爬取的敏感信息可能会在模型的回应中泄露。“众所周知,这些模型对个人数据的泄露就像筛子一样严重,”她警告道,并补充说:“它们的训练数据集包含无限量的个人数据,其中很多是敏感数据,这些数据可能会在回应提示时随机出现。”阅读更多:这些公司正在开发 ChatGPT 替代品 本文主题:人工智能、ChatGPT、OpenAI
查看全文
作者最近更新
评论0条评论