ChatGPT因隐私问题在意大利被屏蔽
OpenAI 成功的自然语言 AI 平台 ChatGPT 在意大利被封锁。意大利数据保护局(Garante Privacy, GPDP)已命令该公司停止收集和处理意大利用户的数据,直到其符合 GDPR 等个人数据保护法规。OpenAI 在 2022 年 11 月推出 ChatGPT,今年 1 月已拥有超过 1 亿活跃月度用户。(照片由 rarrarorro/Shutterstock 提供)GPDP 表示,OpenAI 在用户及所有相关方对所收集数据的了解方面“信息缺失”,同时缺乏法律依据来正当化用于训练 ChatGPT 算法和模型的个人数据收集和存储行为。GPDP 还担忧缺乏任何年龄过滤技术,以防止未成年人使用该工具,并确保他们不会接触到“与自身发展和自我意识程度完全不相称的答案”。 此次调查可能是欧盟一系列类似行动的开端,因为 OpenAI 在欧洲没有合法实体,因此任何个别国家的监管机构都可以调查其数据收集的影响。OpenAI 有 20 天的时间回应该命令,否则可能面临最高达年收入 4% 的罚款。OpenAI 迄今尚未透露其基础模型 GPT-4 最新版本所使用的训练数据,但早期版本是基于从互联网上抓取的数据训练而成的,包括 Reddit 和维基百科。最新更新还引入了网络浏览器,使得 ChatGPT 首次可以实时从互联网上查找信息。GPDP 指出,最近发生了一起数据泄露事件,对话历史标题被泄露给其他用户,据称其中包括个人详细信息和支付信息,这也是暂停进一步数据收集的原因之一。 巨额罚款的可能性 如果发现 OpenAI 非法处理用户数据,欧洲各地的数据保护机构可以下令删除数据,包括用于训练基础模型的数据。这可能会迫使 OpenAI 重新训练 GPT-4,并导致其 API 和 ChatGPT 本体都不可用。这一切都发生在欧盟 AI 法正式实施之前,尽管该法案对像 ChatGPT 这类基础型和通用型 AI 的监管几乎没有规定。GPDP 原始意大利通知的翻译显示,该行动是因为“缺乏向用户和所有相关方告知其数据被 OpenAI 收集的信息,但更关键的是,缺乏正当化 OpenAI 大规模收集和存储个人数据的法律依据,以‘训练’平台运作所依赖的算法”。 内容来自我们的合作伙伴 韧性:自动化云灾难恢复的力量 我们是否正在见证一个新的“柯达时刻”? 物流行业如何应对分销模式的转变 意大利监管机构此前已封禁了 Replika 聊天机器人,原因是担忧其对儿童和情绪脆弱个体“风险过大”。这款虚拟朋友工具在调查结束前无法处理意大利用户的数据。 查看所有通讯 订阅我们的通讯 数据、见解和分析直送您的邮箱 由 The Tech Monitor 团队提供 在这里订阅 意大利并非唯一批评这类工具的国家。在美国,人工智能与数字隐私中心(CAIDP)已向 FTC 提交投诉,指控 OpenAI 使用数据的方式。该机构希望美国监管机构命令 OpenAI 暂停其 GPT 模型的开发,声称 GPT-4 未能满足 FTC 委员会设定的任何标准,包括透明、可解释、公平和基于实证的要求。CAIDP 在其向 FTC 提交的投诉中写道:“我们敦促委员会对 OpenAI 启动调查,并认定 GPT-4 的商业发布违反了《联邦贸易委员会法案》第 5 条,违反了 FTC 长期以来对业务使用和宣传人工智能产品所制定的指导方针,同时也违反了美国政府正式认可的 AI 治理新兴规范,以及领先专家和科学学会推荐的通用 AI 指南。”Linklaters 公司在纽约的合伙人、美国科技媒体与数据解决方案业务负责人 Ieuan Jolly 解释说:“FTC 已开始关注大语言模型和生成式 AI 的影响;其第 5 条的权力显然适用于你制作、销售或使用一款被设计为欺骗的工具,即使这不是其主要目的。生成式 AI 和基于聊天机器人模拟人类活动的合成媒体,无疑属于具有欺骗能力的工具类型,比如生成语音克隆或深度伪造视频的软件。”“我们已经看到诈骗者如何利用这些 AI 工具和聊天机器人快速廉价地生成逼真的虚假内容,通过虚假网站、帖子、资料和执行恶意软件和勒索软件攻击来针对特定群体或个体。FTC 之前也处理过类似案件。挑战在于如何在允许技术进步的同时,对仅具有欺骗生成能力的产品进行监管,而所有生成式技术都可能具备这种能力。”可能引发其他投诉 这紧随美国 1000 多名科技领袖和评论员的呼吁之后,其中包括 Steve Wozniak 和 Elon Musk,要求 OpenAI 暂停开发下一代大语言模型,直到引入伦理约束机制。Ropes & Gray 数据、隐私和网络安全部门的高级律师 Edward Machin 表示,人们有时很容易忘记,ChatGPT 只是在过去几周才被广泛使用,并且直到去年 11 月才正式上线,这意味着大多数用户还没有时间停下来考虑他们的数据被用于训练算法所带来的隐私影响。他说:“虽然他们可能愿意接受这种交换,但这里的问题在于,用户没有获得足够的信息来做出知情决定,更重要的是,即使如此,是否合法处理他们的数据仍存在疑问。停止公司处理个人数据的决定是监管机构最有力的武器之一,它比财务处罚对公司来说更具挑战性。我怀疑,欧洲各地的监管机构会暗中感谢 Garante 是第一个迈出这一步的,其他人现在跟随并发布类似的处理禁令并不会让人感到惊讶。”ForHumanity 执行总监 Ryan Carrier 表示,已有呼声要求对 AI 系统进行独立审计,其中包括 OpenAI 首席执行官 Sam Altman,但到目前为止,尚未采取任何行动。“ForHumanity 为 AI、算法和自主系统提供了一套 GDPR 认证方案,该方案已提交给英国和欧盟的国家数据保护机构——如果 OpenAI 能够建立设计合规能力,许多这些焦虑是可以避免的。”
查看全文
作者最近更新
评论0条评论