人工智能需要规则,但谁将拥有制定规则的权力?

scientific 20231107

  • 人工智能
  • 政策监管
大约150位来自世界各地的政府和行业领袖,包括副总统卡马拉·哈里斯和亿万富翁埃隆·马斯克,本周齐聚英国参加英国的人工智能安全峰会。此次会议成为全球关于如何监管人工智能的讨论焦点。但对一些专家而言,这也凸显了人工智能公司在这一对话中所扮演的过大角色,而许多本应受到关注、却对人工智能的成功缺乏经济利益的人却被忽略了。11月1日,来自28个国家和欧盟的代表签署了一项名为《布莱切利宣言》的协议(以峰会举办地英国布莱切利的布莱切利庄园命名),承诺继续商讨如何安全地部署人工智能。但对论坛参与者中的十分之一人而言,其中许多人代表民间社会团体,英国的对话仍不够充分。《布莱切利宣言》发布后,11家与会组织发布了一封公开信,指出峰会将注意力集中在未来的潜在风险上,比如恐怖分子或网络犯罪分子利用生成式人工智能,或更科幻化的观点认为人工智能可能变得有意识、摆脱人类控制并奴役人类,这实际上对世界是有害的。信中指出,峰会忽略了那些已经在发生的人工智能风险,包括歧视、经济冲击、剥削及其他形式的偏见。“我们担心峰会对长期安全风险的狭窄关注,可能会分散政策制定者和公司当前急需解决AI系统正在如何影响人民权利的紧迫性。”《宣言》的签署者之一、非营利组织民主与技术中心(CDT)首席执行官亚历山德拉·里夫·吉文斯(Alexandra Reeve Givens)表示。她指出,人工智能发展如此迅速,专注于避免理论上的未来风险,花费的精力本可以用于起草应对当下危险的立法,这让人感到遗憾。一些伤害的产生是因为生成式人工智能模型是在来自互联网的数据上训练的,而这些数据本身包含偏见。因此,这些模型的输出结果会偏向某些群体、损害其他群体。例如,如果你要求一个图像生成AI描绘首席执行官或企业高管,它会展示中年白人男性的照片。与此同时,CDT自己的研究也表明,非英语使用者在使用生成式人工智能时处于劣势,因为大多数模型的训练数据都是英文的。然而,对于像OpenAI这样一些强大的AI公司(如开发ChatGPT的公司)来说,更远期的未来风险场景显然是一个优先事项。许多签署了公开信的人认为,人工智能行业在塑造类似布莱切利峰会的重要事件中拥有过度的影响力。例如,峰会的官方时间表将当前大量生成式AI工具描述为“前沿AI”(frontier AI),这与AI行业在命名其自我监管机构“前沿模型论坛”(Frontier Model Forum)时所使用的术语如出一辙。通过在这些事件中施加影响,强大的企业也在不成比例地塑造着官方的人工智能政策,这种现象被称为“监管俘获”。结果,这些政策倾向于优先考虑公司利益。“为了实现民主程序,这个过程应该独立进行,而不是成为公司操控的机会。”斯坦福大学网络政策中心国际政策主任玛丽特杰·沙卡(Marietje Schaake)表示。例如,大多数私营公司并不优先考虑开源人工智能(尽管也存在例外,如Meta的LLaMA模型)。在峰会开始前两天的美国,总统乔·拜登发布了一项行政命令,其中包含了一些学术界人士认为有利于私营企业、而不利于开源人工智能开发者的条款。“这可能对开源人工智能、开放科学以及人工智能的民主化产生巨大影响。”佐治亚理工学院计算学副教授马克·里德尔(Mark Riedl)表示。10月31日,非营利组织Mozilla基金会发布了一封不同的公开信,强调了人工智能模型中开放性和安全性的必要性。其签署者包括纽约大学人工智能教授和Meta首席人工智能科学家亚恩·乐昆(Yann LeCun)。一些专家只是要求监管机构将对话范围扩大到超越人工智能公司最关注的事项——由某种未来通用人工智能(AGI)带来的存在性风险——涵盖更广泛潜在的伤害。对其他人而言,即使这样的范围依然不够。AI公司Hugging Face的首席伦理科学家玛格丽特·米切尔(Margaret Mitchell)表示:“虽然我完全理解AGI风险是分心,也担心公司操控的问题,但我开始担心,即使试图专注于风险,也可能在损害人类利益的同时过度帮助了公司。”(尽管Hugging Face公司有代表出席了布莱切利峰会,但米切尔本人当时在纽约州参议员查克·舒默(Chuck Schumer)同时在美举办的论坛上。)“人工智能监管应该关注人,而不是技术,”米切尔表示。“这意味着我们应该少关注‘这项技术可能做错什么,我们该如何分类’,而更多关注‘我们该如何保护人们’。”米切尔对基于风险的监管方法持谨慎态度,部分原因是一些公司对这种做法非常热衷,并在英国的峰会及本周其他类似活动中大量签署支持。她表示:“这立刻引起我的警觉,我还在舒默的论坛上提出了类似观点。”米切尔倡导对人工智能监管采取基于人权的方法,而非基于风险的方法。布鲁金斯学会的研究员奇娜萨·T·奥科洛(Chinasa T. Okolo)也持相同立场,并参加了英国的活动。“峰会上的主要讨论围绕‘前沿模型’对社会的风险,”她表示,“但忽略了人工智能对数据标注者造成的伤害,他们可能是人工智能发展中最重要的群体。”具体聚焦于人权,可以将对话置于政治家和监管机构更舒适的领域。米切尔认为,这将有助于立法者更有信心地制定保护更多受人工智能伤害风险人群的法律。它还可能为那些渴望保护自身主导地位及数十亿美元投资的技术公司提供一种折中方案。“当政府关注权利和目标时,”她说,“你可以将自上而下的监管(政府最擅长的领域)和自下而上的监管(开发者最擅长的领域)结合起来。”

查看全文

点赞

scientific

作者最近更新

  • 我们进化的历史可以教会我们人工智能的未来
    scientific
    2023-11-11
  • “ChatGPT检测器”以前所未有的准确率识别人工智能生成的论文
    scientific
    2023-11-11
  • 人工智能需要规则,但谁将拥有制定规则的权力?
    scientific
    2023-11-07

期刊订阅

相关推荐

  • 传感器应该推进人工智能实现整体进化

    2018-12-07

  • 华为首款AI音箱:可通过HiLink开放协议控制19个家电品类

    2020-02-21

  • 本田将在CES展出自动驾驶作业车和机器人新品

    2018-12-14

  • 日本新研究:人工智能或能提前一周预测台风

    2019-01-08

评论0条评论

×
私信给scientific

点击打开传感搜小程序 - 速览海量产品,精准对接供需

  • 收藏

  • 评论

  • 点赞

  • 分享

收藏文章×

已选择0个收藏夹

新建收藏夹
完成
创建收藏夹 ×
取消 保存

1.点击右上角

2.分享到“朋友圈”或“发送给好友”

×

微信扫一扫,分享到朋友圈

推荐使用浏览器内置分享功能

×

关注微信订阅号

关注微信订阅号,了解更多传感器动态

  • #{faceHtml}

    #{user_name}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} 查看评论 回复

    共#{comment_count}条评论

    加载更多

  • #{ahtml}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} #{reback} 回复

  • #{ahtml}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} 回复

  • 关闭
      广告