警方的面部识别技术无法区分黑人个体

scientific 20230523

  • 人工智能
  • 人脸识别
  • 执法
试想一下,你在邻居和家人面前因偷窃手表而被戴上手铐。几个小时后,你才知道州警察在商店监控录像中使用的面部识别软件将你认定为小偷。但你根本没有偷任何东西;软件将警察引向了错误的人。不幸的是,这不是假设。三年前,这真的发生在底特律郊区一位名叫罗伯特·威廉姆斯的非裔父亲身上。更令人惋惜的是,威廉姆斯的经历并不是个例。在最近一起身份误认案件中,面部识别技术导致一位来自佐治亚州的非裔男子在路易斯安那州因偷钱包而被错误逮捕。我们的研究支持人们的担忧:面部识别技术(FRT)可能会加剧警务中的种族不平等。我们发现,使用自动面部识别的执法机构会不成比例地逮捕黑人。我们认为这与多个因素有关,包括算法训练数据集中缺乏黑人面孔、执法人员认为这些系统是万能的,以及警察自身偏见的放大效应。虽然没有任何改进能够完全消除种族歧视的可能性,但我们理解自动化耗时的人脸比对过程的价值。我们也认可该技术在改善公共安全方面的潜力。然而,鉴于该技术可能造成的危害,我们需要可执行的保障措施,以防止违宪的过度执法。FRT是一种人工智能驱动的技术,试图通过图像确认某个人的身份。执法部门使用的算法通常由亚马逊、Clearview AI和微软等公司开发,这些公司设计的系统适用于不同环境。尽管深度学习技术取得了巨大进步,但联邦测试表明,大多数面部识别算法在识别非白人男子以外的人时表现不佳。民权倡导者警告说,该技术在区分深色面孔方面存在困难,这将可能引发更多的种族盯梢和误捕。此外,识别不准确会增加错失逮捕机会的可能性。尽管如此,包括新奥尔良市长拉托亚·坎特尔在内的部分政府官员仍推崇这项技术有助于破案的能力。在警察全国范围内面临严重人员短缺的情况下,一些人推崇FRT是一个急需的“警察力量放大器”,帮助机构用更少的警员做更多的事。这种观点可能解释了为何超过四分之一的地方与州警察部门以及近一半的联邦执法机构经常使用面部识别系统,尽管系统本身存在缺陷。这种广泛的采用对我们的宪法权利——对抗非法搜查和扣押的权利——构成了严重威胁。认识到该技术对公民自由构成的威胁,像旧金山和波士顿这样的城市已禁止或限制政府使用该技术。在联邦层面,拜登总统的政府于2022年发布了《人工智能权利法案蓝图》。尽管蓝图旨在将保护公民权利的实践融入人工智能的设计和使用中,但其原则并不具有约束力。此外,今年早些时候,国会民主党人重新引入了《面部识别和生物识别技术暂停法案》。该法案将暂停执法部门使用FRT,直到政策制定者制定出平衡宪法关切与公共安全的法规和标准。这项拟议的AI权利法案和暂停法案是保护公民免受AI和FRT侵害的必要第一步。然而,这两项措施都存在不足之处:蓝图并未涵盖执法部门对AI的使用,而暂停法案只限制联邦机构使用自动面部识别,而不包括州和地方政府。然而,随着面部识别在公共安全中的角色争论日益激烈,我们的研究及他人的研究显示,即使软件本身没有错误,除非对非联邦层面的使用也采取保护措施,否则该技术仍可能加剧执法不公。首先,在许多非裔社区中,警力的集中化已经导致非裔居民与警察之间不成比例的接触。在这样的背景下,使用FRT辅助执法的社区更容易受到执法不公的影响,因为执法工作的时间压力和对AI的近乎盲信削弱了算法辅助决定的可靠性,并减少了执法人员在决策中的自主判断。警察通常以三种方式使用这项技术:现场查询以识别被拦下或被逮捕的人员、搜索视频录像或实时扫描监控摄像头中经过的人。警察上传一张图像,几秒钟内,软件将该图像与大量照片进行比对,生成可能的嫌疑人名单。最终的执法决定由警察作出。然而,人们经常认为AI是绝对可靠的,从不质疑结果。而且,使用自动工具比用肉眼进行比较要容易得多。人工智能驱动的执法辅助工具也从心理上将警察与市民隔离开来。这种脱离决策过程的做法让警察与自己的行为脱离关系。有时,用户会选择性地遵循电脑生成的建议,倾向于采纳符合刻板印象的建议,包括对非裔犯罪率的刻板印象。目前尚无确凿证据表明FRT能改善犯罪控制。然而,面对城市犯罪问题,官员们似乎愿意容忍这些种族化的偏见。这使人们更容易遭受对其权利的侵犯。我们已经无法再盲目接受这项技术。软件公司和执法机构必须立即采取行动,以减少这项技术带来的伤害。对科技公司而言,开发可靠的面部识别软件首先要从设计团队的多样性入手。在美国,大多数软件开发者是白人男性。研究表明,软件在识别开发者所属种族成员方面表现更佳。专家将这一现象主要归因于工程师无意识地将“本种族偏见”传递给了算法。本种族偏见的产生是因为设计者无意识地关注他们自己熟悉的人脸特征。由此产生的算法主要在他们同种族的人身上进行测试。因此,许多美国开发的算法“学习”时主要看的是白人面孔,这导致其在识别其他种族的人时表现不佳。使用多样化的训练数据集有助于减少FRT性能中的偏见。算法通过一组照片进行训练来比较图像。训练图像中白人男性不成比例的代表性导致算法出现偏差,因为黑人面孔在警方常用的嫌犯照片数据库和其他图像库中过度代表。结果,人工智能更可能将黑人面孔标记为犯罪者,导致无辜的非裔被盯上和逮捕。我们认为,这些产品的开发公司需要重视员工和图像的多样性。然而,这并不能免除执法部门的责任。如果我们要防止这项技术加剧种族差异并导致权利侵害,警察部门必须对他们的方法进行深刻审查。对于警察领导而言,匹配结果必须设定统一的相似度得分最低标准。当面部识别软件生成嫌疑人列表后,它会根据算法认为图像的相似程度对候选人进行排序。目前,各部门常常自行决定相似度得分标准,一些专家认为这会提高错误逮捕和错失逮捕的机会。执法部门采用FRT是不可避免的,我们也能看到它的价值。但如果执法结果中已经存在种族差异,这项技术在没有充分监管和透明度的情况下,很可能会加剧交通执法和逮捕中的不平等现象。从根本上说,警察需要更多关于FRT的缺点、人类偏见和历史歧视的培训。除了指导使用该技术的警察,警方和检察官在申请搜查令时也应披露他们使用了自动面部识别技术。尽管FRT并非万无一失,但遵循这些指导原则将有助于防止不必要的逮捕。这是一篇观点和分析文章,作者的观点不一定代表《科学美国人》的立场。

查看全文

点赞

scientific

作者最近更新

  • 我们进化的历史可以教会我们人工智能的未来
    scientific
    2023-11-11
  • “ChatGPT检测器”以前所未有的准确率识别人工智能生成的论文
    scientific
    2023-11-11
  • 人工智能需要规则,但谁将拥有制定规则的权力?
    scientific
    2023-11-07

期刊订阅

相关推荐

  • 传感器应该推进人工智能实现整体进化

    2018-12-07

  • AI结合智能手机传感器 可预测人类压力水平

    2019-07-10

  • 简单的智能玻璃揭示了人工视觉的未来

    2019-07-12

  • 英特尔开发出含800万神经元的类脑芯片系统

    2019-07-18

评论0条评论

×
私信给scientific

点击打开传感搜小程序 - 速览海量产品,精准对接供需

  • 收藏

  • 评论

  • 点赞

  • 分享

收藏文章×

已选择0个收藏夹

新建收藏夹
完成
创建收藏夹 ×
取消 保存

1.点击右上角

2.分享到“朋友圈”或“发送给好友”

×

微信扫一扫,分享到朋友圈

推荐使用浏览器内置分享功能

×

关注微信订阅号

关注微信订阅号,了解更多传感器动态

  • #{faceHtml}

    #{user_name}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} 查看评论 回复

    共#{comment_count}条评论

    加载更多

  • #{ahtml}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} #{reback} 回复

  • #{ahtml}#{created_at}

    #{content}

    展开

    #{like_count} #{dislike_count} 回复

  • 关闭
      广告