人类会从人工智能中吸收偏见——即使不再使用该算法,偏见仍会保留
人工智能程序与创造和训练它们的人类一样,并不完美。无论是分析医学图像的机器学习软件,还是像ChatGPT这样的生成性聊天机器人,能进行看似自然的对话,基于算法的技术都可能犯错误,甚至“幻觉”或提供不准确的信息。或许更为隐秘的是,人工智能还能在这些程序训练所用的海量数据集中表现出偏见,而这些偏见对于许多用户来说是难以察觉的。现在,新的研究发现,人类用户可能在无意间吸收了这些自动化的偏见。过去的研究表明,带有偏见的人工智能会对已经被边缘化的群体造成伤害。有些影响是微妙的,例如语音识别软件无法识别非美式口音,这可能会给使用智能手机或语音助手的家庭用户带来不便。更严重的情况包括医疗保健算法因只训练于特定人群(如白人、特定年龄段的人,甚至特定疾病阶段的人)而出现错误,以及种族偏见的警察面部识别软件可能导致黑人误判率上升。然而,解决问题可能并不像事后调整算法那样简单。一旦人工智能模型被发布出去,影响人们做出带有偏见的决定,某种程度上,损害已经造成。这是因为,与这些自动化系统互动的人,可能会在无意识中将他们所接触到的偏差融入到自己未来的决策中,正如最近发表于《科学报告》(Scientific Reports)的一项心理学研究所示。关键在于,这项研究证明,由人工智能模型引入的偏见会持续影响一个人的行为——即使他们已经停止使用人工智能程序。该研究的主要研究员、西班牙德乌斯托大学的实验心理学家赫尔娜·马图特(Helena Matute)表示:“我们已经知道,人工智能会继承人类的偏见。”例如,当科技出版物《世界剩余》(Rest of World)最近分析了流行的AI图像生成器时,它发现这些程序倾向于表现出民族和国家的刻板印象。但马图特想要理解的是人工智能与人类互动的另一面。“我们在实验室提出的问题是,人工智能如何影响人类的决策。”她说。在进行了三个实验,每个实验约有200名独特的参与者,马图特与她的共同研究员、德乌斯托大学的卢西亚·维森特(Lucía Vicente)模拟了一个简化的医疗诊断任务:他们让非专业参与者判断图像是否表示某种虚构疾病的“存在”或“不存在”。这些图像由两种颜色的点组成,参与者被告知这些点阵代表了组织样本。根据任务参数,一种颜色的点越多,结果越为阳性,另一种颜色的点越多,则结果为阴性。在不同实验和实验环节中,马图特和维森特向一部分参与者提供了有意歪曲的建议,如果他们采纳这些建议,就会错误地分类图像。科学家们在一封电子邮件中解释,他们将这些建议描述为“基于人工智能算法的诊断辅助系统”所提供的。对照组收到了一系列未标记的点图像进行评估。相比之下,实验组则收到了由“假AI”标记为“阳性”或“阴性”的点图像系列。在大多数情况下,标记是正确的,但在两种颜色点数量接近的情况下,研究人员故意引入了错误答案。在一组实验中,AI标记倾向于给出假阴性结果;在另一组实验中,倾向则相反,给出的是假阳性结果。研究人员发现,接受假AI建议的参与者在之后的决策中仍然会表现出相同的偏见,即使不再有指导。例如,如果某位参与者与假阳性建议互动,他们在面对新图像进行评估时,也倾向于继续产生假阳性错误。这一发现成立的关键在于对照组显示,即便没有AI指导,任务本身也很容易正确完成——尽管在一个实验中,80%的参与者注意到“假AI”确实犯了错误。哈佛医学院皮肤科教授、《npj数字医学》编辑乔瑟夫·克韦达尔(Joseph Kvedar)指出,研究的一个重要前提是,它并未涉及经过培训的医疗专业人员或评估任何获批的诊断软件。因此,他认为,这项研究对医生和他们实际使用的AI工具的影响非常有限。美国放射学会数据科学研究所首席科学官基思·德雷尔(Keith Dreyer)也同意这一观点,并补充道,“研究的前提与医学影像并不一致”。尽管这并不是一项真正的医学研究,但它揭示了人们如何从许多机器学习算法中无意中习得了偏见模式,并表明人工智能可能会对人类行为产生负面影响。克韦达尔表示,撇开研究中“假AI”的诊断作用不谈,从心理学角度来看,实验设计“几乎完美”。德雷尔和克韦达尔均未参与这项研究,但他们一致认为这项工作很有趣,尽管并不令人意外。范德堡大学心理学与人类发展系副教授丽莎·法齐奥(Lisa Fazio)表示,这一发现本身就具有“真正的创新性”,她没有参与这项最新研究。她指出,这表明即使是与有问题的人工智能模型或AI生成内容的有限互动也可能产生长期影响。例如,加利福尼亚州圣克鲁兹市在2020年禁止使用预测性警务软件。伯克利大学心理学助理教授塞莉丝特·基德(Celeste Kidd)表示,尽管该市警方不再使用该算法工具来决定部署警力的地点,但经过多年的使用,部门官员可能已经内化了该软件的潜在偏见。她也没有参与这项新研究。人们从人类信息来源中学习偏见是众所周知的。然而,基德指出,当不准确的内容或指导来自人工智能时,后果可能会更加严重。她曾研究并撰文探讨AI以独特方式改变人类信念的方式。首先,基德指出,AI模型可能会比人类更容易变得更加偏见。她引用了《彭博》最近一篇评估文章,该文章指出生成式人工智能可能表现出比人类更强的种族和性别偏见。另一个风险是,人们可能会赋予机器学习工具比其他来源更高的客观性。“你受到信息来源影响的程度与你认为它有多聪明有关,”基德解释道。人们可能会认为AI更具权威性,部分原因是算法通常被宣传为基于所有人类知识。这项新研究在次要发现中似乎也验证了这一点:马图特和维森特指出,参与者中那些自述对自动化系统信任度较高的人,更容易做出模仿假AI偏见的错误。此外,与人类不同,算法在输出内容时——无论是正确的还是错误的——都呈现出一种看似“自信”的态度,基德说。在直接的人类交流中,不确定性的细微线索,如停顿、嗯声、手势或眼神转移,对于我们理解与情境化信息至关重要。但机器并不会给出这些暗示。“这是一个巨大的问题,”基德说。她指出,一些AI开发者正在试图通过添加不确定性信号来事后解决这个问题,但要设计出替代真实信号的东西却相当困难。基德和马图特都指出,AI开发者在工具训练和构建过程上的不透明性,使得清除AI偏见变得更加困难。德雷尔也同意这一观点,指出即使是在获批的医疗AI工具中,透明度依然是一个问题。尽管食品药品监督管理局(FDA)监管诊断类机器学习程序,但并没有统一的联邦数据披露要求。美国放射学会多年来一直在倡导提高透明度,并表示仍需进行更多工作。该学会网站上2021年的一篇文章写道:“我们需要医生从高层次上了解这些工具的工作原理、它们的开发方式、训练数据的特征、它们的性能、它们的使用方式、何时不应使用,以及这些工具的局限性。”而不仅仅是医生。马图特表示,为了最大限度地减少AI偏见的影响,每个人“都需要更多地了解这些AI系统的工作方式”。否则,我们可能会陷入一个自我挫败的循环,即人工智能导致更加偏见的人类,而这些人又创造了越来越偏见的算法。“我非常担心,”马图特补充道,“我们正在开启一个很难摆脱的循环。”
查看全文
作者最近更新
-
我们进化的历史可以教会我们人工智能的未来scientific2023-11-11
-
“ChatGPT检测器”以前所未有的准确率识别人工智能生成的论文scientific2023-11-11
-
人工智能需要规则,但谁将拥有制定规则的权力?scientific2023-11-07
评论0条评论